人工智能:技术进步与挑战并存的治理之路
AI导读:
本文探讨了人工智能技术的快速发展所带来的信息安全、资源消耗、算法歧视等治理挑战,并从ESG视角分析了AI治理的重要性。同时,介绍了国内外AI大模型的发展状况及治理路径。
在人工智能(AI)技术的迅猛发展与普及的浪潮中,技术进步不仅带来了前所未有的机遇,同时也引发了信息安全与隐私保护、自然资源过度消耗、算法歧视、人工岗位替代以及商业垄断等一系列治理挑战。这些议题深刻揭示了技术发展的双刃剑特性。世界经济论坛最新出炉的《2025年全球风险报告》明确指出,错误信息和虚假信息已连续两年被列为全球最大的短期风险。2024年8月,欧盟《人工智能法案》的正式生效,标志着全球范围内对AI风险治理的重视已被提升至新高度。从环境、社会和公司治理(ESG)的视角审视,AI大模型行业涵盖算力、算法、数据三大核心要素,亟需从法律法规、行业倡议至企业内部治理等多维度构建全面的AI治理框架。
信息安全风险日益凸显
AI技术的快速发展,尤其是深度伪造技术的兴起,导致网络世界中错误信息和虚假信息的泛滥。诸如AI合成的知名医生张文宏在网络视频中带货的虚假场景、犯罪分子利用AI变脸技术冒充公司高管骗取巨额资金、专业团伙借助ChatGPT制作煽动性假新闻等事件频发。中国人民大学新闻学院副教授方洁指出:“AI的高速发展极大地增加了识别网络虚假信息的难度,真实可信的信息传播系统对于人们判断所处环境至关重要,但当前信息世界中真伪难辨的情况愈发普遍。”
《2025年全球风险报告》列举了未来两年人类面临的十大短期风险,错误信息和虚假信息再次位居榜首,紧随其后的是极端天气事件和国家间武装冲突。
随着自然语言处理(NLP)和生成对抗网络(GANs)等AI技术的不断进步,虚假信息的生成与传播变得更为便捷高效。深度伪造技术能够创造出高度逼真的虚假图片、视频和音频,误导公众,诱发诈骗,甚至扰乱社会秩序。据网络安全公司奇安信统计,2023年基于AI的深度伪造欺诈事件激增3000%,AI钓鱼邮件数量增长1000%。
方洁进一步强调:“AI技术变革对监管部门、互联网平台、媒体及网络用户均产生深远影响。利用AI生产虚假内容的成本低廉,但识别这些信息的成本却高昂得多。”
为应对这一挑战,韩国警方宣布将投资91亿韩元开发能够检测深度伪造文件和虚假信息的系统,以应对AI生成图像和声音犯罪激增的态势,预计该系统将于2027年底完成开发。
此外,AI的发展还带来了新的网络安全风险,奇安信董事长齐向东指出,这些风险包括数据信息安全风险、认知安全风险以及基础设施安全风险。AI技术的演进依赖于大量数据训练,这些数据往往包含敏感个人信息,若数据保护措施不到位,极易导致数据泄露和隐私侵犯。同时,AI系统本身也可能成为网络攻击的新目标。
这些风险暴露的根源在于人工智能时代的加速到来,其发展速度和影响力已超越互联网时代。
据中国互联网络信息中心去年11月发布的《生成式人工智能应用发展报告(2024)》显示,我国生成式AI产品用户已达2.3亿人,AI核心产业规模接近6000亿元。投行数据显示,2024年三季度,全球近三分之一的风险投资资金流向了AI领域。
当前,AI大模型已成为新时代的底层生产工具。“百模大战”的号角已经吹响,参与者涵盖科技巨头与初创企业。国际市场上,谷歌的Gemini、微软的OpenAI、Meta的LLaMA等大模型竞相角逐。在国内市场,百度的文心一言、阿里巴巴的通义千问、腾讯的混元、字节跳动的豆包、科大讯飞的星火等大模型纷纷加入浪潮。此外,Deepseek等初创企业研发的大模型也崭露头角。
随着硬件优化和算法改进,大模型的训练和推理成本不断降低,使得AI技术能够更快渗透到中小企业乃至个人开发者中,推动大模型应用从通用场景向医疗、金融、法律、交通等垂直行业拓展。
人工智能治理议题的双面性
ESG理念强调企业对社会的影响。从ESG视角分析,不同行业企业面临的重要性议题存在差异,而AI的重要性议题则跨越不同行业。中央财经大学绿色金融国际研究院副院长、中财绿指首席经济学家施懿宸指出:“AI包含算力、算法、数据三大关键要素,兼具软件行业、算力基础设施及互联网行业的特质。”因此,AI企业需关注的环境议题包括算力基础设施的碳排放、能源消耗、水资源使用等;社会议题则涉及信息安全与隐私保护等;同时,还需关注算法透明度,以避免算法歧视。
施懿宸表示:“信息安全与隐私保护议题可借鉴互联网行业的思路,通过技术和法律手段解决,同时需加强企业自我约束和平台监管。”例如,OpenAI将GPT-4模型引入内容审核系统,提高审核效率;德国基尔大学科学家研发出能够精准识别虚假新闻的新型AI工具;腾讯旗下朱雀实验室推出朱雀AI大模型检测系统,帮助用户识别AI生成的文本与图像。
算法歧视源于AI决策过程所依赖的历史数据,可能导致历史数据中的偏见被延续甚至放大。例如,亚马逊曾利用AI工具筛选人才,却发现系统对女性存在偏见。为应对算法歧视,微软开发出判断AI算法是否存在偏见的系统工具;微软、谷歌、IBM等企业均设立了AI伦理审查机构;商汤科技也成立了人工智能伦理与治理委员会。
在部分ESG议题上,AI的影响尚难以界定,展现出技术的双面性。例如,AI训练过程消耗大量能源和水资源,但同时也能应用于提升能效、节约能源、保护环境、应对气候问题等领域。有研究估算,训练GPT-3所需的清水量相当于填满一个核反应堆冷却塔的水量;GPT-3每次训练耗电量为1287兆瓦时,相当于3000辆特斯拉电动汽车共同行驶20万英里的耗电量。
然而,在黄河上游的羊曲水电站,AI与大数据技术构建的数字孪生智慧电厂助力新能源发电站平稳运行。中国电信通过自研AI节能系统,年均节电8亿度,节省电费5.2亿元。微软推出低成本AI工具,助力解决水、农业、生物多样性和气候变化等环境问题。
在人工替代议题上,AI的应用引发了网约车司机等群体对就业前景的担忧,但同时也开始在劳动强度高、危险性强的工作中发挥作用。例如,泰科电子利用AI技术,在流水线上精准检测连接器瑕疵,减轻员工工作强度;万勋科技生产的软体机器人借助AI性能,进行高空清洗作业,替代人工完成危险工作。
施懿宸指出:“AI推动自动驾驶技术快速发展,让出行更方便、更安全,但也可能影响网约车行业。在技术发展推动社会变革的过程中,监管机构、企业、公众、媒体等各方需持续沟通,形成共识,制定基本原则与行业倡议,保障社会转型的公平性。”
构建AI治理体系的路径
德勤中国可持续发展研究院院长谢安认为,从ESG角度出发,建立健全AI治理体系需国家、行业、企业三层次协同推进,共同促进AI的健康有序发展。
国家层面,政府应制定全面的法律法规和伦理指引,为AI发展提供制度保障。如中共中央办公厅、国务院办公厅2022年出台的《关于加强科技伦理治理的意见》,为科技伦理治理提供了明确指导;国家网信办联合国家发改委、科技部、工信部等部门2023年发布的《生成式人工智能服务管理暂行办法》,对生成式AI服务的规范应用提出了具体要求。
国际方面,欧盟《人工智能法案》于2024年8月正式生效,并发布了更详细的条款,规定滥用AI技术进行潜意识操控、欺骗误导、区别对待个人或群体、抓取用户面部信息等行为,将面临高额处罚。
行业层面,谢安建议各行业结合自身特点,制定AI伦理指引和标准。例如,中国人民银行2022年发布的《金融领域科技伦理指引》,为金融行业AI应用提供了伦理规范。医疗等关键行业也应制定相应伦理指引。
企业层面,企业应建立完善AI内部治理体系,确保AI技术安全合规应用。
此外,业内人士建议,相关部门应提前预判,优化公共治理体系,大力发展AI衍生行业,如AI风险管理机构、基于AI的服务业、教育培训业等;健全全社会职业生涯终身培训体系,为低技能劳动者提供便捷的新技术培训,增加就业机会。
原文链接
郑重声明:以上内容与本站立场无关。本站发布此内容的目的在于传播更多信息,本站对其观点、判断保持中立,不保证该内容(包括但不限于文字、数据及图表)全部或者部分内容的准确性、真实性、完整性、有效性、及时性、原创性等。相关内容不对各位读者构成任何投资建议,据此操作,风险自担。股市有风险,投资需谨慎。如对该内容存在异议,或发现违法及不良信息,请发送邮件至yxiu_cn@foxmail.com,我们将安排核实处理。

