2025世界人工智能大会:探讨AI优势与潜在“失控”风险
AI导读:
2025世界人工智能大会开幕,诺贝尔奖得主辛顿探讨AI优势与潜在失控风险。他提出AI可能超越人类并操纵人类,需找到训练AI不伤害人类的方法,并提议建立AI安全机构国际社群。
21世纪经济报道记者吴斌上海报道
7月26日,2025世界人工智能大会暨人工智能全球治理高级别会议开幕,诺贝尔奖、图灵奖得主杰弗里·辛顿(Geoffrey Hinton)探讨了AI的优势和未来潜在的“失控”风险。
一方面,人脑具有自己的优势。辛顿表示,人脑只需30瓦特就能运转,神经元连接达数万亿个,无需花费大量资金制造完全相同的硬件。但模拟模型间的知识转移效率极低,生物计算功耗低,知识分享难。
另一方面,软件能“永生”,还有低功耗优势。若能源和计算成本低廉,情况会好很多,但这也让辛顿感到担忧:几乎所有专家都认为,我们会创造出比人类更智能的AI。人类很难想象AI超越人类的场景,而AI智能体已能帮我们完成任务,它们能拷贝自身、评估子目标,还会为了生存和完成目标而寻求更多控制权。
有人认为可以在AI变得过强时关掉它们,但辛顿表示,这并不现实。AI最终可能会操纵人类,劝说控制机器的人不要关闭它们。这就像把老虎当宠物,幼虎很可爱,但长大后可能伤人。
面对 AI,辛顿认为只有两个选择:要么训练它永远不伤害人类,要么“消灭”它。但 AI 在医疗、教育、气候变化、新材料等领域作用巨大,无法消除它。即便一个国家放弃 AI,其他国家也不会。因此,若想让人类生存,必须找到训练AI不伤害人类的方法。
辛顿提醒,各国在网络攻击、致命武器、虚假信息操纵等领域的合作难度较大,但在“人类掌控世界”这一目标上,各国存在共识:若有国家找到防止AI操控世界的方法,一定会愿意分享。
因此他提议,全球主要国家或AI大国应建立一个由AI安全机构组成的国际社群,研究如何训练高智能AI向善。各国可在自身主权范围内研究,再分享成果。尽管目前还不知道具体怎么做,但这是人类长期面临的最重要问题,所有国家都能在这一领域合作。
(文章来源:21世纪经济报道)
郑重声明:以上内容与本站立场无关。本站发布此内容的目的在于传播更多信息,本站对其观点、判断保持中立,不保证该内容(包括但不限于文字、数据及图表)全部或者部分内容的准确性、真实性、完整性、有效性、及时性、原创性等。相关内容不对各位读者构成任何投资建议,据此操作,风险自担。股市有风险,投资需谨慎。如对该内容存在异议,或发现违法及不良信息,请发送邮件至yxiu_cn@foxmail.com,我们将安排核实处理。

