科技领袖呼吁禁止超级智能开发,强调人工智能安全监管
AI导读:
北京时间10月22日,科技领袖签署“关于超级智能的声明”,呼吁禁止超级智能开发,强调需形成科学共识并赢得公众支持,避免盲目追求技术突破引发多重社会风险。
北京时间10月22日,包括诺奖获得者、“AI之父”杰弗里·辛顿,苹果公司联合创始人史蒂夫·沃兹尼亚克,世界上(论文)被引用数最多的科学家尤舒亚·本吉奥,维珍集团创始人理查德·布兰森等在内的科技领袖共同签署了一份“关于超级智能的声明”。该声明强调了人工智能安全的重要性,并指出在确保其安全可控方面需形成广泛的科学共识。
该声明称,“我们呼吁禁止超级智能的开发,除非在确保其安全可控方面形成广泛的科学共识,并赢得公众支持之前,否则不应解除该禁令。”声明指出,人工智能发展需谨慎,避免盲目追求技术突破而忽视潜在风险。
该声明还说明了发布的背景:创新性人工智能工具或将为人类带来前所未有的健康与繁荣。然而值得注意的是,除工具开发外,多家领先AI企业已公开宣布将在未来十年内实现超级智能的构建目标——即在所有核心认知任务上全面超越人类能力。这种发展态势已引发多重关切,包括人类经济价值被边缘化、自主权丧失、自由与公民权利受损、尊严贬损、控制力削弱等社会风险,乃至国家安全威胁甚至人类存续危机。本声明旨在凝聚共识,让各界知晓越来越多的专家与公众人物反对盲目追求超级智能的立场。
新京报贝壳财经记者注意到,签署该声明的也包括不少来自中国的科学家,如中国科学院院士、清华大学交叉信息研究院院长姚期智,中国工程院外籍院士、清华大学智能产业研究院院长张亚勤,北京前瞻人工智能安全与治理研究院院长、中国科学院自动化研究所研究员曾毅。曾毅指出,超级智能风险不容忽视,需加强国际合作与监管。
截至北京时间21点20分,该声明已获得1068个签名。签名人员之一的曾毅评论称,“直到现在,我们还没有坚实的科学证据和切实可行的方法来确保超级智能的安全,使其不会给人类带来灾难性的风险。世界尚未准备好迎接不是可控工具的超级智能。”这一观点凸显了人工智能监管的紧迫性。
(文章来源:新京报)
郑重声明:以上内容与本站立场无关。本站发布此内容的目的在于传播更多信息,本站对其观点、判断保持中立,不保证该内容(包括但不限于文字、数据及图表)全部或者部分内容的准确性、真实性、完整性、有效性、及时性、原创性等。相关内容不对各位读者构成任何投资建议,据此操作,风险自担。股市有风险,投资需谨慎。如对该内容存在异议,或发现违法及不良信息,请发送邮件至yxiu_cn@foxmail.com,我们将安排核实处理。

