加快人工智能立法进程,应对法律与伦理挑战
AI导读:
人工智能快速发展引发法律与伦理挑战,全国政协委员连玉明建议加快立法进程,重视法律基础理论研究,并广泛听取企业意见。构建适应人工智能时代的法律体系,明确责任界定,确保国家安全、公共利益和个人信息保护。
当前,人工智能正快速发展,在提升效率的同时,也引发了一系列前所未有的法律问题和伦理挑战。这些问题急需解决,以适应技术变革。
全国政协委员、北京国际城市发展研究院创始院长连玉明长期关注数字经济治理。两会期间,他强调,应加速人工智能立法进程,特别是重视法律基础理论的研究,并广泛听取人工智能开发企业的意见,同时确保国家安全、公共利益和个人信息保护得到足够重视。[人工智能立法, 数字经济]
从AlphaGo到ChatGPT,这些突破表明AI已成为具有某种程度自主性的智能体,不再仅仅是工具。随着AI在各领域的广泛应用,当出现问题或事故时,需明确开发者、使用者和人工智能等主体的责任,这需要在法律层面进行清晰的界定。
例如,自动驾驶汽车事故责任划分、AI医疗误诊、算法歧视等案例,都凸显了责任认定的复杂性。因此,构建适应人工智能时代的法律体系迫在眉睫。
连玉明认为,在立法探讨中,需解决AI是否能成为法律主体、是否应赋予其某种法律资格等基础理论难题。随着能够深度学习的机器人的出现,这些基础理论的深入研究变得尤为重要。
现有法律体系建立在“人类中心主义”基础上,难以应对AI作为新型主体的法律地位问题。技术的发展使AI能力愈加强大,厘清其法律身份尤为迫切。
国际上,欧盟通过《人工智能法案》进行风险分级管理,美国则采用分散立法和行业自律相结合的方式。而我国虽已出台相关法律法规,但较为零散,难以全面应对AI领域的复杂问题。
因此,制定一部专门的综合性人工智能法律至关重要。连玉明建议,该法律应具备“未来法”、“基本法”和“保护法”三重属性,面向数字文明,构建稳定开放的制度框架,守护人的主体性。
具体操作上,建议组建跨学科课题组,研究“数据人”法律地位、AI科技伦理等前沿问题,为相关法律问题提供法理支撑。同时,确立“以人为本、智能向善”的价值导向,构建“技术善意”评估标准,确保算法透明和人工干预等规则的实施。
连玉明还强调,应更加重视AI企业对立法的参与,以更全面地解决技术快速发展带来的法律问题。[人工智能企业, 法律参与]
(文章来源:中国经营报)
郑重声明:以上内容与本站立场无关。本站发布此内容的目的在于传播更多信息,本站对其观点、判断保持中立,不保证该内容(包括但不限于文字、数据及图表)全部或者部分内容的准确性、真实性、完整性、有效性、及时性、原创性等。相关内容不对各位读者构成任何投资建议,据此操作,风险自担。股市有风险,投资需谨慎。如对该内容存在异议,或发现违法及不良信息,请发送邮件至yxiu_cn@foxmail.com,我们将安排核实处理。

