AI导读:

人工智能快速发展引发法律与伦理挑战,全国政协委员连玉明建议加快立法进程,重视法律基础理论研究,并广泛听取企业意见。构建适应人工智能时代的法律体系,明确责任界定,确保国家安全、公共利益和个人信息保护。

当前,人工智能正快速发展,在提升效率的同时,也引发了一系列前所未有的法律问题和伦理挑战。这些问题急需解决,以适应技术变革。

全国政协委员、北京国际城市发展研究院创始院长连玉明长期关注数字经济治理。两会期间,他强调,应加速人工智能立法进程,特别是重视法律基础理论的研究,并广泛听取人工智能开发企业的意见,同时确保国家安全、公共利益和个人信息保护得到足够重视。[人工智能立法, 数字经济]

从AlphaGo到ChatGPT,这些突破表明AI已成为具有某种程度自主性的智能体,不再仅仅是工具。随着AI在各领域的广泛应用,当出现问题或事故时,需明确开发者、使用者和人工智能等主体的责任,这需要在法律层面进行清晰的界定。

例如,自动驾驶汽车事故责任划分、AI医疗误诊、算法歧视等案例,都凸显了责任认定的复杂性。因此,构建适应人工智能时代的法律体系迫在眉睫。

连玉明认为,在立法探讨中,需解决AI是否能成为法律主体、是否应赋予其某种法律资格等基础理论难题。随着能够深度学习的机器人的出现,这些基础理论的深入研究变得尤为重要。

现有法律体系建立在“人类中心主义”基础上,难以应对AI作为新型主体的法律地位问题。技术的发展使AI能力愈加强大,厘清其法律身份尤为迫切。

国际上,欧盟通过《人工智能法案》进行风险分级管理,美国则采用分散立法和行业自律相结合的方式。而我国虽已出台相关法律法规,但较为零散,难以全面应对AI领域的复杂问题。

因此,制定一部专门的综合性人工智能法律至关重要。连玉明建议,该法律应具备“未来法”、“基本法”和“保护法”三重属性,面向数字文明,构建稳定开放的制度框架,守护人的主体性。

具体操作上,建议组建跨学科课题组,研究“数据人”法律地位、AI科技伦理等前沿问题,为相关法律问题提供法理支撑。同时,确立“以人为本、智能向善”的价值导向,构建“技术善意”评估标准,确保算法透明和人工干预等规则的实施。

连玉明还强调,应更加重视AI企业对立法的参与,以更全面地解决技术快速发展带来的法律问题。[人工智能企业, 法律参与]

(文章来源:中国经营报)