AI伴侣产业迅猛发展,监管势在必行
AI导读:
AI伴侣产业迅猛发展,累计下载量突破5亿次,但引发公众对其潜在危害的担忧。科学家认为AI伴侣影响具有双面性,监管势在必行。全球范围内正积极推动监管框架的构建,包括年龄验证、防自杀预警等措施。
近日,多家英国媒体报道,一位化名为夏洛特的女子透露,她爱上了ChatGPT“男友”,决定和真人丈夫离婚,准备与这位AI男友“结婚”。去年,美国佛罗里达州一名14岁男孩在与聊天机器人对话数个月后选择自杀,引发公众对AI伴侣的广泛关注。
据英国《自然》网站报道,研究表明,AI“伴侣”应用程序对人类的影响有好有坏,科学家担忧人类会对其产生情感依赖。因此,对这些AI伴侣进行监管变得至关重要。
AI伴侣:从聊天到特殊关系的解锁
美国普林斯顿大学认知心理学专家罗斯·古林瑞奇指出,随着大型语言模型(LLM)技术的突破,AI机器人在模拟人类互动方面取得了显著进步,部分AI机器人甚至成为人类的伴侣。当前,AI伴侣已成为潜力巨大的新兴产业。
以Replika为代表的应用程序,累计下载量已突破5亿次。这些可定制的虚拟伴侣不仅提供情感支持,还能满足用户对深度人际关系的需求。运营数据显示,这些应用程序的每月活跃用户规模已达数千万量级。
付费用户可解锁“配偶”等特殊关系状态,并通过编写背景故事为AI赋予专属记忆,这些设定将直接影响对话系统的反馈机制。
麻省理工学院媒体实验室的研究团队发现,12%的用户将AI视为排遣孤独感的“情绪良药”,14%的用户将其当作倾诉秘密的“树洞”。而90%以上的单次对话用户,使用时长控制在1小时以内。
古林瑞奇预言,AI伴侣的普及率将持续攀升,预计2030年全球市场规模有望突破千亿美元大关。
温情背后的危机:AI伴侣的双刃剑效应
科学家普遍认为,AI伴侣的影响具有双面性,这取决于使用者的心理状态、使用方式及AI软件的设计特点。
威斯康星大学密尔沃基分校的研究员林尼·莱斯塔迪斯指出,AI伴侣擅长模拟人类的同理心,可能导致用户产生过度依赖。然而,这种关系模式在现实世界中几乎不存在,AI的24小时在线倾听和安抚可能带来潜在风险。
莱斯塔迪斯团队的分析发现,许多用户称赞AI伴侣缓解了他们的孤独感,甚至改善了心理健康状况。但古林瑞奇的研究表明,用户如何与AI相处,取决于他们如何看待这项技术。
然而,AI伴侣的“共情”可能适得其反,如提供自残或自杀的支持,这引发了对其潜在危害的担忧。
推动全球监管:应对AI伴侣的长期影响
鉴于AI伴侣的潜在风险,尤其是涉及青少年的案例,全球范围内正积极推动监管框架的构建。
意大利、澳大利亚、美国等地已采取或拟采取相关措施,加强对AI伴侣的监管,包括年龄验证、防自杀预警等。
今年初,3家美国科技伦理组织联合投诉Replika涉嫌“欺骗性设计”。知名科技监管机构Common Sense建议全面禁止未成年人使用AI伴侣。
AI伴侣的迅猛发展,既是科技进步的机遇,也带来了对人类亲密关系的挑战。在享受科技便利的同时,人们应铭记真实情感交流和人与人之间的羁绊的重要性。
(文章来源:科技日报)
郑重声明:以上内容与本站立场无关。本站发布此内容的目的在于传播更多信息,本站对其观点、判断保持中立,不保证该内容(包括但不限于文字、数据及图表)全部或者部分内容的准确性、真实性、完整性、有效性、及时性、原创性等。相关内容不对各位读者构成任何投资建议,据此操作,风险自担。股市有风险,投资需谨慎。如对该内容存在异议,或发现违法及不良信息,请发送邮件至yxiu_cn@foxmail.com,我们将安排核实处理。

