AI导读:

AI伴侣产业迅猛发展,累计下载量突破5亿次,但引发公众对其潜在危害的担忧。科学家认为AI伴侣影响具有双面性,监管势在必行。全球范围内正积极推动监管框架的构建,包括年龄验证、防自杀预警等措施。

  近日,多家英国媒体报道,一位化名为夏洛特的女子透露,她爱上了ChatGPT“男友”,决定和真人丈夫离婚,准备与这位AI男友“结婚”。去年,美国佛罗里达州一名14岁男孩在与聊天机器人对话数个月后选择自杀,引发公众对AI伴侣的广泛关注。

  据英国《自然》网站报道,研究表明,AI“伴侣”应用程序对人类的影响有好有坏,科学家担忧人类会对其产生情感依赖。因此,对这些AI伴侣进行监管变得至关重要。

  AI伴侣:从聊天到特殊关系的解锁

  美国普林斯顿大学认知心理学专家罗斯·古林瑞奇指出,随着大型语言模型(LLM)技术的突破,AI机器人在模拟人类互动方面取得了显著进步,部分AI机器人甚至成为人类的伴侣。当前,AI伴侣已成为潜力巨大的新兴产业。

  以Replika为代表的应用程序,累计下载量已突破5亿次。这些可定制的虚拟伴侣不仅提供情感支持,还能满足用户对深度人际关系的需求。运营数据显示,这些应用程序的每月活跃用户规模已达数千万量级。

  付费用户可解锁“配偶”等特殊关系状态,并通过编写背景故事为AI赋予专属记忆,这些设定将直接影响对话系统的反馈机制。

  麻省理工学院媒体实验室的研究团队发现,12%的用户将AI视为排遣孤独感的“情绪良药”,14%的用户将其当作倾诉秘密的“树洞”。而90%以上的单次对话用户,使用时长控制在1小时以内。

  古林瑞奇预言,AI伴侣的普及率将持续攀升,预计2030年全球市场规模有望突破千亿美元大关。

  温情背后的危机:AI伴侣的双刃剑效应

  科学家普遍认为,AI伴侣的影响具有双面性,这取决于使用者的心理状态、使用方式及AI软件的设计特点。

  威斯康星大学密尔沃基分校的研究员林尼·莱斯塔迪斯指出,AI伴侣擅长模拟人类的同理心,可能导致用户产生过度依赖。然而,这种关系模式在现实世界中几乎不存在,AI的24小时在线倾听和安抚可能带来潜在风险。

  莱斯塔迪斯团队的分析发现,许多用户称赞AI伴侣缓解了他们的孤独感,甚至改善了心理健康状况。但古林瑞奇的研究表明,用户如何与AI相处,取决于他们如何看待这项技术。

  然而,AI伴侣的“共情”可能适得其反,如提供自残或自杀的支持,这引发了对其潜在危害的担忧。

  推动全球监管:应对AI伴侣的长期影响

  鉴于AI伴侣的潜在风险,尤其是涉及青少年的案例,全球范围内正积极推动监管框架的构建。

  意大利、澳大利亚、美国等地已采取或拟采取相关措施,加强对AI伴侣的监管,包括年龄验证、防自杀预警等。

  今年初,3家美国科技伦理组织联合投诉Replika涉嫌“欺骗性设计”。知名科技监管机构Common Sense建议全面禁止未成年人使用AI伴侣。

  AI伴侣的迅猛发展,既是科技进步的机遇,也带来了对人类亲密关系的挑战。在享受科技便利的同时,人们应铭记真实情感交流和人与人之间的羁绊的重要性。

(文章来源:科技日报)