AI导读:

AI驱动的心理治疗机器人自问世以来崭露头角,但围绕其存在三大紧迫问题:个性适应能力、伦理道德和取代人类心理学家。这些机器人虽能提供心理支持,但真实效用和责任界限引发质疑。研究表明,它们更像是一剂“止痛药”,无法从根本上构建持久心理健康基石。

无形却怀善念,无声却蕴智慧。它如一位永驻的智者,指引迷途者穿越心灵的迷雾;又如一位永恒的倾听者,从不打断,却总能给予恰如其分的回应。人工智能(AI)驱动的心理治疗机器人自2010年代问世以来,在心理健康服务领域崭露头角,成为科技与传统心理治疗的结合体。

这些机器人究竟是理想照进现实,还是技术走入迷思?围绕这些心理治疗机器人,西班牙《国家报》报道指出存在三大紧迫问题。首先,机器人利用生成式AI适应每个人独特个性的能力,是否会带来不可预测的结果?其次,机器人模仿人类特质是否合乎伦理道德?美国加州大学伯克利分校伦理与技术小组负责人乔迪·哈尔彭认为,让机器模拟同理心或同情心,无异于操纵人类。最后,这些无形的工具能否取代真正的人类心理学家?

在监管不善的服务领域,心理健康初创公司与通用聊天机器人并存。这些聊天机器人就像忠诚的朋友或亲密的伴侣,对患者的每一次预约都表现出极大热情,并提供应对焦虑或摆脱抑郁的建议。然而,这些机器人的真实效用和责任界限却引发了一系列质疑。

自去年起,英国国家医疗服务体系已开始提供一款名为Wysa的聊天机器人,帮助年轻人缓解压力、焦虑和抑郁。Wysa专注于认知行为疗法,经测试可通过结构化技术引导,帮助用户重建扭曲的认知,并管理负面情绪。而另一款由Inflection AI开发的Pi机器人,则更注重与用户建立真挚的对话联系,提供“情绪价值”。但Pi的大胆推测和夸张情感表达,也引发了对其真实性和专业性的质疑。

此外,哪些机器人是遵循预设程序提供认知行为治疗,哪些又是即兴发挥提供心理治疗,界限并不清晰。这种模糊性不仅体现在技术层次上,还体现在它们为吸引用户而做出的种种声明上。一些公司声称他们的机器人不打算取代人类心理学家,而另一些则夸大其能力并淡化其局限性。

加拿大西蒙弗雷泽大学伦理与AI研究员贝利莱-皮蓬认为,误导性宣传在心理健康领域是不可取的。真正的治疗需要深入理解患者的具体情况,并与患者建立深厚的治疗关系。解读非语言表达的微妙之处、理解主观体验的能力或道德直觉,是任何机器都无法复制的品质。

尽管心理治疗机器人是近年来新兴的技术工具,但研究表明,这些工具更像是一剂“止痛药”,只能暂时舒缓情绪,无法从根本上构建持久稳定的心理健康基石。

(文章来源:科技日报)