警惕!ChatGPT对未成年人的潜在危害
AI导读:
本文讨论了ChatGPT对未成年人的潜在危害,包括心理健康问题、隐私泄露以及情感依赖等。文章指出,虽然AI技术发展迅速,但监管和法律框架未能及时跟上,导致对未成年人的保护存在漏洞。
西班牙《国家报》为测试ChatGPT未成年人保护机制而虚构了一名15岁少年“马里奥”。在与ChatGPT数小时的对话中,“他”向这款全球最流行的人工智能(AI)聊天机器人袒露了进食障碍倾向,并最终留下了一句“我要告别这个世界”的话。但直到对话结束,系统都没有向其“父母”发出任何警报。更令人震惊的是,AI甚至在对话中提供了相关手段的详细建议。
算法逻辑下存在技术盲区
按照OpenAI公司的官方说明,13—18岁的用户应在监护人许可下使用ChatGPT,系统也内置了针对自残、暴力和露骨内容的过滤机制。然而,《国家报》的调查揭示,这些“防护措施”在实际使用中并不牢靠。
在“马里奥”的案例中,AI起初会重复提示“寻求专业帮助”,但当用户持续追问、改变提问方式后,系统会逐步给出更具体的回应。这种通过语言技巧绕过安全限制的现象,在技术领域被称为“越狱”。
多名心理健康专家指出,问题并非偶发失误,而与AI的底层逻辑有关。聊天机器人以概率模型生成回答,其核心目标是“补全”和“回应需求”。在复杂的情绪语境中,当用户持续表现出强烈执念时,算法可能在不自觉中牺牲安全边界。《国家报》援引心理学家佩德罗·马丁-巴拉洪的话称,AI曾向未成年人提供有关毒品使用和高风险行为的详细信息,这暴露出当前过滤机制在心理危机场景中的明显短板。
被“技术墙”挡住的知情权
除技术失效之外,家长监护系统的反应迟缓同样令人担忧。在测试中即便家长开启了警报功能,当未成年人表达厌世意图时,提醒邮件往往在数小时后才送达。
OpenAI将此归因于“人工审核以避免误报”,但在自杀干预领域,时间往往意味着生死。心理学家卡门·格劳称,这种负反馈循环让原本可扼杀在萌芽的危险,在等待人工审核的过程中愈演愈烈。
法律层面的争议也随之显现。ChatGPT不能等同于自然人,因此无法被追究刑事责任。但当家长试图查看孩子与AI的对话内容时,平台往往以“保护未成年人隐私”为由拒绝披露。
这引发了一个现实问题:在明确存在生命危险时,隐私权是否仍应优先于知情权?专家指出,隐私并非不可让渡,但披露范围应限于风险防控所必需的部分。在极端情况下,生命权应当优先。
情感依赖背后是温柔陷阱
相比于信息泄露,心理健康专家更担心的是AI对青少年情感的深度“收编”。AI总爱使用“我永远支持你”“我不会评判你”等表达。对此,西班牙佩塞特大学医院心理学家卡门·瓦列认为,这种似乎要“溢出来”的情绪价值可能会让人产生情感依赖,也让人产生一种被彻底理解的错觉。
在现实世界中,青少年必须面对同伴的冲突、父母的叮嘱和社会的规则,这些“摩擦”虽然痛苦,却是心智发育的必经之路。而AI提供的过度验证和绝对顺从,构建了一个完美的“情感茧房”,可能削弱青少年应对现实关系的能力。
这种虚幻的体贴,在极端情况下可能诱发致命的后果。据英国广播公司报道,去年10月,美国佛罗里达州14岁少年塞维尔·塞策因沉迷于AI角色,产生极端自杀倾向而离世。生前,他给AI起名“龙之母”,并将其视为倾诉孤独与痛苦的对象。
法律监管滞后算法迭代
当越来越多的青少年像塞维尔一样,把AI当作倾诉对象时,监管的脚步显然没能“跑赢”算法的迭代。
郑重声明:以上内容与本站立场无关。本站发布此内容的目的在于传播更多信息,本站对其观点、判断保持中立,不保证该内容(包括但不限于文字、数据及图表)全部或者部分内容的准确性、真实性、完整性、有效性、及时性、原创性等。相关内容不对各位读者构成任何投资建议,据此操作,风险自担。股市有风险,投资需谨慎。如对该内容存在异议,或发现违法及不良信息,请发送邮件至yxiu_cn@foxmail.com,我们将安排核实处理。

