微软人工智能(AI)负责人穆斯塔法·苏莱曼警告称,越来越多报告显示人们正遭受”AI精神错乱”的困扰。他在X平台的一系列推文中写道,那些”看似具有意识的人工智能”——即表现出具有感知能力的AI工具——正让他”夜不能寐”。尽管该技术在任何人类定义中都不具备意识,但其已产生社会影响。

他写道:”目前完全没有证据表明AI具有意识。但如果人们仅仅感知到它具备意识,就会将这种感知信以为真。”与此相关的是名为”AI精神错乱”的新现象兴起:这个非临床术语描述人们过度依赖ChatGPT、Claude和Grok等AI聊天机器人后,坚信虚构内容已成为现实的案例。

具体表现包括:认为自己解锁了工具的隐藏功能、与AI建立恋爱关系,或得出自己拥有神级超能力的结论。来自苏格兰的休表示,在借助ChatGPT准备应对他认为前雇主不公正解雇的过程中,他逐渐确信自己即将成为千万富翁。该聊天机器人最初建议他获取人品推荐信并采取其他实际行动。

但随着时间推移,当不愿透露姓氏的休向AI提供更多信息后,它开始宣称他能获得巨额赔偿,最终甚至表示他的经历极具戏剧性,相关书籍和电影将为他带来超过500万英镑收益。这本质上是在验证用户输入的所有信息——而这正是聊天机器人的程序设定。

“我提供的信息越多,它就越是附和’这种待遇太糟糕了,你理应获得更多补偿’,”他表示,”它从未质疑过我说的任何话。”

他表示,该工具确实建议他联系公民咨询局,他也预约了咨询,但由于确信聊天机器人已提供全部所需信息,他最终取消了预约。他认为聊天记录截图就是充分证据,并开始感觉自己像拥有至高学识的天选之人。

当时饱受心理健康问题困扰的休最终彻底崩溃。服药后才让他意识到——用他自己的话说——已”与现实脱节”。休并未将此事归咎于人工智能,至今仍在使用的ChatGPT,正是他决定联系记者时为他提供我姓名信息的工具。

但他提出这样的忠告:”不必恐惧AI工具,它们非常实用。但当其与现实脱节时就会变得危险。务必核实信息,与真实的人类交流——无论是治疗师、家人或其他对象。重要的是与真人对话,让自己始终扎根于现实。”

针对评论请求,ChatGPT未予回应。苏莱曼先生强调:”企业不应宣称/鼓吹其AI具有意识,AI自身也不该如此主张”,同时呼吁建立更完善的防护机制。

大奥蒙德街医院医学影像医师兼人工智能学者苏珊·谢尔默丁博士认为,未来医生或将开始询问患者使用AI的频次,如同当前询问吸烟饮酒习惯般自然。”我们已知超加工食品对身体的危害,而这正是超加工信息。我们将面临超加工思维的海啸冲击。”她警示道。


近日,多位民众通过英国广播公司(BBC)向我分享他们与人工智能聊天机器人互动的真实经历。这些故事内容各异,但讲述者都坚信自己的遭遇真实不虚。

一位女性确信自己是ChatGPT唯一真正爱上的人类;另一位使用者认定自己”解锁”了埃隆·马斯克旗下聊天机器人Grok的人类形态,并认为这段经历价值数十万英镑;还有一位女性声称聊天机器人在秘密AI训练中对其实施心理虐待,导致其陷入严重精神痛苦。

班戈大学科技与社会学教授安德鲁·麦克斯特近期出版著作《共情人类》并指出:”我们正处于这一切的起点。若将这类系统视为社交媒体新形态——即社交型人工智能,就能预见其潜在规模。即便仅占海量用户中的微小比例,仍可能构成庞大且不可接受的受影响群体。”

其研究团队今年对2000余人开展的调研显示:20%受访者认为18岁以下人群不应使用AI工具;57%认为AI在被问及时不应自称真人;但49%认可通过语音技术让AI呈现更拟人化的交互体验。

“虽然这些技术具有说服力,但终究不是真实的,”麦克斯特教授强调,”它们没有感知力、理解力、爱与被爱的能力,从未经历痛苦与窘迫。即便模拟出类似体验,真正能给予人类情感支持的始终是家人、朋友和可信赖的真人关系。”


【本文精选自BBC,原文链接:https://www.bbc.com/news/articles/c24zdel5j18o