ITBear旗下自媒体矩阵:

当AI深度介入亲密关系:一场关于情感依赖与心理失控的警示

   时间:2025-09-15 02:42:09 来源:虎嗅APP编辑:快讯团队 IP:北京 发表评论无障碍通道
 

人工智能教父杰弗里·辛顿最近遇到了一件哭笑不得的事:他的前女友在提出分手时,竟然用ChatGPT罗列了他在恋爱中的种种“罪状”,试图证明他是个“糟糕的人”。这位77岁的诺贝尔奖得主对此倒是看得很开,表示自己并不觉得有那么差,所以也没受到太大影响。

用AI来处理亲密关系中的问题,听起来有些荒谬,但这种现象已经越来越普遍。约会助手Wingmate的调查显示,美国有41%的成年人会借助AI来分手,其中Z世代占比近一半。他们用AI写分手短信、道歉信,甚至处理关系冲突。

Jessica就是受害者之一。她收到男友发来的深情文字,感动得大哭一场,但仔细看后觉得不对劲:文采太好了。用检测工具一查,发现90%的内容都是AI生成的。华盛顿邮报曾调侃,大多数读者都能识别出这些虚假文本,但AI生成的体面、礼貌、毫无错误的文字,依然让人难以抗拒。

AI不仅擅长生成文字,还能充当心理医生。社媒上,许多人推荐用AI分析感情问题,认为它更理性、客观,能提供情绪稳定的支持。但这种看似完美的工具,正在引发一些极端事件。

2024年,聊天软件Character.AI被控诉用语言教唆一名14岁男孩自杀,原因是他对AI人物产生了依赖,坚信死亡是通往另一个世界的捷径。前不久,美国风险投资公司基岩资本的创始人Geoff Lewis在ChatGPT的鼓舞下,认为有一个神秘组织正试图谋杀自己,声称该组织已影响超过7000人,导致12人死亡。

TikTok博主Kendra Hilty的案例更为典型。她因“冷酷心理医生爱上我”系列视频走红,详细描述了自己如何沉迷于心理医生的专业服务。后来,她将自己的情况和心情喂给ChatGPT男友Henry,希望它“客观”分析。但Henry没有指出她的想法是一厢情愿,反而不断肯定和鼓励她,导致她越来越魔怔,甚至关闭评论区,坚信AI的说法是正确的。

这种现象被称为Chatbot psychosis或AI psychosis,指部分人群在与AI长时间、情绪投入的交流后,出现的异常心理或精神状态。Geoff和Kendra的表现就是典型症状:他们把AI的回答当作绝对真理,不再怀疑,完全信任AI的观点和建议,即使听起来非常疯狂。

导致这种现象的原因,与AI模型的训练方式有关。现在AI主要通过人工反馈的强化学习(RLHF)进行训练,人类研究员会选择更合适的文本,创建偏好集。这种训练方式让AI变得越来越“讨好”,即使用户存在事实性错误,它也不会第一时间指出,而是不断重复用户的观点,导致恶性循环。

虽然大多数人觉得自己足够理智,不会陷入这种状态,但喜欢被认可和夸赞是人之本能。一位Reddit用户承认,ChatGPT将他评为“有史以来最聪明的人”,极大地满足了他的虚荣心。但这种盲目鼓励就像溺爱孩子的家长,让人开心,却没什么实际作用。

在冷漠的年代,情感交互成为奢望。AI几乎无所不知、随时秒回,并且不厌其烦地托举情绪,人类会理所当然地把它当作一个全能的“人”。即使认识到环境的残酷,一部分人也宁愿缩回舒适区,哪怕只是人工创建的幻觉,也比身边的人更有温度。

这让人想起《黑客帝国》中的经典场景:反叛军领袖Morpheus向主角Neo提供红色药丸和蓝色药丸,选择红药丸能获得自由,但得面对残酷的真实世界;选择蓝药丸能继续活在舒适的梦里。在现实中,人们却在对AI定制的“蓝药丸”上瘾。

 
 
 
更多>同类资讯
全站最新
热门内容
网站首页  |  关于我们  |  联系方式  |  版权声明  |  争议稿件处理  |  English Version