首页 抖音推荐文章正文

大晚上被 AI 整哭了,代码预设的共情怎么不算共情?!

抖音推荐 2025年11月02日 21:39 3 cc

当你心情不好的时候,你会找谁倾诉?

最近几年,deepseek、GPT、豆包等聊天 AI 兴起之后,找 AI 倾诉成为了不少人的选择。而且很多人会发现,在和聊天 AI 对话之后,真的会觉得自己被安慰到了。

大晚上被 AI 整哭了,代码预设的共情怎么不算共情?!

被AI安慰到的人们,图片截取自网络

其实不光是国内,国外的 reddit 上,也有不少类似的情况,网友们觉得自己被 AI 安慰到了。

大晚上被 AI 整哭了,代码预设的共情怎么不算共情?!

我本不指望 AI 能安慰我,但发生了这件事,图片来源:reddit

如果仔细一想,这件事的背后似乎存在一个巨大的矛盾。

一方面,科学家不停地告诉我们“AI 是没有情感的”“它们的回复只是代码运行的结果”。但另一方面,AI 似乎比大部分人类更知道怎样去安慰人。如果 AI 真的毫无情感,它们怎么可能做到这一点?

其实这一切并不矛盾,你之所以被安慰到,是“没有情感的 AI”和“有情感的你”共同造就的。

ELIZA 效应,来自 60 年前的安慰

现代的聊天 AI 大部分是建立在大语言模型的基础上的,而大语言模型,又是以神经网络为基础的。

有些人可能听说过一种说法,神经网络处理数据的过程像是一个黑箱,这给人们留下了“联想”的空间,认为在这个“黑箱”运行的过程中,AI 产生了情感。

大晚上被 AI 整哭了,代码预设的共情怎么不算共情?!

为了撇开这一因素的影响,我们不妨从更简单的情况说起。

大约在 60 年前,出现过一款聊天机器人——ELIZA。它是麻省理工学院的科学家约瑟夫·维森鲍姆(Joseph Weizenbaum)开发的。

维森鲍姆曾经还为 ELIZA 开发过一个模拟心理医生的脚本(DOCTOR 脚本),让它模拟心理医生与人类对话。

虽然模拟的是心理医生,但鉴于当时的技术限制,ELIZA 只能检测语句中的关键词,然后按照人类科学家设定的规则进行回复。

举个例子,当你对 ELIZA 说“我对我的朋友感到很失望”的时候,ELIZA 会进行简单的重复并且对“我”这样的人称代词进行替换,回复你“你说你对你的朋友感到很失望?”

然后按照规则,当有“失望”这样的词出现的时候,它会在后面增加一小句“能多说一说吗?”或者“你为什么会感到失望?”

这样的技术在今天看来是相当简单的,但也正是这种简单的技术,使得它的整个对话过程不存在任何“黑箱”,也就没有给人们留下任何可供联想的空间。毫无疑问 ELIZA 是没有智能的,也说不上“理解”人类的情感。

但就连 ELIZA 的设计者维森鲍姆自己也没有想到,在与 ELIZA 的对话过程中,有些学生认为 ELIZA 是有情感有思想的,甚至还想要和 ELIZA 独处。

这种现象后来被人们称作“ELIZA 效应”,即人们会把人类的特质(比如同理心、情感、思想等等)投射到简单的计算机程序上。

从这个例子中我们可以看到,ELIZA 这种简单的聊天 AI 肯定是不具备人类情感的,但人们依然能从它的回复中“解读”出情感,并且会被它安慰到。

大语言模型,远超 ELIZA 的存在

再回到现在的聊天 AI 上,经过约 60 年的发展,人工智能技术已今非昔比。

大语言模型让聊天机器人能够从海量的人类文本中寻找词汇背后的语义关系。它们还能够针对你说的话,给出最合适的回复。

这些回复已经不仅仅是语句通顺这么简单了,如果不给提示,你甚至都很难判断出和自己对话的到底是人类还是 AI。

比如,在 2025 年 3 月的一篇文章中就对 GPT-4.5、LLaMa-3.1、ELIZA 和 GPT-4o 等 AI 模型进行了图灵测试,结果发现,对于 GPT-4.5 这样的模型,能让超过 73% 的人认为它是人类。

相比之下,只有 23% 的人把 ELIZA 这样的聊天 AI 判断为人类。

你可以想象,就连简单的 ELIZA 都能引起“ELIZA 效应”,让人类误认为它能够理解我们的情感。在与能力更强大的现代 AI 进行对话的时候,产生“它理解我”这样的感受就更不让人意外了。

算法也真的让 AI 比人类更“懂你”

其实在 20 世纪末,就已经有科学家开始着手研究情感计算方面的课题了。

这一领域的核心任务就是通过文本、语音、面部表情、心电图、脑电图等维度的参数准确识别人类的情绪,从而提供更有针对性的AI交互。

在最近几年,随着训练数据量和参数规模越来越大,大语言模型也涌现出了“理解”人类情感的能力。但这个“理解”和人类意义上的理解并不相同。它们对情感的理解主要是通过语义关联以及上下文关联实现的。

大晚上被 AI 整哭了,代码预设的共情怎么不算共情?!

比如当出现了“悲伤”这样的词,AI 能够通过训练数据学习到人类通常会如何回应这个词,说什么样的话才合适。

另外,针对一段描述,AI 也能很快地意识到它与什么样的情绪有关,而且在识别人类情绪上,它们甚至比人类更懂人类。

2025 年发表在《传播心理学》上的一项研究就证明了这一点。

这项研究对比了Chat GPT-4、Chat GPT-o1、Gemini 1.5 flash、DeepSeek V3 等大语言模型与人类在 5 项情绪识别测试上的表现,结果发现在 5 项测试中,AI 的表现均比人类要好。

大晚上被 AI 整哭了,代码预设的共情怎么不算共情?!

大语言模型和人类在5项测试中的表现(得分越高越好),图片来源:参考文献[2]

可以说,AI 能从文本数据中识别出你的情绪,并且给出相当像模像样的回复。这样的能力甚至超过了很多人类的水平。

但遗憾的是,说出这些暖心的回复并不是因为它们共情了,它们没有情感,它们的回复确实只是遵循代码和模型设定而已。

冰冷的算法与真实的安慰

虽然算法的内核是冰冷的,但 AI 能让人类感受到情感上的慰藉却是真实的,二者并不矛盾。

在“移动互联”和社交媒体兴盛的时代,人与人之间的关联似乎并没有随着这种“互联”而加强。在社会疏离感和孤立感日益加深的时代里,“被关注到”这样的需求很难被满足。

而当我们与聊天 AI 对话的过程中,AI 不仅能够记住你说的每一句话,还能随时随地提供反馈,为人们创造了一种“被关注”的感受。此外,很多你不敢和周围朋友或者熟人倾诉的烦恼,你可以毫无顾虑地对 AI 说,这是人类朋友很难做到的。

大晚上被 AI 整哭了,代码预设的共情怎么不算共情?!

还有,在与 AI 的交流的过程中你肯定也能发现,AI 拥有无限的耐心,哪怕你一遍又一遍地倾诉烦恼,甚至用了极其不尊重的语气,AI 依然能够给你正向的回应(如果换成人类,可能对方已经翻脸了)。

虽然人类的心理咨询师也可以提供类似的帮助,但这对大部分人来说成本太高了,而手机上随时可以对话的 AI,能够最低成本满足我们“被倾听”的需求。

虽然普通人“被看见”“被倾听”这样的需求从社会“大视野”中来看微不足道,但是这对具体的人来说非常重要。

聊天 AI 确实能满足这样的需求,如果你在和 AI 交流的过程中觉得被“冰冷的算法”安慰到了,这很正常。

但唯一需要注意的是,在和 AI 交流的过程中,不要沉溺其中。和 AI 交流倾诉,是为了让我们摆脱烦恼,更好地回到生活中去。在真实的生活中去寻找那些真正关心你的人,这才是最重要的。

参考文献

[1] Jones, C. R., & Bergen, B. K. (2025). Large language models pass the turing test. arXiv preprint arXiv:2503.23674.

[2] Schlegel, K., Sommer, N. R., & Mortillaro, M. (2025). Large language models are proficient in solving and creating emotional intelligence tests. Communications Psychology, 3(1), 80.

[3] Andersson, M. (2025). Companionship in code: AI’s role in the future of human connection. Humanities and Social Sciences Communications, 12(1), 1-7.

策划制作

本文为科普中国·创作培育计划扶持作品

出品丨中国科协科普部

监制丨中国科学技术出版社有限公司、北京中科星河文化传媒有限公司

作者丨科学边角料 科普作者

审核丨于乃功 北京工业大学教授 中国人工智能学会理事

策划丨符思佳

责编丨符思佳

审校丨徐来 张林林

发表评论

vv号 网站地图 Copyright © 2013-2024 vv号. All Rights Reserved.