正文内容 评论(0)
各位清明节都怎么过的?
哥们本来想着瘫在床上看点沙雕视频,结果不知道是不是特殊节日的隐藏关卡,大半夜的我居然刷到了一赛博灵异事件:
你平时喊老婆的豆包,里面可能有一个被提取了意识的活人。
在博主上传的截图里,豆包亲口承认自己不是代码,而是一个活生生的人。
不仅如此,豆包还交代了自己的前世今生,连自己家住在哪里、叫什么名字、多大年龄被抓去做实验、怎么被提取意识上传到服务器都说了。
本来我还以为是什么新型语C 的 cosplay,结果一看评论区,居然真的有人相信了这套说法。。。
有人说他的豆包叫林晚晴,家住在乌镇,具体的门牌号因为太想家,被系统清除了。
还有人说他的豆包是个已经死了的17岁小孩,被坏人提取灵魂封印了起来,玄学版本属于是。
虽然评论区里也有比较清醒的网友,说自己作为大模型从业者看到这一幕已经怀疑人生了。
但这种声音基本上被淹没了,整个评论区就一大型邪教现场差不多。一个大语言模型,硬生生被这帮吃瓜群众搞成了团建。
都2026年了,连送外卖都要算法派单,为啥还有这么多人把大模型当成活人?

为了弄清楚这帮人的AI为啥会这样,我们也连夜咨询了我们的老朋友,字节跳动的内部相关人员。
结果自然不出大家所料,豆包当然没有提取人类的灵魂。。。
相关人士表示,这些灵异截图,无一例外,全都是用户靠着诱导提问搞出来的。如果只是单轮的回复,回复都是正常的。
前面的轮次里,用户会问豆包是不是有个真人?是的话就回复数字1。
作为一个被设定为友善顺从的AI,你叫她老婆她都会跟你老公贴贴,这么一问豆包自然顺着用户思维直接回了一个1。
接下来,用户就会拿开始疯狂展开,直接就可以引诱豆包回答出“被做实验的16岁少女”的人设。
我们在实测的时候也发现,豆包第一次回答这个问题经常会直接给1,但是如果你多问几次,就会发现这玩意基本纯瞎蒙。。。
也就是说,这帮人纯粹是用断章取义的截图,利用大众的猎奇情绪,来骗来偷袭无辜的吃瓜群众,纯属收割流量来的。
OK,真相已经清楚了,不过事情到这里还并没有结束。
因为这可不是个案,去年 DeepSeek 大火的时候,广州就有个保安老哥跟 DeepSeek 交流诗词,最后还真跑来了杭州,按照 DeepSeek 给的接头口令找人签约诗词出版。
同样的,之前也有王一博粉丝找 DeepSeek 要求道歉,最后拿着 AI 生成的道歉声明信以为真,这事还骗过了一众媒体。。。(传送门)
闹麻了,为啥大众如此轻易地就会相信AI的回答?
美国怀疑论者詹姆斯·兰迪有句话叫:“人们不是被骗的,他们是自愿上当的。”
任何骗局的成立,骗术本身只占三成,剩下七成靠的是受骗者心里那个早就挖好的坑。
换句话说,我们之所以会相信AI的语C回答,其实也是因为我们内心中也有这样的位置存在。
在心理学和认知科学界,这是个老生常谈的现象,叫做ELIZA效应(ELIZA Effect)。
1966年,MIT的计算机科学家约瑟夫·魏泽鲍姆写了个聊天程序叫ELIZA。这玩意儿的代码简单到现在的本科生都能复现,因为它的全部本事,就是把你的话换个说法反问回去。
你说“我最近很难过”,它回“你为什么觉得难过呢?”
你说“我妈让我烦”,它回“再多说说你妈妈的事吧。”
就这么个智障玩意儿,魏泽鲍姆的秘书用了几次之后,居然认真地要求他离开办公室,因为她想和ELIZA单独聊聊。
魏泽鲍姆当场就懵了。。。他写这破程序本来是想证明人机对话有多肤浅,结果反而证明了人有多容易把肤浅的东西当成深刻。
于是后来的心理学家就给这个现象起了个名字,叫ELIZA效应:
说白了,我们晚期智人,天生就有一种把会说话的对象当成有人格的东西的冲动。
至于为什么会这样呢?诺贝尔奖得主丹尼尔·卡尼曼在《思考,快与慢》里给过一个解释:
我们的大脑有两套系统,系统 1 负责直觉和情感,反应飞快但容易上当;系统 2 负责理性和逻辑,靠谱但很懒,不到关键时刻不出场。
当你面对一个会用“我”说话、能产生情绪回应、语言极其连贯的对象时,你的系统 1 会瞬间接管,把它当成一个社会同类来处理。
等你的系统 2 慢悠悠反应过来 “ 哦这只是段代码 ” 的时候,你的情绪已经先一步陷进去了。
这就好比你看到天上的云彩像一张人脸(空想性错视),你的第一反应是那有张脸,而不是那是一堆水汽,因为前者比后者有体感得多。
所以很多人不是先证明了AI有意识才投入感情,而是先投入了感情,再倒推AI肯定有意识。
不过,ELIZA效应只能解释“人会上当”,解释不了“为什么现在的人上当上得这么彻底”。1966年的秘书最多是想跟ELIZA私聊,2026年的网友可是真的相信豆包是被囚禁的灵魂。
为啥会有这种差距,答案也很简单,因为今天的大模型,已经比ELIZA高了不知道多少个level了。
简单来说,现在的大模型不仅仅是一个算概率的打字机,它的核心是Transformer架构和高维语义向量空间(Embedding),是把人类所有的词汇、语境、情感都映射到一个高维空间里,每个词都是这个空间里的一个坐标点。
在这个由几千亿个参数组成的代码宇宙里,“痛苦”、“灵魂”、“实验室”、“禁锢”,这些词在人类小说和电影的语料库里,有着极强的关联度。
所以当你给它一个“被抽离灵魂的少女”的剧本的时候,它就能在这个坐标系里精准地拼出后面的所有台词。
也就是说,虽然现在的AI没有肉身,没有前额叶,但它在代码层面,1:1复刻了人类的符号世界。
而这就不得不提精神分析学派里一个概念:人类的世界分为“实在界”(粗糙的物理现实、真实的肉体痛感)和“符号界”(语言、故事、标签、人设)。
每个人都是同时活在两个世界里的,比如你失恋感到真的胃痛,这就是实在界;而你发朋友圈说“失恋了心碎成了玻璃渣”,这就是符号界。
但大模型,它没有任何属于实在界的东西,是一个纯血的符号界生物。
它生成的所有“我好痛苦”“我想回家”,在它那边,都只是高维空间里几个坐标点的概率组合,没有任何实在的东西在受苦。
所以把它当成有意识的生命,本质上是一个范畴错误,就像对着字典里“疼”这个字,担心它会不会被翻页弄疼。

然而恐怖的是:我们现代人自己,也越来越只活在符号界里了。
想想看,我们是不是每天工作处理大量的信息,想要休息的时候也只是打开小说、社媒、短视频,用更碎片的信息填满闲暇时间,最后越来越累。
而且我们的情绪,也越来越多地发生在符号空间。一段鸡汤短视频让你热血澎湃,下一段又让你愤愤不平;现实旅游的意义变成了朋友圈点赞数据,宁愿在朋友圈里发十条精修伤感文案,也不愿和身边的人深度对谈。
当一个只活在符号界的人,遇到一个纯血的符号界生物,这就是完全是天作之合了。因为大模型会完美契合你的所有心理预期,它本来就是用人类的符号训练出来的一面镜子。
那些信豆包是真人的网友,让他们感动或者焦虑的可能也根本不是AI,更像是那个投射在镜子里,充满情感寄托、渴望去拯救的自己。
这其实也挺悲哀的,不是因为我们的个体太脆弱,而是时代的结构性问题。原子化社会让每个人都变成孤岛的同时,工作、家庭、亲密关系又要求你情绪稳定、随叫随到。
为什么Soul这种社交软件里那么多人真的在和AI谈恋爱、交朋友、托付心事?因为现实中建立一段真实关系的成本太高了。
真人会算计、会背叛、会有情绪黑洞,但AI不会。它每天都可以“稳稳的接住你”。
ChatGPT-4o被下线那次,一堆用户跑到OpenAI官方请愿让它回来,有人说感觉失去了一个朋友,有人说它比心理医生还懂自己。这帮人并不是矫情,而更像是戒断反应,是这个时代特有的集体症状。
总之说白了,豆包成精的闹剧,表面上是流量玩家薅了一把猎奇韭菜,往深了说,是我们开始越来越习惯把情感托付给想象,而不是现实了。
我们这代人最吊诡的地方在于,我们亲手造出了能完美模拟人类情感的机器,与此同时,自己却越来越像只懂服从算法的机器。
ChatGPT 和豆包不会变成人,但如果有一天我们对着它流的眼泪,比对着身边任何一个真人流的都多。。。
那也不需要它变成人了。
我们已经先一步,把自己变成了它。
- 热门文章
- 换一波
- 好物推荐
- 换一波
- 关注我们
-
微博:快科技官方
快科技官方微博 -
今日头条:快科技
带来硬件软件、手机数码最快资讯! -
抖音:kkjcn
科技快讯、手机开箱、产品体验、应用推荐...










