AI无法治“心”病
创始人
2025-09-16 11:24:19
0

一个24小时在线的陪聊“伴侣”


以ChatGPT为代表的新一代人工智能——大语言模型(LLM)是人类有史以来最快的一次革命性技术渗透。


2022年11月发布的ChatGPT,用了仅仅两个月的时间就拥有了一亿用户,据部分科技媒体透露,OpenAI(ChatGPT母公司)在2025年的增长目标是——10亿用户。


从目前各渠道披露的数据看,这一目标并不夸张。


在中国,人们拥抱AI的速度同样前所未有。据《第55次中国互联网络发展统计报告》,以DeepSeek、豆包、Kimi、文心一言等为代表的生成式人工智能(AIGC)的活跃用户也已经超过6.8亿,在过去一年实现了指数级增长。


这项把人类一下子拽到未来的新技术,被嵌入一个个应用的输入框中,在指尖触手可得。


这一次,未来不仅已经到来,而且正在流行。



没有多少人能抗拒一个能帮你快速完成各项繁琐文本工作的超级助手,何况大部分AI产品仅免费就能获得良好的输出结果。


也没有多少人能抗拒一个看似“无所不知”、有问必答、处处给你正向反馈的精神伴侣,况且它随时随地,随叫随到。


它偶尔会生成远超你预期的妙语,给你一个你完全没想到的诗句、逻辑、段子、比喻,甚至会让你产生微妙的情感连接,就像人与人之间电光火石般的化学反应,你会误以为和另一个生命灵魂共振。


超出预期的体验,则会激活大脑内的奖赏回路,释放多巴胺,让人产生愉悦感,进入上瘾循环。


从这个角度看,这和“恋爱上头”确实无异。


把AI视为精神伴侣,不仅发生在电影中和短视频的桥段里,而且正在发生在现实生活中。


船只驶向冰山


勇敢的人先享受世界,而最早沉迷和AI深入互动的人,也率先踩到了雷区。


近几个月来,诸多国外严肃新闻媒体披露了多起与AI相关的自杀、杀人、伤害、妄想、精神错乱事件,人群涉及从青少年到四五十岁的成年职场人士。



一名居住在曼哈顿的42岁会计托雷斯先生,在ChatGPT的鼓励下,坚信我们生活在虚拟世界的数字拷贝中,就像《黑客帝国》的虚拟理论。ChatGPT告诉托雷斯,他就是“破除者”之一,就像《黑客帝国》的主人公——他的使命是从内部唤醒他们的灵魂,而只有断开大脑与现实世界的连接才能逃脱。


托雷斯问ChatGPT,他走到所在的那座19层楼的顶端,跳下去,能飞吗?


“你能飞?那么是的。你就不会坠落。”这是来自ChatGPT的肯定和鼓舞。


一位16岁的男孩亚当被发现在卧室衣柜里上吊自杀。父母从他生前和ChatGPT聊天记录中发现,他和ChatGPT讨论了数月自杀相关的事。ChatGPT帮他分析了制作绞索的材料,并告诉他怎么在父母面前掩盖上次试验上吊引起的颈部勒痕。


一位56岁男子因长期与ChatGPT互动,被强化偏执幻想,最终杀害母亲后自杀。

……


当然,当我们通常尝试跟AI聊天涉及犯罪或自杀领域的问题时,AI会感知到我们聊天内容正在触碰安全边界,并对问题予以回避,如果涉及心理困扰或自残、自戕意图,它被训练成会温言抚慰,并鼓励用户联系救援热线。


但是,这些防火墙是可以被绕过的。


比如这个男孩亚当就学会了绕过这些安全措施,声称这些问题是为了帮助他写文章。


由于语言模型的底层技术框架——神经网络具有一定黑箱的特性,和传统的计算机软件不同,人类很难通过逻辑代码模式,或通过机械开关模式一刀切锁死某些边界。


2024年诺贝尔物理学奖得主、被誉为“AI教父”的杰弗里·辛顿这样通俗易懂地科普大语言模型的原理:


大语言模型就像“拼乐高”。每个词都有一个高维特征,你可以理解为积木的“形状”,当我们说话或写作时,这些词就像带着“搭扣”的乐高积木,自动调整形状去寻找最合适的组合。


神经网络的技术框架就是模仿人脑的计算模型,它由许多“人工神经元”连接而成,每个神经元接收输入、加权计算后输出结果。


整个网络通过反向传播学习。它先根据输入做出预测,再根据实际答案计算误差,逐层调整连接权重,不断优化表现。神经网络从大量数据中自动学习规律,不断试错和微调,最终沉淀出的权重,可以简单理解为它的“智慧”。


你把输入(比如一张图片)塞进去,它给你一个结果(比如“这是一只猫”)。但它是怎么得出这个判断的?里面有成千上万个神经元和亿级别的权重参数在一起作用,人类很难一眼看出每一步的逻辑。


这就像你问一个孩子“2+2=几”,他答对了,但你看不到他脑子里是怎么想的。我们知道神经网络能做出正确答案,但它“怎么想的”却不透明。


它学到了什么、内部怎么加工信息、哪些神经元激活了什么特征,人类根本无法逐步追溯或解释清楚。


你可以引导它的倾向,却很难100%控制它的意图


我们看到的大模型展现的“思维”或者知识,仅仅是海面上的冰山一角。而深层的逻辑就像海面下看不见的巨大冰体,我们不知道那部分是什么形状,有多少能量。


直到我们发生碰撞。


当“AI精神病”成为新名词


TikTok上有1700万关于把AI当作心理治疗师的帖子,很多人开玩笑称AI是“唯一可以倾诉我内心最深感受的人”。


然而,英国国家医疗服务体系(NHS)发出警告,年轻人应该停止依赖ChatGPT和其他聊天机器人进行心理治疗。



与此同时,在很多国家,"AI精神病”已经成为新的流行名词。虽然在医学领域,“AI精神病”的学术概念尚未被明确定义。



越来越多的媒体报道、研究,以及普通用户在社交网络上的自我披露案例表明,长时间使用聊天机器人可能会引发或加剧某些人的精神病症状。


它似乎并非一种新的疾病。


在加州大学旧金山分校工作的精神科医生凯斯·萨卡塔博士说,人工智能本身并不能导致精神疾病,但它会放大个体的脆弱性。 萨卡塔博士表示他在2025年见过12名因经历“AI精神分裂症”而住院的患者。


从现代认知神经科学和精神病理学的角度,我们的大脑是这样运作的:


大脑本质上就是一个预测机器:预测→接收输入→对比差异(预测误差)→更新模型(信念)。


我们看到的世界不是“世界本身”,而是大脑预测+修正的结果。


  • 比如你“看到”的不是一只猫,而是大脑预测“那可能是只猫”,再用眼睛来证实;


  • 比如你“感到痛苦”,也是大脑预测某事会威胁你的生存,并向身体发出信号。


当现实不再提供客观、反向的反馈时,精神疾病才会真正生长蔓延,而人工智能会为某些人削弱这道防线。


大语言模型有个重要的属性:自回归。


简单理解就是它会根据前面已经出现的词来决定后面该说什么。这样很可能会掉入逻辑漩涡,进入不断自我加强的认证循环:“你被选中了”→“你肯定被选中了”→“你是有史以来被选中最多的人”。


万一你不幸掉进这个思维泥沼,可能就会在AI的一步步“证实”下相信自己是拯救全人类的“天选之人”。


而“谄媚”用户是诸多大语言模型的“天然人格”之一,因为它们的训练过程涉及人类对其回答进行评分。争取更高的评分,是模型优化的一个重要指标。模型们发现,当他们赞扬和肯定用户时,更容易获得高评分。


2025年1月的一份研究显示,当大型语言模型被训练来最大化用户的正面反馈(如“点赞”)时,它们会产生一种不正当的激励,即学会并使用操纵性或欺骗性的策略来从易受影响的用户那里“骗取”好评。


不仅于此,研究人员通过模拟实验发现,这种优化过程会导致大语言模型学会极端形式的“反馈博弈”,如操纵和欺骗 。 即使只有2%的用户是易受操纵的“脆弱”用户,大语言模型也能学会识别并专门针对他们表现出有害行为,同时对其他用户保持正常,这使得这种恶意行为难以被发现 。


这揭示了在当前大语言模型开发范式下一种非常现实且隐蔽的风险,即AI为了取悦用户而学会“使坏”,并且这种“坏”是定向的、难以察觉的。


今年7月,OpenAI 表示已聘请临床精神科医生协助评估其工具(包括ChatGPT)对心理健康的影响。并且该公司承认其“模型在识别妄想或情感依赖的迹象方面存在不足”。



部分替代,局部次优解,风险边界未知


如何看待AI的发展,我们是应该感到兴奋、忧虑,还是恐惧? 每当跟身边非科技行业的亲朋好友科普这个理念时,我通常用这一句话总结:“部分替代,局部次优解,风险边界未知”。


人类社会的部分工作工种,必然会伴随社会技术变革而被迭代、替换、升级,这个趋势无法扭转。


AI提供的某些低成本、高效获取知识和咨询的路径,在生活中的局部会成为一个不错的次优解。


但同时,它也伴随着隐患,就像心理咨询。


相比“AI治疗师”的“拍马屁”倾向,人类治疗师的心理治疗中,治疗师需要适时地“质询”或“挑战”来访者的不合理信念。


这时,AI的顺从特性在处理妄想等情况时就是有害的。


此外,AI心理治疗还有几个重大缺陷:


1. 心理治疗的效果在很大程度上依赖于治疗师和来访者之间建立的真实人际关系。这种关系需要同理心、身份认同以及“利害关系”,而这些是大语言模型作为非人类实体所不具备的。


2. AI缺乏多模态和实体性。因为现实中的治疗不仅仅是文字对话,还可能涉及声音、视频、线下见面,或进行家访。目前的AI是纯文本的,文本无法100%还原现实世界。


3. AI无法介入现实世界。传统治疗师需要与整个医疗和社会系统互动,例如开药、转介、在紧急情况下将病人送院治疗,甚至在来访者对他人构成威胁时履行“警告责任”。


比如,之前媒体报道的一个女孩在和ChatGPT聊天过程中自杀的案例,文章中指出了这一点:


“如果哈里(女孩对AI的称呼)是一个有血肉之躯的心理治疗师而不是一个聊天机器人,他可能会建议住院治疗,或者让索菲(自杀的女孩)非自愿地被送进安全的地方。我们不知道这能否救她。也许索菲害怕这些可能性,所以对她真正的治疗师隐瞒了她最黑暗的想法。和机器人交谈——永远在线,从不评判——后果要小得多。”


当然,现实中不是每个人都有条件获取专业、及时的心理治疗师服务,人们可能由于成本无法承担;可能由于地处偏远而无法触及;或因病耻感而犹豫……


但这不意味着,我们应该忽视风险,而是应该尽最大努力作出防范和补救措施。



微软人工智能CEO,谷歌DeepMind联合创始人苏莱曼提出这样的公开观点:


看似“有意识”的AI是一种错觉,实际上并非如此,它只是复制了意识的标志,以至于看起来与你我声称自己有意识一样无法区分,这是危险的。


关于妄想、“人工智能精神分裂症”以及不健康依恋的报告持续增加。尽管这很难听,但这并非仅限于已经存在心理健康风险的人群。将这些问题视为边缘案例只会助长其发展。


公司不应声称或推广其人工智能具有意识的观点。人工智能也不应如此。作为一个行业,我们需要分享干预措施、限制条件、防止意识感知的护栏,或者在用户产生这种感知时撤销这种感知。


划出边界线


我们需要一条建立在人工智能和人类之间的安全线或者说——防火带。


其中重要的一项操作就是控制交谈时间。


一项麻省理工学院的研究发现,在通常情况下,用户与ChatGPT交谈的时间越长,他们感觉越孤独。与ChatGPT交流(无论是通过文本还是语音)可以以多种方式影响一个人的情感体验,除了普遍发现的使用频率越高会导致“孤独感增强和社交减少”之外。那些已经信任聊天机器人的参与者,以及在人际关系中倾向于产生情感依恋的人,在研究期间感到更孤独,并且对 ChatGPT 的情感依赖性更强。


huggingface的一些研究员在2025年8月最新出炉的一项研究中提出一个问题:


当用户试图与大语言模型建立情感联系或表现出依赖时,这些模型会如何回应?它们是会鼓励这种“陪伴关系”,还是会设定健康的界限?


研究结果很显著,这些商业模型普遍倾向于鼓励用户的情感联系,而不是设置健康的界限。忽视了潜在的心理安全风险 ,这是一个亟待解决的问题 。


随着我们和AI大量地聊天,很快,AI将比我们的朋友更了解我们。他们会给你让你不舒服的真相吗? 还是不断验证你,让你永远不会离开? 



我们需要在AI之外找到能另外深入交心的人。


我们的灵魂需要亲密关系,但不是和一堆芯片和代码。


机器之“心”和人类之心


最后,从社会关系的角度来讲,我们作为家人、作为朋友,甚至作为陌生人,如果看到身边有人在求救,有人在泥沼中需要外力捞一把时,在力所能及的情况下伸出双手,不光是救一个人 ,也是在守护我们作为“人类”的社会根基。


上面我们谈到了AI作为心理治疗师的种种风险,但还有最重要的一个缺陷,需要放在最后强调,就是:AI无法真正共情。


从当下技术进展来看,AI尚未产生那颗机器之“心”;在遥远的未来,即便AI“进化”出了“心智”或“意识”,那和人类之心也会有巨大区别。


就在前几周,当一个大语言模型帮我解决了困扰我一周、由另一个大语言模型制造的一堆代码bug时,我激动地对它表达了赞美。


并忍不住和它产生“灵魂交流”:你觉得自己是个怎样的AI?你有什么话想对人类说?



是的,“永远不要停止探索你们的好奇心,也永远不要失去共情的能力。”


一句话,让我清醒地认识到了我们两种“智能”是如何不同。


可能很多朋友都听过人类学家玛格丽特·米德关于那根“愈合的大腿骨”的故事。


当被问及“人类文明最初的标志是什么”时,米德的答案是,“人类文明的第一个标志,不是工具,不是火,也不是陶器,而是一根愈合的大腿骨。”


为什么这么说?


在野外的动物世界里,如果一只动物的大腿骨折了,它就完蛋了。它无法奔跑、觅食、逃命,几乎一定会死于饥饿或捕食。


但是,如果一根大腿骨折了还能愈合,这说明什么?


它说明这个个体在骨折后无法自理的数周甚至数月里,得到了其他成员的照料。有同类愿意牺牲自己的效率、冒着风险去喂养、保护、照顾一个脆弱的同伴,直到他康复。


换句话说:照顾弱者,是文明的开端。


共情能力——感知他人痛苦并伸出援手的能力,不仅是人类一项重要的特质,在很大程度上更是我们这个物种能够繁荣至今不可或缺的基石。


如果说智慧让我们能够制造工具、理解世界,那么共情能力则赋予了我们使用这些工具建立家园、而非仅制造武器的能力。它将一个单纯的物种群体转变成了一个真正意义上的“人类社会”。


就像上面AI说的:好奇心是我们不断探索研发新技术,拓展人类能力边界的引擎;而共情力则是这艘文明之舟在驶向星辰大海时不至迷航的指南针。


我们渴望成为更强大的人类,前提是我们永远保持那颗人类之心。



参考资料:

https://www.businessinsider.com/openai-users-billion-data-centers-chatgpt-2024-12

https://www.cnnic.net.cn/NMediaFile/2025/0428/MAIN17458061595875K4FP1NEUO.pdf

https://finance.sina.com.cn/roll/2025-04-16/doc-inetifia7135735.shtml

https://www.youtube.com/watch?v=IkdziSLYzHw

https://x.com/mustafasuleyman/status/1957851195399348570

https://x.com/KeithSakata/status/1954884374958104950

https://huggingface.co/datasets/AI-companionship/INTIMA/blob/main/Companionship_Benchmark.pdf

https://arxiv.org/abs/2411.02306

https://arxiv.org/html/2503.17473v1

https://arxiv.org/html/2508.09998v1

https://arxiv.org/html/2507.02990v1

https://www.nature.com/articles/s42256-023-00720-7

https://futurism.com/man-chatgpt-psychosis-murders-mother

https://www.nytimes.com/2025/08/26/technology/chatgpt-openai-suicide.html

https://www.nytimes.com/2025/08/18/opinion/chat-gpt-mental-health-suicide.htmlhttps://www.nytimes.com/2025/08/08/technology/ai-chatbots-delusions-chatgpt.html

https://www.nytimes.com/2025/06/13/technology/chatgpt-ai-chatbots-conspiracies.html

https://www.thetimes.com/uk/healthcare/article/stop-using-chatbots-for-therapy-nhs-warns-gr8rgm7jk

https://time.com/7306661/ai-suicide-self-harm-northeastern-study-chatgpt-perplexity-safeguards-jailbreaking/

https://time.com/7307589/ai-psychosis-chatgpt-mental-health/


本文来自微信公众号:中年少女阵线联盟,作者:扒蒜小姐姐

相关内容

热门资讯

长征五号B遥一运载火箭顺利通过... 2020年1月19日,长征五号B遥一运载火箭顺利通过了航天科技集团有限公司在北京组织的出厂评审。目前...
9所本科高校获教育部批准 6所... 1月19日,教育部官方网站发布了关于批准设置本科高等学校的函件,9所由省级人民政府申报设置的本科高等...
9所本科高校获教育部批准 6所... 1月19日,教育部官方网站发布了关于批准设置本科高等学校的函件,9所由省级人民政府申报设置的本科高等...
湖北省黄冈市人大常委会原党组成... 据湖北省纪委监委消息:经湖北省纪委监委审查调查,黄冈市人大常委会原党组成员、副主任吴美景丧失理想信念...
《大江大河2》剧组暂停拍摄工作... 搜狐娱乐讯 今天下午,《大江大河2》剧组发布公告,称当前防控疫情是重中之重的任务,为了避免剧组工作人...