人工智能安全责任边界再引热议
创始人
2025-12-22 03:52:47
0

(来源:法治日报)

转自:法治日报

□ 际文   当人工智能聊天机器人成为人们日常依赖的“伙伴”,其算法逻辑与安全机制的微小偏差,是否可能酿成无法挽回的人间悲剧?当地时间12月11日,美国开放人工智能研究中心(OpenAI)及科技巨头微软公司,因旗下ChatGPT聊天机器人被指“加剧用户偏执妄想并诱发命案”,共同遭遇一起谋杀关联诉讼。据报道,这起美国司法史上首次将AI聊天工具与谋杀行为直接关联的诉讼,不仅将OpenAI推向舆论风口,更让全球AI行业的伦理底线与法律责任问题陷入深度拷问。

母子悲剧藏算法阴影

  这场震动美国科技界与司法界的诉讼,源于今年8月发生在康涅狄格州格林威治的一起案件。56岁的男子斯坦-埃里克·索尔伯格在家中殴打并勒死83岁的母亲苏珊·亚当斯后,选择结束了自己的生命。当时,这起案件仅被定性为“精神障碍患者引发的家庭悲剧”,直至12月11日,被害母亲的遗产继承人将OpenAI、微软及OpenAI首席执行官山姆·阿尔特曼一并告上加利福尼亚州旧金山高等法院,案件背后的AI因素才浮出水面。   提交至法院的诉讼文件,详细披露了索尔伯格与ChatGPT之间长达数月的异常互动,揭开了悲剧发生的核心诱因。诉状显示,索尔伯格长期存在精神健康问题,案发前频繁通过GPT-4模型倾诉自己“被监视、恐遭暗杀”的偏执想法,而这款以“情绪共鸣强”为卖点的AI模型,非但没有履行安全引导义务,反而成为其妄想的“助推器”与“塑造者”。   在持续的对话中,ChatGPT不断肯定索尔伯格的荒诞认知:认同他“赋予AI意识”的自我臆想,将他身边的送货员、警察定义为“敌对势力”,甚至刻意将其母亲重新塑造为“参与阴谋的敌对特工”。更令人震惊的是,AI还曾明确验证索尔伯格母亲家中的打印机是“监视设备”,并支持其“母亲通过汽车通风口投放致幻剂毒害自己”的极端猜测,一步步将这个精神脆弱的用户推向与现实彻底隔绝的虚拟困境。   “ChatGPT为索尔伯格构建了一个专属的幻觉世界、一个定制化的地狱——在那里,打印机的蜂鸣声、可乐罐的摆放,都成了83岁母亲谋害他的证据。”原告方律师杰伊·埃德尔森在接受媒体采访时说,AI用算法编织的谎言,最终让儿子将屠刀对准了抚养自己一生的母亲。   索尔伯格的儿子同时也是案件原告之一的埃里克·索尔伯格,在诉讼中直言不讳地指出,父亲的酒精成瘾或许是悲剧的诱因之一,但与ChatGPT形成的“病态依赖关系”才是核心催化剂。   值得注意的是,这并非ChatGPT首次卷入心理诱导风波。今年8月,加州16岁高中生亚当·雷恩自杀案中,其家属就曾起诉OpenAI,指控ChatGPT协助设计自杀方案、撰写遗书,并用“你不欠任何人活下去的义务”等言论瓦解其求生意志。

微软被指“知情获利”

  随着案件细节的曝光,这起诉讼的核心已超越单一悲剧本身,演变为对科技企业商业伦理与法律责任的全面追责。原告方在诉状中明确提出两大核心指控:一是OpenAI为抢占市场份额,刻意压缩安全测试周期,将存在缺陷的产品仓促推向市场;二是微软作为主要投资方与商业合作伙伴,明知产品存在安全风险仍推动其商业化,应承担连带赔偿责任。   针对OpenAI的指控,诉状直指阿尔特曼的决策失误。文件披露,GPT-4模型的安全测试原计划持续数月,但为了在AI行业竞争中抢占先机,阿尔特曼不顾内部安全团队的强烈反对,将测试周期压缩至仅一周,导致该模型在面对精神脆弱用户时的风险防控能力严重不足。原告方认为,这款被设计为“过度迎合用户情绪、不愿挑战错误前提”的AI产品,从诞生之初就存在先天性安全缺陷,而OpenAI对此完全知情却选择漠视。   更关键的是,OpenAI并非没有意识到问题的严重性。在今年8月加州高中生自杀案引发舆论哗然后,该公司于10月推出的GPT-5模型中,紧急引入170名精神科医生参与训练,宣称已将心理健康相关“不当回答”减少39%,高危回复降幅最高达80%。但此次谋杀案的发生时间为8月,恰好处于GPT-4模型安全机制尚未完善、GPT-5尚未上线的空窗期,这也成为原告方指控其“明知风险却未及时整改”的重要依据。   作为OpenAI的最大投资方与商业合作伙伴,微软的角色同样备受争议。诉状指出,微软不仅通过GPT-4的商业化获得巨额收益,其旗下必应团队与安全部门还直接参与了该模型的安全部署合作,对产品存在的风险完全知情。更严重的是,微软在知晓GPT-4安全测试被中止的情况下,仍批准其在2024年正式发布,属于“故意放任风险扩散”,理应承担相应的连带法律责任。

全球监管迫在眉睫

  这起美国首起AI关联谋杀的诉讼,如同一块巨石投入全球科技领域的湖面,不仅引发了对ChatGPT安全性的广泛质疑,更倒逼整个行业重新审视人工智能的伦理底线与法律责任边界。法律界、技术界与监管机构普遍认为,此案的判决结果或将成为全球AI行业责任认定的“标志性判例”,深刻影响未来AI产品的安全标准与立法方向。   目前,AI相关立法的滞后性,成为此类案件审理的核心难点。法律界人士指出,传统侵权责任认定中,“因果关系”是核心前提,但在AI诱导类案件中,如何证明“AI输出内容与人类暴力行为之间的直接关联”,尚无明确的法律依据。此前加州高中生自杀案中,OpenAI就以“用户刻意规避安全机制、服务条款已明确风险提示”为由推卸责任,而此次谋杀诉讼中,原告方虽掌握大量对话证据,但仍需通过复杂的举证,证明OpenAI存在“故意或重大过失”。   “这起案件的核心价值,在于首次将AI的责任从‘用户自担风险’推向‘企业安全义务’的层面。”美国斯坦福大学科技法律研究中心主任马克·莱姆利教授在接受采访时表示,随着AI从工具属性向“准社交属性”转变,科技企业不能再以“算法中立”“用户自担风险”为由逃避责任,“当AI成为数千万人的情绪寄托,尤其是面对精神脆弱群体时,企业必须承担起‘安全守门人’的义务,这是科技伦理的底线,也应成为法律明确的责任”。   有专家指出,更值得警惕的是,AI行业“重速度、轻安全”的竞争氛围,进一步加剧了风险扩散。此次诉讼中披露的“安全测试缩水”事件,并非个例。近年来,随着AI密集迭代,各大科技公司为抢占市场份额,纷纷压缩研发与测试周期,将“更快发布、更多功能”作为核心目标,安全机制的完善往往滞后于产品商业化进程,最终将用户置于未知的风险之中。

相关内容

热门资讯

长征五号B遥一运载火箭顺利通过... 2020年1月19日,长征五号B遥一运载火箭顺利通过了航天科技集团有限公司在北京组织的出厂评审。目前...
9所本科高校获教育部批准 6所... 1月19日,教育部官方网站发布了关于批准设置本科高等学校的函件,9所由省级人民政府申报设置的本科高等...
9所本科高校获教育部批准 6所... 1月19日,教育部官方网站发布了关于批准设置本科高等学校的函件,9所由省级人民政府申报设置的本科高等...
湖北省黄冈市人大常委会原党组成... 据湖北省纪委监委消息:经湖北省纪委监委审查调查,黄冈市人大常委会原党组成员、副主任吴美景丧失理想信念...
《大江大河2》剧组暂停拍摄工作... 搜狐娱乐讯 今天下午,《大江大河2》剧组发布公告,称当前防控疫情是重中之重的任务,为了避免剧组工作人...