本文来自微信公众号:新智元,作者:新智元,编辑:艾伦,原文标题:《马斯克深夜挥刀,Grok幕后员工1/3失业!谷歌AI靠人肉堆起,血汗工厂曝光》,题图来自:AI生成
近日,马斯克xAI内部曝出最大规模裁员。
标注团队中,500名通用标注员一夜被炒鱿鱼,Slack群聊人数(1500人)骤降至1000人。
与此同时,xAI将招募10倍“专业导师”团队。
数据标注,不仅是xAI押注的训练LLM核心,也是Gemini、Llama等大模型迭代的关键基石。
然而,鲜有人知的是,Gemini霸榜的背后,数据标注员们正承受越来越大的工作与心理压力,甚至开始被迫接触大量涉及暴力等负面信息。
光鲜亮丽的大模型背后,这些在背后默默付出的数据标注员们,正在被无情压榨。
一、马斯克暴裁500人,要招10倍专业导师
据BI9月13日报道,周五深夜,xAI突然裁掉了约500名数据标注员,占团队三分之一。
这些人原本负责教Grok如何理解世界。
公司发邮件宣布战略转型:不再需要大多数“通用导师”,未来将重点扩充“专家导师”。
员工立刻被切断系统权限,只能拿到合同期末或11月底的工资。
值得注意的是,就在裁员前几天,团队管理层也发生了人事震荡,新领导让员工临时完成一系列测试,决定谁能留下。
测试内容从STEM(科学、技术、工程、数学)到“shitposters and doomscrollers”(网络喷子与沉迷者)都有,甚至被要求通宵完成。
只要xAI不再需要你,哪怕昨晚还在给AI输入知识,今天就可能被踢出群聊。
二、谷歌的AI工人:高压、低薪、看不到希望
与此同时,英国卫报前两天也报道了凭借nano banana爆红而备受瞩目的谷歌背后的数据标注员的劳工权益问题。
和xAI的“干脆利落”不同,谷歌的AI外包体系更像一张“隐形的网”。
很多人以为自己在做“写作”或“分析”,结果第一天上岗就被丢去审核Gemini生成的暴力、色情内容。
本来每个任务30分钟,后来压缩到15分钟甚至更少,还要每天处理几百条回答。
很多数据标注员开始被迫处理自己并不了解的领域的问题,这让他们开始对大模型的质量担忧起来。
有工人说,审核过的内容包括关于强奸、杀戮、种族歧视的“轻描淡写”问题,让他们焦虑失眠。
美国的“AI评估员”起薪16美元/小时,虽然比非洲或南美的标注员高,但远低于硅谷工程师。
有工人形容:“AI就是建立在一层层人类劳动之上的金字塔。”
他们是中间层,既不可或缺,又随时可被替代。
三、速度压倒伦理,AI的“安全承诺”随时崩塌
AI企业一边高喊“安全第一”,一边加速推新功能。
谷歌的AI在“奶酪不粘披萨”的问题上,曾建议用户在面团上涂胶水;
还有一次竟然推荐“吃石头”。
工人们说,这不意外,因为他们每天见到更荒谬、更危险的回答。
今年年初,谷歌悄悄修改规则:模型可以复述用户输入的仇恨或色情语言,只要不是AI主动生成,就“不违规”。
相关研究学者Adio Dinika一针见血地指出:“AI安全只优先到影响速度的那一刻。一旦威胁到利润,安全承诺就立刻崩塌。”
速度与安全之间,企业选择了速度;效率与尊严之间,工人失去了尊严。
对我们每个人来说,下一次再看到AI的“神奇回答”,不妨想想背后是谁在“替AI擦屁股”。
参考资料:
https://www.theguardian.com/technology/2025/sep/11/google-gemini-ai-training-humans
https://www.businessinsider.com/elon-musk-xai-layoffs-data-annotators-2025-9
https://x.com/rohanpaul_ai/status/1966943783276396730
本文来自微信公众号:新智元,作者:新智元,编辑:艾伦