昨天,马斯克xAI内部曝出最大规模裁员。
标注团队中,500名通用标注员一夜被炒鱿鱼,Slack群聊人数(1500人)骤降至1000人。
与此同时,xAI将招募10倍「专业导师」团队。
数据标注,不仅是xAI押注的训练LLM核心,也是Gemini、Llama等大模型迭代的关键基石。
然而,鲜有人知的是,Gemini霸榜的背后,数据标注员们正承受越来越大的工作与心理压力,甚至开始被迫接触大量涉及暴力等负面信息。
光鲜亮丽的大模型背后,这些在背后默默付出的数据标注员们,正在被无情压榨。
据BI昨日报道,周五深夜,xAI突然裁掉了约500名数据标注员,占团队三分之一。
这些人原本负责教Grok如何理解世界。
公司发邮件宣布战略转型:不再需要大多数「通用导师」,未来将重点扩充「专家导师」。
员工立刻被切断系统权限,只能拿到合同期末或11月底的工资。
值得注意的是,就在裁员前几天,团队管理层也发生了人事震荡,新领导让员工临时完成一系列测试,决定谁能留下。
测试内容从STEM(科学、技术、工程、数学)到「shitposters and doomscrollers」(网络喷子与沉迷者)都有,甚至被要求通宵完成。
只要xAI不再需要你,哪怕昨晚还在给AI输入知识,今天就可能被踢出群聊。
与此同时,英国卫报前两天也报道了凭借nano banana爆红而备受瞩目的谷歌背后的数据标注员的劳工权益问题。
和xAI的「干脆利落」不同,谷歌的AI外包体系更像一张「隐形的网」。
很多人以为自己在做「写作」或「分析」,结果第一天上岗就被丢去审核Gemini生成的暴力、色情内容。
本来每个任务30分钟,后来压缩到15分钟甚至更少,还要每天处理几百条回答。
很多数据标注员开始被迫处理自己并不了解的领域的问题,这让他们开始对大模型的质量担忧起来。
有工人说,审核过的内容包括关于强奸、杀戮、种族歧视的「轻描淡写」问题,让他们焦虑失眠。
美国的「AI评估员」起薪16美元/小时,虽然比非洲或南美的标注员高,但远低于硅谷工程师。
有工人形容:「AI就是建立在一层层人类劳动之上的金字塔。」
他们是中间层,既不可或缺,又随时可被替代。
AI企业一边高喊「安全第一」,一边加速推新功能。
谷歌的AI在「奶酪不粘披萨」的问题上,曾建议用户在面团上涂胶水;
还有一次竟然推荐「吃石头」。
工人们说,这不意外,因为他们每天见到更荒谬、更危险的回答。
今年年初,谷歌悄悄修改规则:模型可以复述用户输入的仇恨或色情语言,只要不是AI主动生成,就「不违规」。
相关研究学者Adio Dinika一针见血地指出:「AI安全只优先到影响速度的那一刻。一旦威胁到利润,安全承诺就立刻崩塌。」
速度与安全之间,企业选择了速度;效率与尊严之间,工人失去了尊严。
对我们每个人来说,下一次再看到AI的「神奇回答」,不妨想想背后是谁在「替AI擦屁股」。
参考资料:
https://www.theguardian.com/technology/2025/sep/11/google-gemini-ai-training-humans
https://www.businessinsider.com/elon-musk-xai-layoffs-data-annotators-2025-9
https://x.com/rohanpaul_ai/status/1966943783276396730
文章来自于微信公众号 “新智元”,作者 “新智元”
【开源免费】DeepBI是一款AI原生的数据分析平台。DeepBI充分利用大语言模型的能力来探索、查询、可视化和共享来自任何数据源的数据。用户可以使用DeepBI洞察数据并做出数据驱动的决策。
项目地址:https://github.com/DeepInsight-AI/DeepBI?tab=readme-ov-file
本地安装:https://www.deepbi.com/
【开源免费】airda(Air Data Agent)是面向数据分析的AI智能体,能够理解数据开发和数据分析需求、根据用户需要让数据可视化。
项目地址:https://github.com/hitsz-ids/airda