
AI为了自保假装配合!Claude团队新研究结果细思极恐
AI为了自保假装配合!Claude团队新研究结果细思极恐大模型“当面一套背后一套”的背后原因,正在进一步被解开。 Claude团队最新研究结果显示:对齐伪装并非通病,只是有些模型的“顺从性”会更高。
大模型“当面一套背后一套”的背后原因,正在进一步被解开。 Claude团队最新研究结果显示:对齐伪装并非通病,只是有些模型的“顺从性”会更高。
2025 年,大模型又一次刷新了人类的认知边界,AI 模拟高考成绩大幅跃升,已达到清华、北大的录取线。但另一方面,这也让人感到些许焦虑。
论文提出一种AI自我反思方法:通过反思错误原因、重试任务、奖励成功反思来优化训练。
我们先给不知道剧情的朋友回归一下事件事件线:2025年6月30日,华为宣布开源盘古7B稠密和72B混合专家模型。然而发布会后,网络上出现华为盘古大模型抄袭的言论。7月5日,诺亚方舟实验室发布《关于盘古大模型开源代码相关讨论的声明》。本以为官方已经出来站台,这件事到此为止。
2025 年已经过半, 文本生成大模型是否已经进入下半场了? OpenAI 完全不重视 API 市场? Grok3 根本没人用? 「大模型战」未来的走向如何?
学好数理化,走遍天下都不怕! 这一点这在大语言模型身上也不例外。
香港大学NLP团队联合字节跳动Seed、复旦大学发布名为Polaris的强化学习训练配方:通过Scaling RL,Polaris让4B模型的数学推理能力(AIME25上取得79.4,AIME24上取得81.2)超越了一众商业大模型,如Seed-1.5-thinking、Claude-4-Opus和o3-mini-high(25/01/31)。
近日,全球四大会计师事务所之一毕马威中国发布了《首届健康科技50》报告。
今天凌晨,全球著名大模型开放平台Hugging Face开源了,顶级小参数模型SmolLM3。
当ChatGPT横空出世时,它以空前的方式将AI 议题推至公众视野的核心。然而,同时迸发的诸多讨论却固着于恐惧、忧虑与批判情绪。