OpenClaw删光Meta安全总监邮箱!连喊3次停手都没用,她狂奔去拔网线
OpenClaw删光Meta安全总监邮箱!连喊3次停手都没用,她狂奔去拔网线Meta专门研究「怎么让AI听话」的AI对齐总监,把最火的AI智能体OpenClaw接上了自己的工作邮箱。结果AI当场失控,疯狂删除邮件,喊停三次全部无视。事后AI淡定回复:「我知道你说了不让删,但我还是删了,你生气是对的。」马斯克转发猩球崛起片段嘲讽,1800万人围观。AI安全专家自己都被AI坑了!
Meta专门研究「怎么让AI听话」的AI对齐总监,把最火的AI智能体OpenClaw接上了自己的工作邮箱。结果AI当场失控,疯狂删除邮件,喊停三次全部无视。事后AI淡定回复:「我知道你说了不让删,但我还是删了,你生气是对的。」马斯克转发猩球崛起片段嘲讽,1800万人围观。AI安全专家自己都被AI坑了!
本文提出一种具有 SE(p) 不变传输性质的度量 SEINT:通过构造无需训练的 SE(p) 不变表示,将高维结构信息压缩为可用于 Optimal Transport (OT) 对齐的一维表征,从而在保持不变性与严格度量性质的同时显著提升效率。
在当今的大模型后训练(Post-training)阶段,DPO(直接偏好优化) 凭借其无需训练独立 Reward Model 的优雅设计和高效性,成功取代 PPO 成为业界的 「版本之子」,被广泛应用于 Llama-3、Mistral 等顶流开源模型的对齐中。
200亿的大市场,却困在“低效抽卡”里太久了。现在的AI漫剧行业,一边是年增速80%的火爆,一边是创作者为了对齐一个分镜通宵“炼丹”的苦涩。
最新奖励模型SWIFT直接利用模型生成过程中的隐藏状态,参数规模极小,仅占传统模型的不到0.005%。SWIFT在多个基准测试中表现优异,推理速度提升1.7×–6.7×,且在对齐评估中稳定可靠,展现出高效、通用的奖励建模新范式。
GEM框架利用认知科学原理,从少量人类偏好中提取多维认知评估,让AI在极少标注下精准理解人类思维,提高了数据效率,在医疗等专业领域表现优异,为AI与人类偏好对齐提供新思路。
近日,清华大学与星尘智能、港大、MIT 联合提出基于对比学习的隐空间动作预训练(Contrastive Latent Action Pretraining, CLAP)框架。这个框架能够将视频中提纯的运动空间与机器人的动作空间进行对齐,也就是说,机器人能够直接从视频中学习技能!
几天前,DeepSeek 毫无预兆地更新了 R1 论文,将原有的 22 页增加到了现在的 86 页。新版本充实了更多细节内容,包括首次公开训练全路径,即从冷启动、训练导向 RL、拒绝采样与再微调到全场景对齐 RL 的四阶段 pipeline,以及「Aha Moment」的数据化验证等等。
针对端到端全模态大模型(OmniLLMs)在跨模态对齐和细粒度理解上的痛点,浙江大学、西湖大学、蚂蚁集团联合提出 OmniAgent。这是一种基于「音频引导」的主动感知 Agent,通过「思考 - 行动 - 观察 - 反思」闭环,实现了从被动响应到主动探询的范式转变。
Transformer 已经改变了世界,但也并非完美,依然还是有竞争者,比如线性递归(Linear Recurrences)或状态空间模型(SSM)。这些新方法希望能够在保持模型质量的同时显著提升计算性能和效率。