
AI顶会模式出了问题? 「不发表,就出局」的恶性循环,正在压垮整个AI学界
AI顶会模式出了问题? 「不发表,就出局」的恶性循环,正在压垮整个AI学界相信我们的读者都对 AI 顶会有非常大的关注和热情,有的读者最近可能刚从 NeurIPS rebuttal 脱身,又开始为下一篇做准备了。 作为推动技术革新与思想碰撞的核心引擎,顶级学术会议不仅是整个学界的生命线,更是我们洞察未来的前沿阵地。
相信我们的读者都对 AI 顶会有非常大的关注和热情,有的读者最近可能刚从 NeurIPS rebuttal 脱身,又开始为下一篇做准备了。 作为推动技术革新与思想碰撞的核心引擎,顶级学术会议不仅是整个学界的生命线,更是我们洞察未来的前沿阵地。
AI应用又爆出大冷门事件。 成立仅三年的AI初创公司Perplexity正式向谷歌发出收购要约,计划以345亿美元全现金形式收购Chrome浏览器业务。
强化学习(RL)是锻造当今顶尖大模型(如 OpenAI o 系列、DeepSeek-R1、Gemini 2.5、Grok 4、GPT-5)推理能力与对齐的核心 “武器”,但它也像一把双刃剑,常常导致模型行为脆弱、风格突变,甚至出现 “欺骗性对齐”、“失控” 等危险倾向。
战火升级!马斯克还在X上和奥特曼口水战,奥特曼反手就密谋支持一家脑机接口公司,与马斯克的Neuralink正面对决。这场关乎人类未来的科技战争,已经从AI蔓延到了你的大脑!
GUI 智能体正以前所未有的速度崛起,有望彻底改变人机交互的方式。然而,这一领域的进展正面临瓶颈:现有数据集大多聚焦于 10 步以内的短程交互,且仅验证最终结果,无法有效评估和训练智能体在真实世界中的长时程规划与执行能力。
首次实现“训练-推理不对称”,字节团队提出全新的语言模型训练方法:Post-Completion Learning (PCL)。 在训练时让模型对自己的输出结果进行反思和评估,推理时却仅输出答案,将反思能力完全内化。
近年来,强化学习(RL)在大型语言模型(LLM)的微调过程中,尤其是在推理能力提升方面,取得了显著的成效。传统的强化学习方法,如近端策略优化(Proximal Policy Optimization,PPO)及其变种,包括组相对策略优化(Group Relative Policy Optimization,GRPO),在处理复杂推理任务时表现出了强大的潜力。
Artificial Analysis 最近发布了《State of AI: China Q2 2025 Highlights Report》(2025年Q2 中国人工智能现状分析报告),聚焦中国 AI 发展现状。
危险!ChatGPT存在“零点击攻击”安全问题。 用户无需点击,攻击者也能从ChatGPT连接的第三方应用窃取敏感数据,甚至窃取API密钥。
一场创业公司对大厂产品的反向收购,罕见地发生在了AI搜索战场。 2025年8月12日,据“华尔街日报”消息,美国AI搜索领域的“顶流”初创公司Perplexity,正在计划全现金收购谷歌的Chrome浏览器,报价高达345亿美元。