每天都和 AI 聊天,你可能已经是个「神经病」
每天都和 AI 聊天,你可能已经是个「神经病」维基百科的「ChatBot 精神病」这一词条,诞生自今年 6 月。在过去 4 个月里,被编辑了超过 300 次,参考资料 24 条,著名案例有 TikToker、硅谷投资人、未成年用户……
维基百科的「ChatBot 精神病」这一词条,诞生自今年 6 月。在过去 4 个月里,被编辑了超过 300 次,参考资料 24 条,著名案例有 TikToker、硅谷投资人、未成年用户……
大语言模型(LLM)的「炼丹师」们,或许都曾面临一个共同的困扰:为不同任务、不同模型手动调整解码超参数(如 temperature 和 top-p)。这个过程不仅耗时耗力,而且一旦模型或任务发生变化,历史经验便瞬间失效,一切又得从头再来。
当我们还在调侃「AI写错代码」时,实验室里的科学家却看到它能独立完成几个小时的复杂任务。AlphaGo作者Julian罕见发声:公众对AI的认知,至少落后一个世代。最新数据更显示,AI正以指数速度逼近专家水准,2026或许就是临界点。我们,是在见证未来,还是在自欺欺人?
AI万亿赌局,马斯克们正越来越富,但人类在集体失业?Hinton最新末日警告,科技巨头不裁员,根本赚不到钱。
大模型推理到底要不要「长篇大论」?过去一年,OpenAI o 系列、DeepSeek-R1、Qwen 等一系列推理模型,把「长链思维」玩到极致:答案更准了,但代价是推理链越来越长、Token 消耗爆炸、响应速度骤降。
11 月 2 日,英伟达首次把 H100 GPU 送入了太空。作为目前 AI 领域的主力训练芯片,H100 配备 80GB 内存,其性能是此前任何一台进入太空的计算机的上百倍。在轨道上,它将测试一系列人工智能处理应用,包括分析地球观测图像和运行谷歌的大语言模型(LLM)。
是孩子该看的东西。
当用户向大语言模型提出一个简单问题,比如「单词 HiPPO 里有几个字母 P?」,它却正襟危坐,开始生成一段冗长的推理链:
从豆包的「产品卡」里,可以窥见大模型对产品销售的新链路已经展开。
传统智能体系统难以兼顾稳定性和学习能力,斯坦福等学者提出AgentFlow框架,通过模块化和实时强化学习,在推理中持续优化策略,并使小规模模型在多项任务中超越GPT-4o,为AI发展开辟新思路。