
从「会说」迈向「会做」,LLM下半场:Agentic强化学习范式综述
从「会说」迈向「会做」,LLM下半场:Agentic强化学习范式综述过去几年,大语言模型(LLM)的训练大多依赖于基于人类或数据偏好的强化学习(Preference-based Reinforcement Fine-tuning, PBRFT):输入提示、输出文本、获得一个偏好分数。这一范式催生了 GPT-4、Llama-3 等成功的早期大模型,但局限也日益明显:缺乏长期规划、环境交互与持续学习能力。
过去几年,大语言模型(LLM)的训练大多依赖于基于人类或数据偏好的强化学习(Preference-based Reinforcement Fine-tuning, PBRFT):输入提示、输出文本、获得一个偏好分数。这一范式催生了 GPT-4、Llama-3 等成功的早期大模型,但局限也日益明显:缺乏长期规划、环境交互与持续学习能力。
今天吃到一个科技圈的瓜,主角是 77 岁的 AI 教父 Geoffrey Hinton,诺贝尔奖图灵奖得主。
背景信息:Fellou 又发新版了
SpikingBrain借鉴大脑信息处理机制,具有线性/近线性复杂度,在超长序列上具有显著速度优势,在GPU上1M长度下TTFT 速度相比主流大模型提升26.5x, 4M长度下保守估计速度提升超过100x;
在大型语言模型(LLM)进行数学题、逻辑推理等复杂任务时,一个非常流行且有效的方法叫做 “自洽性”(Self-Consistency),通常也被称为“平行思考”。
刚刚,据华尔街日报报道,OpenAI 正在为一部名为《Critterz》的动画长片提供工具和算力支持,预计将在明年 5 月的戛纳电影节上首映。《Critterz》讲的是一群森林小生物在陌生人打扰村庄后踏上冒险的故事。OpenAI 的创意专家 Chad Nelson 三年前在尝试用刚推出的 DALL-E 图像生成工具制作短片时
继封禁中国公司后,Anthropic 刚刚宣布:支持SB 53 法案。继上周封禁中国公司 API 访问后,这家 AI 公司表示,该法案为监管前沿 AI 公司构建的强大 AI 系统提供了坚实基础,通过透明度而非技术微观管理来实现监管。
OpenAI又要成立新团队了!
继π0后,具身智能基座模型在中国也终于迎来了真正的开源—— 刚刚,WALL-OSS宣布正式开源!在多项指标中,它还超越了π0。如果你是搞具身的开发者,了解它的基本资料,你就一定不会想错过它:
BVP最新报告中,AI原生企业成为最大驱动力,22家AI公司合计贡献4640亿美元市值,占比42%,较2024年翻倍。这份报告不仅揭示了AI如何重塑云计算版图,还为投资人和创始人提供了关于估值趋势、增长速度、IPO窗口和人才军备竞赛的第一手洞察。