AI资讯新闻榜单内容搜索-模型

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 模型
3.5亿参数模型媲美ChatGPT-4o?Liquid AI发布的日英翻译模型给出答案

3.5亿参数模型媲美ChatGPT-4o?Liquid AI发布的日英翻译模型给出答案

3.5亿参数模型媲美ChatGPT-4o?Liquid AI发布的日英翻译模型给出答案

在大模型的竞赛中,参数规模往往被视为性能的决定性因素。但近期,Liquid AI 的研究团队提出了一个不同寻常的案例:一个仅有 3.5 亿参数的模型,经过微调后,竟能在中短上下文的实时日语英语翻译任务上,与 GPT-4o 竞争。

来自主题: AI资讯
4764 点击    2025-09-09 12:19
从「会说」迈向「会做」,LLM下半场:Agentic强化学习范式综述

从「会说」迈向「会做」,LLM下半场:Agentic强化学习范式综述

从「会说」迈向「会做」,LLM下半场:Agentic强化学习范式综述

过去几年,大语言模型(LLM)的训练大多依赖于基于人类或数据偏好的强化学习(Preference-based Reinforcement Fine-tuning, PBRFT):输入提示、输出文本、获得一个偏好分数。这一范式催生了 GPT-4、Llama-3 等成功的早期大模型,但局限也日益明显:缺乏长期规划、环境交互与持续学习能力。

来自主题: AI技术研报
7029 点击    2025-09-09 10:49
全流程国产GPU,上下文提速100倍!中国科学院发布「线性复杂度」类脑大模型

全流程国产GPU,上下文提速100倍!中国科学院发布「线性复杂度」类脑大模型

全流程国产GPU,上下文提速100倍!中国科学院发布「线性复杂度」类脑大模型

SpikingBrain借鉴大脑信息处理机制,具有线性/近线性复杂度,在超长序列上具有显著速度优势,在GPU上1M长度下TTFT 速度相比主流大模型提升26.5x, 4M长度下保守估计速度提升超过100x;

来自主题: AI技术研报
4832 点击    2025-09-09 10:25
不微调,让LLM推理准确率暴增到99%!试下DeepConf,一个轻量级推理框架|Meta最新

不微调,让LLM推理准确率暴增到99%!试下DeepConf,一个轻量级推理框架|Meta最新

不微调,让LLM推理准确率暴增到99%!试下DeepConf,一个轻量级推理框架|Meta最新

在大型语言模型(LLM)进行数学题、逻辑推理等复杂任务时,一个非常流行且有效的方法叫做 “自洽性”(Self-Consistency),通常也被称为“平行思考”。

来自主题: AI技术研报
4770 点击    2025-09-09 10:17
开放全栈!超越π0,具身智能基础大模型迎来真·开源,开发者狂喜

开放全栈!超越π0,具身智能基础大模型迎来真·开源,开发者狂喜

开放全栈!超越π0,具身智能基础大模型迎来真·开源,开发者狂喜

继π0后,具身智能基座模型在中国也终于迎来了真正的开源—— 刚刚,WALL-OSS宣布正式开源!在多项指标中,它还超越了π0。如果你是搞具身的开发者,了解它的基本资料,你就一定不会想错过它:

来自主题: AI技术研报
5407 点击    2025-09-08 17:16
斯坦福:优化器「诸神之战」?AdamW 凭「稳定」胜出

斯坦福:优化器「诸神之战」?AdamW 凭「稳定」胜出

斯坦福:优化器「诸神之战」?AdamW 凭「稳定」胜出

自2014 年提出以来,Adam 及其改进版 AdamW 长期占据开放权重语言模型预训练的主导地位,帮助模型在海量数据下保持稳定并实现较快收敛。

来自主题: AI技术研报
6341 点击    2025-09-08 16:18