AI资讯新闻榜单内容搜索-大语言模型

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 大语言模型
Eino ADK:一文搞定 AI Agent 核心设计模式,从 0 到 1 搭建智能体系统

Eino ADK:一文搞定 AI Agent 核心设计模式,从 0 到 1 搭建智能体系统

Eino ADK:一文搞定 AI Agent 核心设计模式,从 0 到 1 搭建智能体系统

当大语言模型突破了 “理解与生成” 的瓶颈,Agent 迅速成为 AI 落地的主流形态。从智能客服到自动化办公,几乎所有场景都需要 Agent 来承接 LLM 能力、执行具体任务。

来自主题: AI技术研报
8827 点击    2025-10-31 10:24
刚刚,Anthropic证明:AI开始拥有内省能力

刚刚,Anthropic证明:AI开始拥有内省能力

刚刚,Anthropic证明:AI开始拥有内省能力

家人们,不知道你有没有试过,在和 AI 聊天时,冷不丁地问一句: “你刚刚在想什么?”

来自主题: AI技术研报
10822 点击    2025-10-30 17:30
中移动九天团队MultiPL-MoE:全新Hybrid-MoE架构用于增强通用大模型低资源代码能力

中移动九天团队MultiPL-MoE:全新Hybrid-MoE架构用于增强通用大模型低资源代码能力

中移动九天团队MultiPL-MoE:全新Hybrid-MoE架构用于增强通用大模型低资源代码能力

大语言模型(LLM)虽已展现出卓越的代码生成潜力,却依然面临着一道艰巨的挑战:如何在有限的计算资源约束下,同步提升对多种编程语言的理解与生成能力,同时不损害其在主流语言上的性能?

来自主题: AI技术研报
7786 点击    2025-10-30 16:23
高效训练新标杆!华人团队开源原生VLM-NEO,以少数据追平顶级模型

高效训练新标杆!华人团队开源原生VLM-NEO,以少数据追平顶级模型

高效训练新标杆!华人团队开源原生VLM-NEO,以少数据追平顶级模型

当下主流的视觉语言模型(Vision-Language Models, VLM),通常都采用这样一种设计思路:将预训练的视觉编码器与大语言模型通过投影层拼接起来。这种模块化架构成就了当前 VLM 的辉煌,但也带来了一系列新的问题——多阶段训练复杂、组件间语义对齐成本高,不同模块的扩展规律难以协调。

来自主题: AI技术研报
7304 点击    2025-10-30 10:55
仅需10%思维链标注,等同全量性能!计算所发布推理监督新范式

仅需10%思维链标注,等同全量性能!计算所发布推理监督新范式

仅需10%思维链标注,等同全量性能!计算所发布推理监督新范式

大语言模型(LLMs)推理能力近年来快速提升,但传统方法依赖大量昂贵的人工标注思维链。中国科学院计算所团队提出新框架PARO,通过让模型学习固定推理模式自动生成思维链,只需大模型标注1/10数据就能达到全量人工标注的性能。这种方法特别适合像金融、审计这样规则清晰的领域,为高效推理监督提供了全新思路。

来自主题: AI技术研报
6034 点击    2025-10-29 10:15
兄弟俩用开源对抗AI训练垄断,还顺手帮模型们修了一堆Bug

兄弟俩用开源对抗AI训练垄断,还顺手帮模型们修了一堆Bug

兄弟俩用开源对抗AI训练垄断,还顺手帮模型们修了一堆Bug

2023 年的秋天,当全世界都在为 ChatGPT 和大语言模型疯狂的时候,远在澳大利亚悉尼的一对兄弟却在为一个看似简单的问题发愁:为什么微调一个开源模型要花这么长时间,还要用那么昂贵的 GPU?

来自主题: AI资讯
9661 点击    2025-10-28 10:40
推理效率狂飙60倍:DiDi-Instruct让扩散大模型16步超越千步GPT

推理效率狂飙60倍:DiDi-Instruct让扩散大模型16步超越千步GPT

推理效率狂飙60倍:DiDi-Instruct让扩散大模型16步超越千步GPT

近日,来自普渡大学、德克萨斯大学、新加坡国立大学、摩根士丹利机器学习研究、小红书 hi-lab 的研究者联合提出了一种对离散扩散大语言模型的后训练方法 —— Discrete Diffusion Divergence Instruct (DiDi-Instruct)。经过 DiDi-Instruct 后训练的扩散大语言模型可以以 60 倍的加速超越传统的 GPT 模型和扩散大语言模型。

来自主题: AI技术研报
8903 点击    2025-10-28 09:40
NVIDIA港大MIT联合推出Fast-dLLM v2:端到端吞吐量提升2.5倍

NVIDIA港大MIT联合推出Fast-dLLM v2:端到端吞吐量提升2.5倍

NVIDIA港大MIT联合推出Fast-dLLM v2:端到端吞吐量提升2.5倍

自回归(AR)大语言模型逐 token 顺序解码的范式限制了推理效率;扩散 LLM(dLLM)以并行生成见长,但过去难以稳定跑赢自回归(AR)模型,尤其是在 KV Cache 复用、和 可变长度 支持上仍存挑战。

来自主题: AI技术研报
7426 点击    2025-10-27 16:46
3500万美元押注一个疯狂想法:Viven让每个员工都有数字分身

3500万美元押注一个疯狂想法:Viven让每个员工都有数字分身

3500万美元押注一个疯狂想法:Viven让每个员工都有数字分身

Viven 的核心创新在于,它为每个员工创建了一个个性化的大语言模型,实质上就是一个数字分身。这个分身通过访问员工的内部电子文档,包括邮件、Slack 消息、Google Docs、会议记录等,学习这个人如何思考、如何沟通、拥有什么知识。关键是,这个学习过程是自动进行的,不需要员工做任何额外工作。你只需正常工作,你的数字分身就会不断更新和进化。

来自主题: AI资讯
8248 点击    2025-10-26 11:20