AI资讯新闻榜单内容搜索-LLM

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: LLM
AI 大模型创业,悄悄盯上年轻人最爱的「谷子经济」

AI 大模型创业,悄悄盯上年轻人最爱的「谷子经济」

AI 大模型创业,悄悄盯上年轻人最爱的「谷子经济」

Neurobo(弈智交互)是一家位于上海的创业公司,获得前百度总裁、微软副总裁陆奇博士创办的奇绩创坛的投资。团队核心成员来自清华大学与日本筑波大学等海内外名校,致力于结合 LLM 与现实场景数据,让二次元用户可以将「谷子」变为随身相伴,随时触达的实体情感伴侣。

来自主题: AI资讯
6867 点击    2025-03-16 20:05
谷歌重磅推出全新Scaling Law,抢救Transformer!3万亿美元AI面临岔路

谷歌重磅推出全新Scaling Law,抢救Transformer!3万亿美元AI面临岔路

谷歌重磅推出全新Scaling Law,抢救Transformer!3万亿美元AI面临岔路

谷歌团队发现了全新Scaling Law!新方法DiLoCo被证明更好、更快、更强,可在多个数据中心训练越来越大的LLM。

来自主题: AI技术研报
5486 点击    2025-03-16 16:09
无需训练,100%完美检索!LLM练出「火眼金睛」,InfiniRetri超长文本一针见血

无需训练,100%完美检索!LLM练出「火眼金睛」,InfiniRetri超长文本一针见血

无需训练,100%完美检索!LLM练出「火眼金睛」,InfiniRetri超长文本一针见血

LLM自身有望在无限长token下检索信息!无需训练,在检索任务「大海捞针」(Needle-in-a-Haystack)测试中,新方法InfiniRetri让有效上下文token长度从32K扩展至1000+K,让7B模型比肩72B模型。

来自主题: AI技术研报
8447 点击    2025-03-16 13:28
AI大佬曼宁转赞,MetaGPT团队首提「Atom of Thoughts」,原子化思考让4o-mini暴打推理模型?

AI大佬曼宁转赞,MetaGPT团队首提「Atom of Thoughts」,原子化思考让4o-mini暴打推理模型?

AI大佬曼宁转赞,MetaGPT团队首提「Atom of Thoughts」,原子化思考让4o-mini暴打推理模型?

大语言模型(LLM)近年来凭借训练时扩展(train-time scaling)取得了显著性能提升。然而,随着模型规模和数据量的瓶颈显现,测试时扩展(test-time scaling)成为进一步释放潜力的新方向。

来自主题: AI技术研报
6512 点击    2025-03-16 12:42
医学可用!推理增强RAG:精准诊断、智能补问、高效解析 | WWW 2025

医学可用!推理增强RAG:精准诊断、智能补问、高效解析 | WWW 2025

医学可用!推理增强RAG:精准诊断、智能补问、高效解析 | WWW 2025

南洋理工大学的研究团队提出了MedRAG模型,通过结合知识图谱推理增强大语言模型(LLM)的诊断能力,显著提升智能健康助手的诊断精度和个性化建议水平。MedRAG在真实临床数据集上表现优于现有模型,准确率提升11.32%,并具备良好的泛化能力,可广泛应用于不同LLM基模型。

来自主题: AI技术研报
5062 点击    2025-03-14 16:19
3700次预训练总结超参规律,开源海量实验,告别盲猜

3700次预训练总结超参规律,开源海量实验,告别盲猜

3700次预训练总结超参规律,开源海量实验,告别盲猜

近年来,大语言模型 LLMs 在多种任务上的卓越表现已得到广泛认可。然而,要实现其高效部署,精细的超参数优化至关重要。为了探究最佳超参数的规律,我们开展了大规模的实证研究,通过在不同配置上进行网格搜索,我们揭示了一套通用的最优超参数缩放定律(Optimal Hyperparameter Scaling Law)。

来自主题: AI技术研报
8425 点击    2025-03-13 15:15
超越DeepSeek-R1关键RL算法GRPO,CMU「元强化微调」新范式登场

超越DeepSeek-R1关键RL算法GRPO,CMU「元强化微调」新范式登场

超越DeepSeek-R1关键RL算法GRPO,CMU「元强化微调」新范式登场

大语言模型(LLM)在推理领域的最新成果表明了通过扩展测试时计算来提高推理能力的潜力,比如 OpenAI 的 o1 系列。

来自主题: AI技术研报
6730 点击    2025-03-13 14:41
长文本向量模型在4K Tokens 之外形同盲区?

长文本向量模型在4K Tokens 之外形同盲区?

长文本向量模型在4K Tokens 之外形同盲区?

2025 年 2 月发布的 NoLiMA 是一种大语言模型(LLM)长文本理解能力评估方法。不同于传统“大海捞针”(Needle-in-a-Haystack, NIAH)测试依赖关键词匹配的做法,它最大的特点是 通过精心设计问题和关键信息,迫使模型进行深层语义理解和推理,才能从长文本中找到答案。

来自主题: AI技术研报
3971 点击    2025-03-12 15:08