AI资讯新闻榜单内容搜索-训练

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 训练
北大彭宇新教授团队开源细粒度多模态大模型Finedefics

北大彭宇新教授团队开源细粒度多模态大模型Finedefics

北大彭宇新教授团队开源细粒度多模态大模型Finedefics

尽管多模态大模型在通用视觉理解任务中表现出色,但不具备细粒度视觉识别能力,这极大制约了多模态大模型的应用与发展。针对这一问题,北京大学彭宇新教授团队系统地分析了多模态大模型在细粒度视觉识别上所需的 3 项能力:对象信息提取能力、类别知识储备能力、对象 - 类别对齐能力,发现了「视觉对象与细粒度子类别未对齐」

来自主题: AI资讯
8741 点击    2025-02-17 17:37
语言模型新范式:首个8B扩散大语言模型LLaDA发布,性能比肩LLaMA 3

语言模型新范式:首个8B扩散大语言模型LLaDA发布,性能比肩LLaMA 3

语言模型新范式:首个8B扩散大语言模型LLaDA发布,性能比肩LLaMA 3

近年来,大语言模型(LLMs)取得了突破性进展,展现了诸如上下文学习、指令遵循、推理和多轮对话等能力。目前,普遍的观点认为其成功依赖于自回归模型的「next token prediction」范式。

来自主题: AI技术研报
7267 点击    2025-02-17 14:37
当专业社区遇见DeepSeek最强推理:AI搜索进入「可信思考」时代

当专业社区遇见DeepSeek最强推理:AI搜索进入「可信思考」时代

当专业社区遇见DeepSeek最强推理:AI搜索进入「可信思考」时代

知乎直答默默掏出了自己的“底牌”。为啥这么说呢?因为知乎不仅有自己的AI模型,还攒了十多年的中文高质量知识库,再加上真实的问答场景作为AI的“实战训练场”,简直就是AI界的“学霸”。有了DeepSeek-R1的加持,知乎直答的推理能力直接拉满,传统搜索看了直呼“内行”,妥妥成了AI时代的“搜索界天花板”。

来自主题: AI资讯
7973 点击    2025-02-17 10:44
比知识蒸馏好用,田渊栋等提出连续概念混合,再度革新Transformer预训练框架

比知识蒸馏好用,田渊栋等提出连续概念混合,再度革新Transformer预训练框架

比知识蒸馏好用,田渊栋等提出连续概念混合,再度革新Transformer预训练框架

自然语言 token 代表的意思通常是表层的(例如 the 或 a 这样的功能性词汇),需要模型进行大量训练才能获得高级推理和对概念的理解能力,

来自主题: AI技术研报
4737 点击    2025-02-16 13:12
DeepSeek R1遇难题142次"I give up",研究还称需增加推理时机控制机制

DeepSeek R1遇难题142次"I give up",研究还称需增加推理时机控制机制

DeepSeek R1遇难题142次"I give up",研究还称需增加推理时机控制机制

最新大语言模型推理测试引众议,DeepSeek R1常常在提供错误答案前就“我放弃”了?? Cursor刚刚参与了一项研究,他们基于NPR周日谜题挑战(The Sunday Puzzle),构建了一个包含近600个问题新基准测试。

来自主题: AI技术研报
5757 点击    2025-02-14 17:41
超越CoT!微软剑桥中科院提出MVoT,直接可视化多模态推理过程

超越CoT!微软剑桥中科院提出MVoT,直接可视化多模态推理过程

超越CoT!微软剑桥中科院提出MVoT,直接可视化多模态推理过程

近日,微软和剑桥大学公布推理新方法:多模态思维可视化MVoT。新方法可以边推理,边「想象」,同时利用文本和图像信息学习,在实验中比CoT拥有更好的可解释性和稳健性,复杂情况下甚至比CoT强20%。还可以与CoT组合,进一步提升模型性能。

来自主题: AI技术研报
5880 点击    2025-02-14 14:15