AI资讯新闻榜单内容搜索-训练

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 训练
首个英文原生「弱智吧」!逻辑谬误数据集与生成框架来了 | AAAI'26

首个英文原生「弱智吧」!逻辑谬误数据集与生成框架来了 | AAAI'26

首个英文原生「弱智吧」!逻辑谬误数据集与生成框架来了 | AAAI'26

最近研究发现,大模型在判断逻辑谬误时容易「想太多」,误报正常句子,但在确定有谬误后,其分类能力较强。研究人员构建了首个高质量英文逻辑谬误基准SMARTYPAT-BENCH,并开发了基于Prolog的逻辑谬误自动生成框架SMARTYPAT,为大模型逻辑能力评估提供新思路,可用于谬误识别、辩论教育等领域。

来自主题: AI技术研报
9000 点击    2025-12-05 09:19
从MiniMax到DeepSeek:为何头部大模型都在押注「交错思维」?

从MiniMax到DeepSeek:为何头部大模型都在押注「交错思维」?

从MiniMax到DeepSeek:为何头部大模型都在押注「交错思维」?

昨日,有位推特博主晒出了国内几大开源模型在轻量级软件工程 Agent 基准测试 mini-SWE-agent 上的成绩。该基准主要测试大模型在真实软件开发任务中的多步推理、环境交互和工程化能力。

来自主题: AI技术研报
8742 点击    2025-12-04 16:25
无需训练的3D生成加速新思路:西湖大学提出Fast3Dcache

无需训练的3D生成加速新思路:西湖大学提出Fast3Dcache

无需训练的3D生成加速新思路:西湖大学提出Fast3Dcache

在AIGC的浪潮中,3D生成模型(如TRELLIS)正以惊人的速度进化,生成的模型越来越精细。然而,“慢”与计算量大依然是制约其大规模应用的最大痛点。复杂的去噪过程、庞大的计算量,让生成一个高质量3D资产往往需要漫长的等待。

来自主题: AI技术研报
6069 点击    2025-12-04 15:02
挑战ReAct!MetaGPT团队提出ReCode智能体新范式

挑战ReAct!MetaGPT团队提出ReCode智能体新范式

挑战ReAct!MetaGPT团队提出ReCode智能体新范式

想象你在准备早餐:你不会先写一份详细到「左手抓鸡蛋、右手拿碗、手腕旋转 45 度敲击蛋壳」这样的清单,也不会只有一个笼统的计划叫「做个早餐」,然后不知所措。

来自主题: AI技术研报
7216 点击    2025-12-04 15:01
DeepSeek V3.2爆火,Agentic性能暴涨40%解密

DeepSeek V3.2爆火,Agentic性能暴涨40%解密

DeepSeek V3.2爆火,Agentic性能暴涨40%解密

DeepSeek V3.2的Agentic能力大增,离不开这项关键机制:Interleaved Thinking(交错思维链)。Interleaved Thinking风靡开源社区背后,离不开另一家中国公司的推动。

来自主题: AI技术研报
7758 点击    2025-12-04 14:58
GPT-5-Thinking新训练方法公开:让AI学会忏悔

GPT-5-Thinking新训练方法公开:让AI学会忏悔

GPT-5-Thinking新训练方法公开:让AI学会忏悔

OpenAI搞了个新活:让ChatGPT自己“坦白从宽”。

来自主题: AI技术研报
8334 点击    2025-12-04 10:58
后生可畏!何恺明团队新成果发布,共一清华姚班大二在读

后生可畏!何恺明团队新成果发布,共一清华姚班大二在读

后生可畏!何恺明团队新成果发布,共一清华姚班大二在读

继今年5月提出MeanFlow (MF) 之后,何恺明团队于近日推出了最新的改进版本—— Improved MeanFlow (iMF),iMF成功解决了原始MF在训练稳定性、指导灵活性和架构效率上的三大核心问题。

来自主题: AI技术研报
5455 点击    2025-12-04 10:30
突破具身智能任务规划边界,刷新具身大脑多榜单SOTA,中兴EmbodiedBrain模型让具身大脑学会「复杂规划」

突破具身智能任务规划边界,刷新具身大脑多榜单SOTA,中兴EmbodiedBrain模型让具身大脑学会「复杂规划」

突破具身智能任务规划边界,刷新具身大脑多榜单SOTA,中兴EmbodiedBrain模型让具身大脑学会「复杂规划」

在人工通用智能(AGI)的探索征程中,具身智能 Agents 作为连接数字认知与物理世界的关键载体,其核心价值在于能够在真实物理环境中实现稳健的空间感知、高效的任务规划与自适应的执行闭环。

来自主题: AI技术研报
8960 点击    2025-12-04 10:27
斯坦福用一句Prompt就结束了提示工程。。。

斯坦福用一句Prompt就结束了提示工程。。。

斯坦福用一句Prompt就结束了提示工程。。。

最近口述采样很火。如果您经常使用经过“对齐”训练(如RLHF)的LLM,您可能已经注意到一个现象:模型虽然变得听话、安全了,但也变得巨“无聊”。

来自主题: AI技术研报
5626 点击    2025-12-04 10:25
突破AI记忆瓶颈,耶鲁博士新成果破解阅读失忆难题

突破AI记忆瓶颈,耶鲁博士新成果破解阅读失忆难题

突破AI记忆瓶颈,耶鲁博士新成果破解阅读失忆难题

当你阅读《红楼梦》《哈利·波特》《百年孤独》等长篇小说时,读着读着可能就忘记前面讲了什么,有时还会搞混人物关系。AI 在阅读长文章的时候也存在类似问题,当文章太长时它也会卡主,要么读得特别慢,要么记不住前面的内容。

来自主题: AI技术研报
7846 点击    2025-12-04 10:23