AI资讯新闻榜单内容搜索-HAI

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
AITNT-国内领先的一站式人工智能新闻资讯网站 搜索
搜索: HAI
从思考到行动:大模型自主工具调用能力的深度实现

从思考到行动:大模型自主工具调用能力的深度实现

从思考到行动:大模型自主工具调用能力的深度实现

GPT - 4o、Deepseek - R1 等高级模型已展现出令人惊叹的「深度思考」能力:理解上下文关联、拆解多步骤问题、甚至通过思维链(Chain - of - Thought)进行自我验证、自我反思等推理过程。

来自主题: AI技术研报
5859 点击    2025-04-17 10:00
AI席卷医疗!斯坦福李飞飞重磅报告,AI将在医疗保健的每个环节发挥重要作用!

AI席卷医疗!斯坦福李飞飞重磅报告,AI将在医疗保健的每个环节发挥重要作用!

AI席卷医疗!斯坦福李飞飞重磅报告,AI将在医疗保健的每个环节发挥重要作用!

4月7日,斯坦福以人为本人工智能研究所(HAI)发布《2025年AI指数报告》,这份长达456页的报告,全景展示了过去一年AI领域的关键进展。

来自主题: AI资讯
9355 点击    2025-04-10 10:08
斯坦福2025 AI指数出炉!中美AI终极对决差距仅剩0.3%,DeepSeek领衔

斯坦福2025 AI指数出炉!中美AI终极对决差距仅剩0.3%,DeepSeek领衔

斯坦福2025 AI指数出炉!中美AI终极对决差距仅剩0.3%,DeepSeek领衔

2025年斯坦福HAI报告重磅发布,456页深度剖析全球AI领域的最新趋势:中美顶级模型性能差距缩至0.3%,以DeepSeek为代表的模型强势崛起,逼近闭源巨头;推理成本暴降,小模型性能飙升,AI正变得更高效、更普惠。

来自主题: AI资讯
8087 点击    2025-04-08 16:45
250多篇论文,上海AI Lab综述推理大模型高效思考

250多篇论文,上海AI Lab综述推理大模型高效思考

250多篇论文,上海AI Lab综述推理大模型高效思考

最近,像 OpenAI o1/o3、DeepSeek-R1 这样的大型推理模型(Large Reasoning Models,LRMs)通过加长「思考链」(Chain-of-Thought,CoT)在推理任务上表现惊艳。

来自主题: AI技术研报
7225 点击    2025-04-05 14:45
被LangChain折磨够了吗?试下100行代码打造的LLM有向图框架PocketFlow | 独家最新

被LangChain折磨够了吗?试下100行代码打造的LLM有向图框架PocketFlow | 独家最新

被LangChain折磨够了吗?试下100行代码打造的LLM有向图框架PocketFlow | 独家最新

你是否曾对着一个繁复的AI框架,无奈地想:"真有必要搞得这么复杂吗?"在与臃肿框架斗争一年后,Zachary Huang博士决定大刀阔斧地革新,剔除所有花里胡哨的部分。于是Pocket Flow诞生了——一个仅有100行代码的超轻量级大语言模型框架!

来自主题: AI技术研报
8212 点击    2025-03-31 09:48
Anthropic首次切开Claude大脑,「AI黑箱」彻底破解?心算诡异思考过程曝光

Anthropic首次切开Claude大脑,「AI黑箱」彻底破解?心算诡异思考过程曝光

Anthropic首次切开Claude大脑,「AI黑箱」彻底破解?心算诡异思考过程曝光

AI的运作始终笼罩着一层神秘的「黑箱」迷雾。这种不透明让AI有时会「胡说八道」,甚至故意撒谎。Anthropic刚刚推出了一项突破性研究,用类似大脑扫描的技术,深入Claude 3.5 Haiku的「脑子」,揭开了它运行的一些秘密。

来自主题: AI资讯
8799 点击    2025-03-28 17:45
对话 Haivivi 李勇:用 AI 做 Jellycat,如何单月营收千万

对话 Haivivi 李勇:用 AI 做 Jellycat,如何单月营收千万

对话 Haivivi 李勇:用 AI 做 Jellycat,如何单月营收千万

2024 年 9 月,我们第一次去 Haivivi 北京办公室和 CEO 李勇见面。在交谈的两小时里,他不断被会议室外的员工提醒看手机。

来自主题: AI资讯
5809 点击    2025-03-23 15:00
DeepSeek前实习生魔改MoE,用迭代机制把内存需求砍了42%,团队:“免费午餐”优化方法

DeepSeek前实习生魔改MoE,用迭代机制把内存需求砍了42%,团队:“免费午餐”优化方法

DeepSeek前实习生魔改MoE,用迭代机制把内存需求砍了42%,团队:“免费午餐”优化方法

DeepSeek MoE“变体”来了,200美元以内,内存需求减少17.6-42%! 名叫CoE(Chain-of-Experts),被认为是一种“免费午餐”优化方法,突破了MoE并行独立处理token、整体参数数量较大需要大量内存资源的局限。

来自主题: AI技术研报
5771 点击    2025-03-04 20:02
探索跳跃式思维链:DeepSeek创造力垫底,Qwen系列接近人类顶尖水平

探索跳跃式思维链:DeepSeek创造力垫底,Qwen系列接近人类顶尖水平

探索跳跃式思维链:DeepSeek创造力垫底,Qwen系列接近人类顶尖水平

在大语言模型 (LLM) 的研究中,与以 Chain-of-Thought 为代表的逻辑思维能力相比,LLM 中同等重要的 Leap-of-Thought 能力,也称为创造力,目前的讨论和分析仍然较少。这可能会严重阻碍 LLM 在创造力上的发展。造成这种困局的一个主要原因是,面对「创造力」,我们很难构建一个合适且自动化的评估流程。

来自主题: AI技术研报
5946 点击    2025-03-01 22:13