AI技术研报-这里有最前沿的人工智能技术解读

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
2024-arXiv-FinRobot: 一种基于大语言模型的开源金融应用 AI 智能体平台

2024-arXiv-FinRobot: 一种基于大语言模型的开源金融应用 AI 智能体平台

2024-arXiv-FinRobot: 一种基于大语言模型的开源金融应用 AI 智能体平台

随着金融机构和专业人士越来越多地将大语言模型(LLMs)纳入其工作流程中,金融领域与人工智能社区之间依然存在显著障碍,包括专有数据和专业知识的壁垒。本文提出了 FinRobot,一种支持多个金融专业化人工智能智能体的新型开源 AI 智能体平台,每个代理均由 LLM 提供动力。

来自主题: AI技术研报
7162 点击    2025-02-20 11:33
AI游戏设计师问世,自学成才,无需任何先前知识

AI游戏设计师问世,自学成才,无需任何先前知识

AI游戏设计师问世,自学成才,无需任何先前知识

游戏开发不仅需要生成新颖的内容,更需要在保持游戏世界一致性、多样性和用户修改持续性方面达到高度平衡。近日,一篇发表在Nature上的研究论文World and Human Action Models towards Gameplay Ideation揭示了如何利用生成式AI模型推动游戏玩法创意的生成。

来自主题: AI技术研报
7977 点击    2025-02-20 10:20
OpenAI掀「百万美金」编程大战!Claude 3.5 Sonnet狂赚40万拿下第一

OpenAI掀「百万美金」编程大战!Claude 3.5 Sonnet狂赚40万拿下第一

OpenAI掀「百万美金」编程大战!Claude 3.5 Sonnet狂赚40万拿下第一

OpenAI刚刚发布SWE-Lancer编码基准测试,直接让AI模型挑战真实外包任务!这些任务总价值高达100万美元。有趣的是,测试结果显示,Anthropic的Claude 3.5 Sonnet在「赚钱」能力上竟然超越了OpenAI自家的GPT-4o和o1模型。

来自主题: AI技术研报
8237 点击    2025-02-19 15:19
一句话,满足两个广告商!谷歌最新「Token拍卖模型」,多LLM联合创作广告词

一句话,满足两个广告商!谷歌最新「Token拍卖模型」,多LLM联合创作广告词

一句话,满足两个广告商!谷歌最新「Token拍卖模型」,多LLM联合创作广告词

谷歌研究人员提出了一种创新的token拍卖模型,通过「竞拍」的方式,让智能体在文本生成过程中进行出价,确保最终输出能满足各方利益,实现最佳效果。这一机制优化了广告、内容创作等领域的协作。

来自主题: AI技术研报
7198 点击    2025-02-19 15:09
ICLR 2025 Spotlight | 让城市「动」起来!DynamicCity突破4D大场景生成技术边界

ICLR 2025 Spotlight | 让城市「动」起来!DynamicCity突破4D大场景生成技术边界

ICLR 2025 Spotlight | 让城市「动」起来!DynamicCity突破4D大场景生成技术边界

过去一年,3D 生成技术迎来爆发式增长。在大场景生成领域,涌现出一批 “静态大场景生成” 工作,如 SemCity [1]、PDD [2]、XCube [3] 等。这些研究推动了 AI 利用扩散模型的强大学习能力来解构和创造物理世界的趋势。

来自主题: AI技术研报
4977 点击    2025-02-19 14:23
首个基于统计学的线性注意力机制ToST,高分拿下ICLR Spotlight

首个基于统计学的线性注意力机制ToST,高分拿下ICLR Spotlight

首个基于统计学的线性注意力机制ToST,高分拿下ICLR Spotlight

Transformer 架构在过去几年中通过注意力机制在多个领域(如计算机视觉、自然语言处理和长序列任务)中取得了非凡的成就。然而,其核心组件「自注意力机制」 的计算复杂度随输入 token 数量呈二次方增长,导致资源消耗巨大,难以扩展到更长的序列或更大的模型。

来自主题: AI技术研报
7266 点击    2025-02-19 10:02
DeepSeek-AI最新:Code I/O:代码输入输出预测驱动的AI推理,smolagents实现

DeepSeek-AI最新:Code I/O:代码输入输出预测驱动的AI推理,smolagents实现

DeepSeek-AI最新:Code I/O:代码输入输出预测驱动的AI推理,smolagents实现

我们正见证一场静默的推理革命。传统AI训练如同盲人摸象,依赖碎片化文本拼凑认知图景,DeepSeek-AI团队的CODEI/O范式首次让机器真正"理解"了推理的本质——它将代码执行中蕴含的逻辑流,转化为可解释、可验证的思维链条,犹如为AI装上了解剖推理过程的显微镜。

来自主题: AI技术研报
8590 点击    2025-02-19 09:52
微软开放3.1T token高质量数据!通用/代码/数学/问答,全领域超越开源

微软开放3.1T token高质量数据!通用/代码/数学/问答,全领域超越开源

微软开放3.1T token高质量数据!通用/代码/数学/问答,全领域超越开源

RedStone是一个高效构建大规模指定领域数据的处理管道,通过优化数据处理流程,从Common Crawl中提取了RedStone-Web、RedStone-Code、RedStone-Math和RedStone-QA等数据集,在多项任务中超越了现有开源数据集,显著提升了模型性能。

来自主题: AI技术研报
5979 点击    2025-02-18 20:15
强化学习Scaling Law错了?无需蒸馏,数据量只要1/6,效果还更好

强化学习Scaling Law错了?无需蒸馏,数据量只要1/6,效果还更好

强化学习Scaling Law错了?无需蒸馏,数据量只要1/6,效果还更好

强化学习训练数据越多,模型推理能力就越强?新研究提出LIM方法,揭示提升推理能力的关键在于优化数据质量,而不是数据规模。该方法在小模型上优势尽显。从此,强化学习Scaling Law可能要被改写了!

来自主题: AI技术研报
5817 点击    2025-02-18 20:07
超过o1-mini、逼近o3-mini,DeepSeek-R1在新的贪吃蛇基准上拿下1801分

超过o1-mini、逼近o3-mini,DeepSeek-R1在新的贪吃蛇基准上拿下1801分

超过o1-mini、逼近o3-mini,DeepSeek-R1在新的贪吃蛇基准上拿下1801分

那么,DeepSeek-R1 的 ARC-AGI 成绩如何呢?根据 ARC Prize 发布的报告,R1 在 ARC-AGI-1 上的表现还赶不上 OpenAI 的 o1 系列模型,更别说 o3 系列了。但 DeepSeek-R1 也有自己的特有优势:成本低。

来自主题: AI技术研报
6083 点击    2025-02-17 17:47
LLM推理暴涨,数学逻辑开挂! DeepSeek等华人团队新大招,Ai2大牛狂点赞

LLM推理暴涨,数学逻辑开挂! DeepSeek等华人团队新大招,Ai2大牛狂点赞

LLM推理暴涨,数学逻辑开挂! DeepSeek等华人团队新大招,Ai2大牛狂点赞

DeepSeek团队最新力作一上线,就获得Ai2研究所大牛推荐,和DeepSeek铁粉们的热情研读!他们提出的CodeI/O全新方法,通过代码提取了LLM推理模式,在逻辑、数学等推理任务上得到显著改进。

来自主题: AI技术研报
7150 点击    2025-02-17 15:17
语言模型新范式:首个8B扩散大语言模型LLaDA发布,性能比肩LLaMA 3

语言模型新范式:首个8B扩散大语言模型LLaDA发布,性能比肩LLaMA 3

语言模型新范式:首个8B扩散大语言模型LLaDA发布,性能比肩LLaMA 3

近年来,大语言模型(LLMs)取得了突破性进展,展现了诸如上下文学习、指令遵循、推理和多轮对话等能力。目前,普遍的观点认为其成功依赖于自回归模型的「next token prediction」范式。

来自主题: AI技术研报
7161 点击    2025-02-17 14:37
比知识蒸馏好用,田渊栋等提出连续概念混合,再度革新Transformer预训练框架

比知识蒸馏好用,田渊栋等提出连续概念混合,再度革新Transformer预训练框架

比知识蒸馏好用,田渊栋等提出连续概念混合,再度革新Transformer预训练框架

自然语言 token 代表的意思通常是表层的(例如 the 或 a 这样的功能性词汇),需要模型进行大量训练才能获得高级推理和对概念的理解能力,

来自主题: AI技术研报
4662 点击    2025-02-16 13:12
全球AI算力报告出炉,LLM最爱A100!谷歌坐拥超100万H100等效算力

全球AI算力报告出炉,LLM最爱A100!谷歌坐拥超100万H100等效算力

全球AI算力报告出炉,LLM最爱A100!谷歌坐拥超100万H100等效算力

全球有多少AI算力?算力增长速度有多快?在这场AI「淘金热」中,都有哪些新「铲子」?AI初创企业Epoch AI发布了最新全球硬件估算报告。

来自主题: AI技术研报
7317 点击    2025-02-15 16:51
比英伟达工程师还熟练!DeepSeek R1+测试时Scaling自动优化GPU内核

比英伟达工程师还熟练!DeepSeek R1+测试时Scaling自动优化GPU内核

比英伟达工程师还熟练!DeepSeek R1+测试时Scaling自动优化GPU内核

英伟达巧妙地将DeepSeek-R1与推理时扩展相结合,构建了全新工作流程,自动优化生成GPU内核,取得了令人瞩目的成果。

来自主题: AI技术研报
6945 点击    2025-02-15 16:27