AI资讯新闻榜单内容搜索-AR

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: AR
OpenAI史上最快模型降临,每秒1000Token!代码从此「炸出来」

OpenAI史上最快模型降临,每秒1000Token!代码从此「炸出来」

OpenAI史上最快模型降临,每秒1000Token!代码从此「炸出来」

OpenAI深夜突袭,GPT-5.3-Codex-Spark正式炸场。核心卖点只有一个:快!每秒1000个token,让代码生成告别加载条。联手Cerebras怪兽级硬件,物理外挂直接拉满。这不再是简单的工具升级。而是一场关于速度的暴力美学。

来自主题: AI资讯
9498 点击    2026-02-14 18:38
今天,AI Agents 正式成为网络第一公民

今天,AI Agents 正式成为网络第一公民

今天,AI Agents 正式成为网络第一公民

Cloudflare 宣布推出 Markdown for Agents。只要在 Agent 的请求设置里头加上一句——Accept: text/markdown。网站就会自动返回为 Agent 识别优化的 Markdown 文件,而不是为人类准备的 HTML 文件。

来自主题: AI资讯
7273 点击    2026-02-14 10:37
开源:参考OpenClaw,我们给 Claude Code 加上了轻量化的永久透明记忆

开源:参考OpenClaw,我们给 Claude Code 加上了轻量化的永久透明记忆

开源:参考OpenClaw,我们给 Claude Code 加上了轻量化的永久透明记忆

但考虑到在代码领域,如何做好记忆与检索,相比其他场景又有所不同,因此,基于 memsearch CLI ,我们同时也为Claude Code 做了个永久记忆的 plugin——memsearch ccplugin(可适用所有AI coding软件)。

来自主题: AI技术研报
8389 点击    2026-02-14 10:11
消失的数据:一个空格如何诱发 AI Agent “删库” 惨案

消失的数据:一个空格如何诱发 AI Agent “删库” 惨案

消失的数据:一个空格如何诱发 AI Agent “删库” 惨案

该事故目前已得到谷歌官方技术团队的确认,官方承认属于 “Systemic path-parsing failure ”“Catastrophic impact”“Have seen before”,正在紧急硬编码修复上线中(自 2 月 6 日回复起,截止目前,暂未有修复完成的正式通知)

来自主题: AI资讯
8750 点击    2026-02-13 18:52
Loop-ViT:让AI学会「反复思考」,3.8M参数小模型追平人类平均水平

Loop-ViT:让AI学会「反复思考」,3.8M参数小模型追平人类平均水平

Loop-ViT:让AI学会「反复思考」,3.8M参数小模型追平人类平均水平

当我们解一道复杂的数学题或观察一幅抽象图案时,大脑往往需要反复思考、逐步推演。然而,当前主流的深度学习模型却走的是「一次通过」的路线——输入数据,经过固定层数的网络,直接输出答案。

来自主题: AI技术研报
9816 点击    2026-02-13 11:08
国产大模型杀疯了,MiniMax-M2.5即将开源!

国产大模型杀疯了,MiniMax-M2.5即将开源!

国产大模型杀疯了,MiniMax-M2.5即将开源!

这两天 AI 圈真的太热闹了,就在网传 DeepSeek 要更新支持 100 万 Token 上下文的新模型时,MiniMax 率先冲锋,更新了他们的新旗舰模型:MiniMax-M2.5。更有意思的是,国外网友这段时间对国内 AI 大模型的更新节奏格外关注,他们甚至把这种争先更新的现象称为:Happy Chinese new year!

来自主题: AI资讯
10507 点击    2026-02-12 18:07
ICLR 2026 oral | AI代码真能进生产环境?SwingArena:从「写对代码Commit」到「通过CI审查」

ICLR 2026 oral | AI代码真能进生产环境?SwingArena:从「写对代码Commit」到「通过CI审查」

ICLR 2026 oral | AI代码真能进生产环境?SwingArena:从「写对代码Commit」到「通过CI审查」

过去一年,大模型写代码的能力几乎以肉眼可见的速度提升。从简单脚本到完整功能模块,GPT、Claude、DeepSeek 等模型已经能够在几秒钟内生成看起来相当 “专业” 的代码。

来自主题: AI技术研报
7651 点击    2026-02-12 14:56
ICLR 2026 Oral | DPO「只看总分不看细节」?TI-DPO用Token重要性重塑大模型对齐

ICLR 2026 Oral | DPO「只看总分不看细节」?TI-DPO用Token重要性重塑大模型对齐

ICLR 2026 Oral | DPO「只看总分不看细节」?TI-DPO用Token重要性重塑大模型对齐

在当今的大模型后训练(Post-training)阶段,DPO(直接偏好优化) 凭借其无需训练独立 Reward Model 的优雅设计和高效性,成功取代 PPO 成为业界的 「版本之子」,被广泛应用于 Llama-3、Mistral 等顶流开源模型的对齐中。

来自主题: AI技术研报
7266 点击    2026-02-11 13:58
小众架构赢麻了!通过编辑功能 LLaDA2.1 让100B扩散模型飙出892 tokens/秒的速度!

小众架构赢麻了!通过编辑功能 LLaDA2.1 让100B扩散模型飙出892 tokens/秒的速度!

小众架构赢麻了!通过编辑功能 LLaDA2.1 让100B扩散模型飙出892 tokens/秒的速度!

谁能想到啊,在自回归模型(Autoregressive,AR)当道的现在,一个非主流架构的模型突然杀了回马枪——被长期视为学术玩具的扩散语言模型,直接在复杂编程任务中飙出了892 tokens/秒的速度!

来自主题: AI资讯
10458 点击    2026-02-11 10:47