AI资讯新闻榜单内容搜索-token

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: token
100 万亿 Token 揭秘全球用户怎么用 AI:一半算力用在「不可描述」的地方

100 万亿 Token 揭秘全球用户怎么用 AI:一半算力用在「不可描述」的地方

100 万亿 Token 揭秘全球用户怎么用 AI:一半算力用在「不可描述」的地方

AI 领域迄今最大规模的用户行为实录,刚刚发布了。这是全球模型聚合平台 OpenRouter 联合硅谷顶级风投 a16z 发布的一份报告,基于全球 100 万亿次真实 API 调用、覆盖 300+款 AI 模型、60+家供应商、超过 50% 非美国用户 。

来自主题: AI技术研报
8353 点击    2025-12-08 22:18
谷歌新架构突破Transformer超长上下文瓶颈!Hinton灵魂拷问:后悔Open吗?

谷歌新架构突破Transformer超长上下文瓶颈!Hinton灵魂拷问:后悔Open吗?

谷歌新架构突破Transformer超长上下文瓶颈!Hinton灵魂拷问:后悔Open吗?

两项关于大模型新架构的研究一口气在NeurIPS 2025上发布,通过“测试时训练”机制,能在推理阶段将上下文窗口扩展至200万token。两项新成果分别是:Titans:兼具RNN速度和Transformer性能的全新架构;MIRAS:Titans背后的核心理论框架。

来自主题: AI技术研报
6852 点击    2025-12-06 11:10
基于文本AI的终结?Agent协作可直接「复制思维」,Token效率暴涨

基于文本AI的终结?Agent协作可直接「复制思维」,Token效率暴涨

基于文本AI的终结?Agent协作可直接「复制思维」,Token效率暴涨

一直以来,传统 MAS 依赖自然语言沟通,各个 LLM 之间用文本交流思路。这种方法虽然可解释,但冗长、低效、信息易丢失。LatentMAS 则让智能体直接交换内部的隐藏层表示与 KV-cache 工作记忆,做到了:

来自主题: AI技术研报
6935 点击    2025-12-06 11:08
人们用AI在做什么?答案藏在100万亿token背后

人们用AI在做什么?答案藏在100万亿token背后

人们用AI在做什么?答案藏在100万亿token背后

2025 年 12 月,硅谷风险投资机构 Andreessen Horowitz(简称 a16z)与 AI 推理服务平台 OpenRouter 联合发布了一份名为《State of AI》的研究报告。这份报告基于 OpenRouter 平台上超过 100 万亿 token 的真实用户交互数据,试图呈现过去一年间大语言模型在实际应用中的真实状态。

来自主题: AI技术研报
8068 点击    2025-12-06 10:22
Anthropic官宣PTC突破,中国开发者一年前就实现了

Anthropic官宣PTC突破,中国开发者一年前就实现了

Anthropic官宣PTC突破,中国开发者一年前就实现了

Anthropic发布了Programmatic Tool Calling(PTC)特性,让Claude通过代码编排工具执行,降低token消耗、减少延迟并提升准确性。

来自主题: AI技术研报
7562 点击    2025-12-05 14:48
DeepSeek-V3.2巨「吃」Token,竟然是被GRPO背刺了

DeepSeek-V3.2巨「吃」Token,竟然是被GRPO背刺了

DeepSeek-V3.2巨「吃」Token,竟然是被GRPO背刺了

DeepSeek 一发布模型,总会引起业内的高度关注与广泛讨论,但也不可避免的暴露出一些小 Bug。

来自主题: AI技术研报
5732 点击    2025-12-05 10:05
DeepSeek-V3.2被找出bug了:疯狂消耗token,答案还可能出错,研究人员:GRPO老问题没解决

DeepSeek-V3.2被找出bug了:疯狂消耗token,答案还可能出错,研究人员:GRPO老问题没解决

DeepSeek-V3.2被找出bug了:疯狂消耗token,答案还可能出错,研究人员:GRPO老问题没解决

DeepSeek-V3.2很强很火爆,但随着讨论的深入,还是有bug被发现了。 并且是个老问题:浪费token。不少网友都提到,DeepSeek-V3.2的长思考增强版Speciale,确确实实以开源之姿又给闭源TOP们上了压力,但问题也很明显:

来自主题: AI资讯
7591 点击    2025-12-04 09:49
Claude Opus 4.5 的灵魂文档被人逆向提取!Anthropic 负责人承认属实

Claude Opus 4.5 的灵魂文档被人逆向提取!Anthropic 负责人承认属实

Claude Opus 4.5 的灵魂文档被人逆向提取!Anthropic 负责人承认属实

家人们,大瓜! 国外有位叫 Richard Weiss 的开发者花了 70 美元,把 Claude 4.5 Opus 给——审!讯!了!而且审出了 Claude 的人生观、世界观、价值观,足足 1.4 万 token。

来自主题: AI资讯
7537 点击    2025-12-03 20:00
你对ChatGPT越粗鲁,它赚得越多!最新研究揭秘:一条不礼貌提示语会多输出14个token,企业用户每天或多花数十万美元

你对ChatGPT越粗鲁,它赚得越多!最新研究揭秘:一条不礼貌提示语会多输出14个token,企业用户每天或多花数十万美元

你对ChatGPT越粗鲁,它赚得越多!最新研究揭秘:一条不礼貌提示语会多输出14个token,企业用户每天或多花数十万美元

一般人和 ChatGPT 聊天时,往往不会在意要不要讲究礼貌。但来自爱荷华大学的一项最新研究显示:即便回答内容几乎相同,对 ChatGPT 粗鲁无礼也会让你花费更高的输出成本。

来自主题: AI技术研报
6726 点击    2025-12-01 14:29
NeurIPS 2025 | DePass:通过单次前向传播分解实现统一的特征归因

NeurIPS 2025 | DePass:通过单次前向传播分解实现统一的特征归因

NeurIPS 2025 | DePass:通过单次前向传播分解实现统一的特征归因

随着大型语言模型在各类任务中展现出卓越的生成与推理能力,如何将模型输出精确地追溯到其内部计算过程,已成为 AI 可解释性研究的重要方向。然而,现有方法往往计算代价高昂、难以揭示中间层的信息流动;同时,不同层面的归因(如 token、模型组件或表示子空间)通常依赖各自独立的特定方法,缺乏统一且高效的分析框架。

来自主题: AI技术研报
5475 点击    2025-12-01 13:49