AI资讯新闻榜单内容搜索-token

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: token
Elephant走红:AI开始为“Token浪费”算细账

Elephant走红:AI开始为“Token浪费”算细账

Elephant走红:AI开始为“Token浪费”算细账

浪费的原因很具体,AI应用从“对话”转向“执行”,这些计算资源流向了较贵的大型旗舰模型,Agent在复杂多轮任务中,历史文件、对话会不断累积,大量无用、冗余、过期的信息会不断产生并且重复计算,Token消耗因此指数级增长。也就是说,企业和开发者在用最贵的车跑最短的路。

来自主题: AI资讯
6182 点击    2026-04-18 07:25
阿里首个世界模型:快乐…生蚝

阿里首个世界模型:快乐…生蚝

阿里首个世界模型:快乐…生蚝

就在刚刚,成立恰满一个月的阿里ATH(Alibaba Token Hub)事业群,发布全球首个主动式实时交互的世界模型产品。名也挺有趣的,叫HappyOyster(快乐生蚝)。HappyOyster搭载原生多模态架构,背后是支持多模态输入与音视频联合生成的流式生成世界模型,核心主打漫游(Wander)、导演(Direct)、创造(Create)、分享(Share)。

来自主题: AI资讯
7689 点击    2026-04-17 15:24
3.9 元让 OpenClaw 实现 Token 自由!

3.9 元让 OpenClaw 实现 Token 自由!

3.9 元让 OpenClaw 实现 Token 自由!

养虾已经成为我们团队的日常了,几乎人手都有一只🦞要养,不仅能实时抓取全网前沿 AI 资讯速递,还能干一些搬砖杂活。

来自主题: AI技术研报
10096 点击    2026-04-17 09:14
匿名模型“大象”搅局OpenRouter:100B参数冲到热榜第一,实测结果如何

匿名模型“大象”搅局OpenRouter:100B参数冲到热榜第一,实测结果如何

匿名模型“大象”搅局OpenRouter:100B参数冲到热榜第一,实测结果如何

这两天,一款名为Elephant(大象)的匿名模型,在OpenRouter上悄然亮相。上线不到48小时,这一模型已经冲到OpenRouter热榜(Trending)第一,目前调用量超过1850亿个token。

来自主题: AI资讯
7471 点击    2026-04-16 20:38
TokenDance 内测开启,同期发布百亿补贴计划!

TokenDance 内测开启,同期发布百亿补贴计划!

TokenDance 内测开启,同期发布百亿补贴计划!

我们发布了TokenDance 词元跳动,一站式大模型 API 调用平台。希望能够赋能更多观猹生态内的 AI 企业、OPC 开发者与 AI 爱好者,帮助 AI 时代的创造者们,省一些成本,多一些创造。

来自主题: AI资讯
6244 点击    2026-04-15 09:22
Claude 又又又又降智了,只有它自己不知道

Claude 又又又又降智了,只有它自己不知道

Claude 又又又又降智了,只有它自己不知道

已经记不清这是第几次,有网友爆出来 Claude 降智了,思考深度下降 67%,Opus 幻觉加深。关键是能力变弱和可靠性降低的同时,我们的 Token 使用还增加了。 网友们在社交媒体上抱怨,「过去

来自主题: AI资讯
7388 点击    2026-04-14 18:07
全世界消耗Token最多的人=250亿token

全世界消耗Token最多的人=250亿token

全世界消耗Token最多的人=250亿token

2025年之前,想要证明自己混得好,大概得腕上戴块百达翡丽,车库里停辆库里南。但到了AI时代,硬通货变了:看你一年到底烧了多少Token。一年烧掉250亿个Token,有位25岁的韩国小伙子,成了全世界最能烧的人。

来自主题: AI资讯
9367 点击    2026-04-13 21:47
评审也不靠人,每天消耗10亿token!OpenAI核心工程师自曝极限经历:对代码细节没执念了!MCP早死了!软件依赖会消失,揭秘幽灵库7层架构

评审也不靠人,每天消耗10亿token!OpenAI核心工程师自曝极限经历:对代码细节没执念了!MCP早死了!软件依赖会消失,揭秘幽灵库7层架构

评审也不靠人,每天消耗10亿token!OpenAI核心工程师自曝极限经历:对代码细节没执念了!MCP早死了!软件依赖会消失,揭秘幽灵库7层架构

相信大家都能感觉到,进入2月以来,“上下文工程”、“Vibe Coding”的热度已经让位给了一个新名词:"harness engineering"。

来自主题: AI资讯
6419 点击    2026-04-13 09:38
ICLR 2026|隐式思考模型LRT:「隐式思维链」推理,更快更强!

ICLR 2026|隐式思考模型LRT:「隐式思维链」推理,更快更强!

ICLR 2026|隐式思考模型LRT:「隐式思维链」推理,更快更强!

近日,哈尔滨工业大学(深圳)联合深圳河套学院、Independent Researcher提出了隐式思考模型 LRT(Latent Reasoning Tuning),通过一个轻量级的推理网络,将大模型冗长的「思维链」压缩为紧凑的隐式向量表征,一次前向计算即可完成推理,无需逐 token 生成数千字的中间推理过程。

来自主题: AI技术研报
9501 点击    2026-04-13 09:35