AI资讯新闻榜单内容搜索-token

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: token
GPT-5系统提示词被曝,足足15000 tokens!

GPT-5系统提示词被曝,足足15000 tokens!

GPT-5系统提示词被曝,足足15000 tokens!

疑似GPT-5的系统提示词,在GitHub上被曝光了!我们把这份系统提示词里的关键指令梳理成了一个 「用户可见效果 ↔ 内部要求」对照表,大家可以对比看一下

来自主题: AI资讯
8582 点击    2025-08-25 09:26
比GPT-5还准?AIME25飙到99.9%刷屏,开源模型首次!

比GPT-5还准?AIME25飙到99.9%刷屏,开源模型首次!

比GPT-5还准?AIME25飙到99.9%刷屏,开源模型首次!

DeepConf由Meta AI与加州大学圣地亚哥分校提出,核心思路是让大模型在推理过程中实时监控置信度,低置信度路径被动态淘汰,高置信度路径则加权投票,从而兼顾准确率与效率。在AIME 2025上,它首次让开源模型无需外部工具便实现99.9%正确率,同时削减85%生成token。

来自主题: AI技术研报
6872 点击    2025-08-23 16:12
清华校友出手,8B硬刚GPT-4o!单一模型无限工具调用,终结多智能体

清华校友出手,8B硬刚GPT-4o!单一模型无限工具调用,终结多智能体

清华校友出手,8B硬刚GPT-4o!单一模型无限工具调用,终结多智能体

大模型再强,也躲不过上下文限制的「蕉绿」!MIT等团队推出的一套组合拳——TIM和TIMRUN,轻松突破token天花板,让8b小模型也能实现大杀四方。

来自主题: AI资讯
6067 点击    2025-08-22 17:14
月烧35万元token、逼得Claude官方连夜限速!被全网吐槽的中国“榜一大哥”,已经靠 AI 年入千万了

月烧35万元token、逼得Claude官方连夜限速!被全网吐槽的中国“榜一大哥”,已经靠 AI 年入千万了

月烧35万元token、逼得Claude官方连夜限速!被全网吐槽的中国“榜一大哥”,已经靠 AI 年入千万了

众所周知,前不久 Anthropic 宣布对用户实行每周速率限制。其中,在解释原因时,Anthropic 提到“虽然 Pro 和 Max 套餐提供了充足的 Claude 访问权限,但一些高级用户却全天候不间断地运行 Claude,消耗的资源远远超出了正常使用量。一位用户在 200 美元的套餐中消耗了数万个模型使用量。”

来自主题: AI资讯
6883 点击    2025-08-20 17:36
dLLM的「Free Lunch」!浙大&蚂蚁利用中间结果显著提升扩散语言模型

dLLM的「Free Lunch」!浙大&蚂蚁利用中间结果显著提升扩散语言模型

dLLM的「Free Lunch」!浙大&蚂蚁利用中间结果显著提升扩散语言模型

近年来,扩散大语言模型(Diffusion Large Language Models, dLLMs)正迅速崭露头角,成为文本生成领域的一股新势力。与传统自回归(Autoregressive, AR)模型从左到右逐字生成不同,dLLM 依托迭代去噪的生成机制,不仅能够一次性生成多个 token,还能在对话、推理、创作等任务中展现出独特的优势。

来自主题: AI技术研报
6654 点击    2025-08-20 16:26
刚刚DeepSeek发布3.1版本,实测有进步,在编程等个别场景可硬刚GPT-5

刚刚DeepSeek发布3.1版本,实测有进步,在编程等个别场景可硬刚GPT-5

刚刚DeepSeek发布3.1版本,实测有进步,在编程等个别场景可硬刚GPT-5

没等到Deepseek R2,DeepSeek悄悄更新了V 3.1。官方群放出的消息就提了一点,上下文长度拓展至128K。128K也是GPT-4o这一代模型的处理Token的长度。因此一开始,鲸哥以为从V3升级到V 3.1,以为是不大的升级,鲸哥体验下来还有惊喜。

来自主题: AI资讯
8076 点击    2025-08-20 03:37
Meta没做的,英伟达做了!全新架构吞吐量狂飙6倍,20万亿Token训练

Meta没做的,英伟达做了!全新架构吞吐量狂飙6倍,20万亿Token训练

Meta没做的,英伟达做了!全新架构吞吐量狂飙6倍,20万亿Token训练

英伟达发布全新架构9B模型,以Mamba-Transformer混合架构实现推理吞吐量最高提升6倍,对标Qwen3-8B并在数学、代码、推理与长上下文任务中表现持平或更优。

来自主题: AI资讯
6439 点击    2025-08-19 11:35
开源扩散大模型首次跑赢自回归!上交大联手UCSD推出D2F,吞吐量达LLaMA3的2.5倍

开源扩散大模型首次跑赢自回归!上交大联手UCSD推出D2F,吞吐量达LLaMA3的2.5倍

开源扩散大模型首次跑赢自回归!上交大联手UCSD推出D2F,吞吐量达LLaMA3的2.5倍

在大语言模型(LLMs)领域,自回归(AR)范式长期占据主导地位,但其逐 token 生成也带来了固有的推理效率瓶颈。此前,谷歌的 Gemini Diffusion 和字节的 Seed Diffusion 以每秒千余 Tokens 的惊人吞吐量,向业界展现了扩散大语言模型(dLLMs)在推理速度上的巨大潜力。

来自主题: AI技术研报
6307 点击    2025-08-18 17:20
腾讯AI团队最新研究戳穿AI“智力”泡沫:百万上下文正在误导所有人

腾讯AI团队最新研究戳穿AI“智力”泡沫:百万上下文正在误导所有人

腾讯AI团队最新研究戳穿AI“智力”泡沫:百万上下文正在误导所有人

AI领域一度陷入“上下文窗口”的军备竞赛,从几千token扩展到数百万token。这相当于给了AI一个巨大的图书馆。但这些“百万上下文”的顶级模型,它究竟是真的“理解”了,还是只是一个更会“背书”的复读机?

来自主题: AI资讯
6251 点击    2025-08-16 15:09
华人团队终结Token危机:扩散模型数据潜力超自回归三倍

华人团队终结Token危机:扩散模型数据潜力超自回归三倍

华人团队终结Token危机:扩散模型数据潜力超自回归三倍

Token危机真的要解除了吗? 最新研究发现,在token数量受限的情况下,扩散语言模型的数据潜力可达自回归模型的三倍多。

来自主题: AI资讯
7088 点击    2025-08-14 10:40