AI资讯新闻榜单内容搜索-token

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: token
用好视觉Attention局部性,清华、字节提出Token Reorder,无损实现5倍稀疏、4比特量化

用好视觉Attention局部性,清华、字节提出Token Reorder,无损实现5倍稀疏、4比特量化

用好视觉Attention局部性,清华、字节提出Token Reorder,无损实现5倍稀疏、4比特量化

近年来,随着视觉生成模型的发展,视觉生成任务的输入序列长度逐渐增长(高分辨率生成,视频多帧生成,可达到 10K-100K)。

来自主题: AI技术研报
5733 点击    2025-06-30 15:35
Cache Me If You Can:陈丹琦团队如何「抓住」关键缓存,解放LLM内存?

Cache Me If You Can:陈丹琦团队如何「抓住」关键缓存,解放LLM内存?

Cache Me If You Can:陈丹琦团队如何「抓住」关键缓存,解放LLM内存?

普林斯顿大学计算机科学系助理教授陈丹琦团队又有了新论文了。近期,诸如「长思维链」等技术的兴起,带来了需要模型生成数万个 token 的全新工作负载。

来自主题: AI技术研报
8158 点击    2025-06-25 10:51
NVIDIA Tensor Core 的演变:从 Volta 到 Blackwell

NVIDIA Tensor Core 的演变:从 Volta 到 Blackwell

NVIDIA Tensor Core 的演变:从 Volta 到 Blackwell

在我们去年 AI Scaling Laws article from late last year中,我们探讨了多层 AI 扩展定律如何持续推动 AI 行业向前发展,使得模型能力的增长速度超过了摩尔定律,并且单位 token 成本也相应地迅速降低。

来自主题: AI技术研报
5945 点击    2025-06-24 11:09
史上最强生物数据库震撼登场!近10万亿token专为AI而生,联合英伟达打造生物版GPT!

史上最强生物数据库震撼登场!近10万亿token专为AI而生,联合英伟达打造生物版GPT!

史上最强生物数据库震撼登场!近10万亿token专为AI而生,联合英伟达打造生物版GPT!

近日,Basecamp Research宣布推出生物序列数据库BaseData™,包含超过9.2万亿个Token的基因组数据以及98亿条经过严格筛选与校对的蛋白质序列,其中许多来自公司所发现的超过100万个新物种。

来自主题: AI资讯
7876 点击    2025-06-18 18:57
想知道你的LLM API被过度收费了吗?隐藏的Tokens终于可以被审计了

想知道你的LLM API被过度收费了吗?隐藏的Tokens终于可以被审计了

想知道你的LLM API被过度收费了吗?隐藏的Tokens终于可以被审计了

近年来,大型语言模型(LLM)在处理复杂任务方面取得了显著进展,尤其体现在多步推理、工具调用以及多智能体协作等高级应用中。这些能力的提升,往往依赖于模型内部一系列复杂的「思考」过程或 Agentic System 中的 Agent 间频繁信息交互。

来自主题: AI技术研报
6486 点击    2025-06-18 11:05
多智能体在「燃烧」Token!Anthropic公开发现的一切

多智能体在「燃烧」Token!Anthropic公开发现的一切

多智能体在「燃烧」Token!Anthropic公开发现的一切

研究多智能体必读指南。Anthropic 发布了他们如何使用多个 Claude AI 智能体构建多智能体研究系统的精彩解释。

来自主题: AI技术研报
6264 点击    2025-06-14 17:52
「Next-Token」范式改变!刚刚,强化学习预训练来了

「Next-Token」范式改变!刚刚,强化学习预训练来了

「Next-Token」范式改变!刚刚,强化学习预训练来了

谁说强化学习只能是蛋糕上的樱桃,说不定,它也可以是整个蛋糕呢?

来自主题: AI技术研报
5177 点击    2025-06-11 14:58
Qwen&清华团队颠覆常识:大模型强化学习仅用20%关键token,比用全部token训练还好

Qwen&清华团队颠覆常识:大模型强化学习仅用20%关键token,比用全部token训练还好

Qwen&清华团队颠覆常识:大模型强化学习仅用20%关键token,比用全部token训练还好

近期arxiv最热门论文,Qwen&清华LeapLab团队最新成果: 在强化学习训练大模型推理能力时,仅仅20%的高熵token就能撑起整个训练效果,甚至比用全部token训练还要好。

来自主题: AI技术研报
5915 点击    2025-06-06 11:08