AI资讯新闻榜单内容搜索-token

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: token
你每月烧掉的 Token 费用,至少 20% 都是冤枉钱

你每月烧掉的 Token 费用,至少 20% 都是冤枉钱

你每月烧掉的 Token 费用,至少 20% 都是冤枉钱

Hi,早上好。 我是洛小山,和你聊聊 AI 应用的降本增效。

来自主题: AI技术研报
7111 点击    2025-12-01 11:36
NeurIPS 2025 Oral | 1个Token零成本,REG让Diffusion训练收敛快20倍!

NeurIPS 2025 Oral | 1个Token零成本,REG让Diffusion训练收敛快20倍!

NeurIPS 2025 Oral | 1个Token零成本,REG让Diffusion训练收敛快20倍!

REG 是一种简单而有效的方法,仅通过引入一个 class token 便能大幅加速生成模型的训练收敛。其将基础视觉模型(如 DINOv2)的 class token 与 latent 在空间维度拼接后共同加噪训练,从而显著提升 Diffusion 的收敛速度与性能上限。在 ImageNet 256×256 上,

来自主题: AI技术研报
6538 点击    2025-11-29 13:46
狙击Gemini 3!OpenAI发布GPT-5.1-Codex-Max

狙击Gemini 3!OpenAI发布GPT-5.1-Codex-Max

狙击Gemini 3!OpenAI发布GPT-5.1-Codex-Max

Gemini 3力压全场,OpenAI坐不住了。发布Codex新版本——GPT-5.1-Codex-Max,突破上下文窗口限制,实现跨越数百万token的长时间连续工作,最长超过24小时的那种。

来自主题: AI资讯
8582 点击    2025-11-20 20:29
永别了,Tokenizer!何恺明师徒新作,颠覆AI生图技术

永别了,Tokenizer!何恺明师徒新作,颠覆AI生图技术

永别了,Tokenizer!何恺明师徒新作,颠覆AI生图技术

扩散模型「去噪」,是不是反而忘了真正去噪?何恺明携弟子出手,回归本源!

来自主题: AI技术研报
9432 点击    2025-11-20 15:26
RAE+VAE? 预训练表征助力扩散模型Tokenizer,加速像素压缩到语义提取

RAE+VAE? 预训练表征助力扩散模型Tokenizer,加速像素压缩到语义提取

RAE+VAE? 预训练表征助力扩散模型Tokenizer,加速像素压缩到语义提取

近期,RAE(Diffusion Transformers with Representation Autoencoders)提出以「 冻结的预训练视觉表征」直接作为潜空间,以显著提升扩散模型的生成性能。

来自主题: AI技术研报
10373 点击    2025-11-14 10:21
微信、清华连续自回归模型CALM,新范式实现从「离散词元」到「连续向量」转变

微信、清华连续自回归模型CALM,新范式实现从「离散词元」到「连续向量」转变

微信、清华连续自回归模型CALM,新范式实现从「离散词元」到「连续向量」转变

众所周知,大型语言模型(LLM)的根本运作方式是预测下一个 token(词元),能够保证生成的连贯性和逻辑性,但这既是 LLM 强大能力的「灵魂」所在,也是其枷锁,将导致高昂的计算成本和响应延迟。 可

来自主题: AI技术研报
7299 点击    2025-11-09 10:21
两周复刻DeepSeek-OCR!两人小团队还原低token高压缩核心,换完解码器更实用

两周复刻DeepSeek-OCR!两人小团队还原低token高压缩核心,换完解码器更实用

两周复刻DeepSeek-OCR!两人小团队还原低token高压缩核心,换完解码器更实用

两人小团队,仅用两周就复刻了之前被硅谷夸疯的DeepSeek-OCR?? 复刻版名叫DeepOCR,还原了原版低token高压缩的核心优势,还在关键任务上追上了原版的表现。完全开源,而且无需依赖大规模的算力集群,在两张H200上就能完成训练。

来自主题: AI资讯
8064 点击    2025-11-07 15:22
NeurIPS 2025 Spotlight | 选择性知识蒸馏精准过滤:推测解码加速器AdaSPEC来了

NeurIPS 2025 Spotlight | 选择性知识蒸馏精准过滤:推测解码加速器AdaSPEC来了

NeurIPS 2025 Spotlight | 选择性知识蒸馏精准过滤:推测解码加速器AdaSPEC来了

目前,最先进的对齐方法是使用知识蒸馏(Knowledge Distillation, KD)在所有 token 上最小化 KL 散度。然而,最小化全局 KL 散度并不意味着 token 的接受率最大化。由于小模型容量受限,草稿模型往往难以完整吸收目标模型的知识,导致直接使用蒸馏方法的性能提升受限。在极限场景下,草稿模型和目标模型的巨大尺寸差异甚至可能导致训练不收敛。

来自主题: AI技术研报
7950 点击    2025-11-07 14:57