AI资讯新闻榜单内容搜索-token

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
AITNT-国内领先的一站式人工智能新闻资讯网站 搜索
搜索: token
训出GPT-5短缺20万亿token!OpenAI被曝计划建「数据市场」

训出GPT-5短缺20万亿token!OpenAI被曝计划建「数据市场」

训出GPT-5短缺20万亿token!OpenAI被曝计划建「数据市场」

全网高质量数据集告急!OpenAI、Anthropic等AI公司正在开拓新方法,训练下一代AI模型。

来自主题: AI技术研报
4068 点击    2024-04-09 09:55
百亿token免费用!国产平台一键拖拽定制大模型,多元算力极具性价比

百亿token免费用!国产平台一键拖拽定制大模型,多元算力极具性价比

百亿token免费用!国产平台一键拖拽定制大模型,多元算力极具性价比

【新智元导读】大模型落地并不缺场景,却往往因算力不够遇难题。这家国产平台从今日起,免费送百万token。开发者们不仅可以对20多种开源模型精调,还能用上极具性价比的多元算力。

来自主题: AI资讯
7962 点击    2024-04-01 11:18
大模型预测,下一个token何必是文字?

大模型预测,下一个token何必是文字?

大模型预测,下一个token何必是文字?

太快了太快了…

来自主题: AI资讯
6820 点击    2024-03-30 12:19
Mamba超强进化体一举颠覆Transformer!单张A100跑140K上下文

Mamba超强进化体一举颠覆Transformer!单张A100跑140K上下文

Mamba超强进化体一举颠覆Transformer!单张A100跑140K上下文

【新智元导读】52B的生产级Mamba大模型来了!这个超强变体Jamba刚刚打破世界纪录,它能正面硬刚Transformer,256K超长上下文窗口,吞吐量提升3倍,权重免费下载。

来自主题: AI技术研报
5714 点击    2024-03-29 16:43
详解Latte:去年底上线的全球首个开源文生视频DiT

详解Latte:去年底上线的全球首个开源文生视频DiT

详解Latte:去年底上线的全球首个开源文生视频DiT

随着 Sora 的成功发布,视频 DiT 模型得到了大量的关注和讨论。设计稳定的超大规模神经网络一直是视觉生成领域的研究重点。DiT [1] 的成功为图像生成的规模化提供了可能性。

来自主题: AI资讯
2917 点击    2024-03-27 17:56
讨论下一个token预测时,我们可能正在走进陷阱

讨论下一个token预测时,我们可能正在走进陷阱

讨论下一个token预测时,我们可能正在走进陷阱

自香农在《通信的数学原理》一书中提出「下一个 token 预测任务」之后,这一概念逐渐成为现代语言模型的核心部分。最近,围绕下一个 token 预测的讨论日趋激烈。

来自主题: AI资讯
6270 点击    2024-03-25 17:05
百万token上下文窗口也杀不死向量数据库?CPU笑了

百万token上下文窗口也杀不死向量数据库?CPU笑了

百万token上下文窗口也杀不死向量数据库?CPU笑了

“Claude 3、Gemini 1.5,是要把RAG(检索增强生成)给搞死了吗?”

来自主题: AI技术研报
2096 点击    2024-03-19 17:44
不依赖token,字节级模型来了!直接处理二进制数据

不依赖token,字节级模型来了!直接处理二进制数据

不依赖token,字节级模型来了!直接处理二进制数据

微软亚研院等发布bGPT,仍旧基于Transformer,但是模型预测的是下一个字节(byte)。

来自主题: AI技术研报
7283 点击    2024-03-11 18:04
清华NLP组发布InfLLM:无需额外训练,「1024K超长上下文」100%召回!

清华NLP组发布InfLLM:无需额外训练,「1024K超长上下文」100%召回!

清华NLP组发布InfLLM:无需额外训练,「1024K超长上下文」100%召回!

挖掘大模型固有的长文本理解能力,InfLLM在没有引入额外训练的情况下,利用一个外部记忆模块存储超长上下文信息,实现了上下文长度的扩展。

来自主题: AI技术研报
3822 点击    2024-03-11 17:31