AI资讯新闻榜单内容搜索-Token

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: Token
开源15T tokens!HuggingFace放出规模最大、质量最高预训练数据集

开源15T tokens!HuggingFace放出规模最大、质量最高预训练数据集

开源15T tokens!HuggingFace放出规模最大、质量最高预训练数据集

Meta最近开源的Llama 3模型再次证明了「数据」是提升性能的关键,但现状是,开源的大模型有一堆,可开源的大规模数据却没多少,而收集、清洗数据又是一项极其费时费力的工作,也导致了大模型预训练技术仍然掌握在少数高端机构的手中。

来自主题: AI技术研报
5134 点击    2024-05-05 19:51
热归热,Groq离取代英伟达GPU有多远?

热归热,Groq离取代英伟达GPU有多远?

热归热,Groq离取代英伟达GPU有多远?

2024 年 4 月 20 日,即 Meta 开源 Llama 3 的隔天,初创公司 Groq 宣布其 LPU 推理引擎已部署 Llama 3 的 8B 和 70B 版本,每秒可输出token输提升至800。

来自主题: AI技术研报
4923 点击    2024-05-02 18:03
LLM上下文窗口突破200万!无需架构变化+复杂微调,轻松扩展8倍

LLM上下文窗口突破200万!无需架构变化+复杂微调,轻松扩展8倍

LLM上下文窗口突破200万!无需架构变化+复杂微调,轻松扩展8倍

大型语言模型(LLM)往往会追求更长的「上下文窗口」,但由于微调成本高、长文本稀缺以及新token位置引入的灾难值(catastrophic values)等问题,目前模型的上下文窗口大多不超过128k个token

来自主题: AI技术研报
7711 点击    2024-04-29 20:31
Llama 3低比特量化性能下降显著!全面评估结果来了 | 港大&北航&ETH

Llama 3低比特量化性能下降显著!全面评估结果来了 | 港大&北航&ETH

Llama 3低比特量化性能下降显著!全面评估结果来了 | 港大&北航&ETH

大模型力大砖飞,让LLaMA3演绎出了新高度: 超15T Token数据上的超大规模预训练,既实现了令人印象深刻的性能提升,也因远超Chinchilla推荐量再次引爆开源社区讨论。

来自主题: AI技术研报
6816 点击    2024-04-28 15:03