AI资讯新闻榜单内容搜索-Token

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: Token
苹果让大模型学会偷懒:更快吐出第一个token,准确度还保住了

苹果让大模型学会偷懒:更快吐出第一个token,准确度还保住了

苹果让大模型学会偷懒:更快吐出第一个token,准确度还保住了

Llama 3.1 刚刚发布,你是否已经尝试了呢?就算你的个人计算机是最近的顶尖配置,运行其中最小的 8B 版本可能也依然会有明显延迟。为了提升模型的推理效率,研究者想出了多种多样的方法,但其中很多都会让模型牺牲一些准确度。

来自主题: AI技术研报
8235 点击    2024-08-02 16:07
【LLM开源模型】LLMs-Llama3.1-240723通关攻略笔记v1.0

【LLM开源模型】LLMs-Llama3.1-240723通关攻略笔记v1.0

【LLM开源模型】LLMs-Llama3.1-240723通关攻略笔记v1.0

不同类型的数据配比如何配置:先通过小规模实验确定最优配比,然后将其应用到大模型的训练中。 Token配比结论:通用知识50%;数学与逻辑25%;代码17%;多语言8%。

来自主题: AI技术研报
8267 点击    2024-08-02 11:53
上海交通大学温颖教授:打造“通才”Agent|Agent Insights

上海交通大学温颖教授:打造“通才”Agent|Agent Insights

上海交通大学温颖教授:打造“通才”Agent|Agent Insights

解决问题:语言智能体的动作通常由 Token(令牌,语言模型中表示单词/短语/汉字的最小符号单元)序列组成,直接将强化学习用于语言智能体进行策略优化的过程中,一般需要预定义可行动作集合,同时忽略了动作内 Token 细粒度信用分配问题,团队将 Agent 优化从动作层分解到 Token 层,为每个动作内 Token 提供更精细的监督,可在语言动作空间不受约束的环境中实现可控优化复杂度

来自主题: AI资讯
3220 点击    2024-07-29 17:50
ECCV 2024|是真看到了,还是以为自己看到了?多模态大模型对文本预训练知识的过度依赖该解决了

ECCV 2024|是真看到了,还是以为自己看到了?多模态大模型对文本预训练知识的过度依赖该解决了

ECCV 2024|是真看到了,还是以为自己看到了?多模态大模型对文本预训练知识的过度依赖该解决了

随着大型语言模型(LLMs)的进步,多模态大型语言模型(MLLMs)迅速发展。它们使用预训练的视觉编码器处理图像,并将图像与文本信息一同作为 Token 嵌入输入至 LLMs,从而扩展了模型处理图像输入的对话能力。这种能力的提升为自动驾驶和医疗助手等多种潜在应用领域带来了可能性。

来自主题: AI技术研报
8435 点击    2024-07-27 19:33
万亿token!史上最大多模态数据集诞生

万亿token!史上最大多模态数据集诞生

万亿token!史上最大多模态数据集诞生

开源多模态大模型或将开始腾飞。

来自主题: AI技术研报
6802 点击    2024-07-27 19:29
无限生成视频,还能规划决策,扩散强制整合下一token预测与全序列扩散

无限生成视频,还能规划决策,扩散强制整合下一token预测与全序列扩散

无限生成视频,还能规划决策,扩散强制整合下一token预测与全序列扩散

近日,MIT CSAIL 的一个研究团队(一作为 MIT 在读博士陈博远)成功地将全序列扩散模型与下一 token 模型的强大能力统合到了一起,提出了一种训练和采样范式:Diffusion Forcing(DF)。

来自主题: AI技术研报
4576 点击    2024-07-23 16:40