AI资讯新闻榜单内容搜索-模型推理

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 模型推理
GPT-4可能也在用的推测解码是什么?一文综述前世今生和应用情况

GPT-4可能也在用的推测解码是什么?一文综述前世今生和应用情况

GPT-4可能也在用的推测解码是什么?一文综述前世今生和应用情况

推测解码(Speculative Decoding)是谷歌等机构在 2022 年发现的大模型推理加速方法。它可以在不损失生成效果前提下,获得 3 倍以上的加速比。GPT-4 泄密报告也提到 OpenAI 线上模型推理使用了它。

来自主题: AI技术研报
7266 点击    2024-02-20 17:22
GPT-4推理能力暴涨32%,谷歌新型思维链效果超CoT,计算成本可降至1/40

GPT-4推理能力暴涨32%,谷歌新型思维链效果超CoT,计算成本可降至1/40

GPT-4推理能力暴涨32%,谷歌新型思维链效果超CoT,计算成本可降至1/40

谷歌&南加大推出最新研究“自我发现”(Self-Discover),重新定义了大模型推理范式。与已成行业标准的思维链(CoT)相比,新方法不仅让模型在面对复杂任务时表现更佳,还把同等效果下的推理成本压缩至1/40。

来自主题: AI技术研报
3824 点击    2024-02-08 19:44
大模型推理速度飙升3.6倍,「美杜莎」论文来了,贾扬清:最优雅加速推理方案之一

大模型推理速度飙升3.6倍,「美杜莎」论文来了,贾扬清:最优雅加速推理方案之一

大模型推理速度飙升3.6倍,「美杜莎」论文来了,贾扬清:最优雅加速推理方案之一

去年,在加速大语言模型推理层面,我们迎来了一个比推测解码更高效的解决方案 —— 普林斯顿、UIUC 等机构提出的 Medusa。如今,关于 Medusa 终于有了完整技术论文,还提供了新的版本。

来自主题: AI技术研报
4124 点击    2024-01-24 14:06
蚂蚁集团开源新算法,可助大模型推理提速2-6倍

蚂蚁集团开源新算法,可助大模型推理提速2-6倍

蚂蚁集团开源新算法,可助大模型推理提速2-6倍

该算法现已在GitHub上开源,相关论文公布在ARXIV。近日,蚂蚁集团开源了一套新算法,可帮助大模型在推理时,提速2至6倍,引起业内关注。

来自主题: AI资讯
7376 点击    2024-01-17 14:08
大模型无限流式输入推理飙升46%!国产开源加速「全家桶」,打破多轮对话长度限制

大模型无限流式输入推理飙升46%!国产开源加速「全家桶」,打破多轮对话长度限制

大模型无限流式输入推理飙升46%!国产开源加速「全家桶」,打破多轮对话长度限制

大模型推理再次跃升一个新台阶!最近,全新开源的国产SwiftInfer方案,不仅能让LLM处理无限流式输入,而且还将推理性能提升了46%。

来自主题: AI资讯
4107 点击    2024-01-08 13:42
一文说尽「大模型推理」!12家高校机构联合发布150页报告,综述750篇论文

一文说尽「大模型推理」!12家高校机构联合发布150页报告,综述750篇论文

一文说尽「大模型推理」!12家高校机构联合发布150页报告,综述750篇论文

全面综述近750篇「基础模型推理」论文,聚焦于各种推理任务、方法论和基准测试的最新进展,详细阐述大模型在各种推理任务上的现状、技术局限性和未来可能性。

来自主题: AI资讯
2688 点击    2023-12-22 15:34
大模型推理效率无损提升3倍,滑铁卢大学、北京大学等机构发布EAGLE

大模型推理效率无损提升3倍,滑铁卢大学、北京大学等机构发布EAGLE

大模型推理效率无损提升3倍,滑铁卢大学、北京大学等机构发布EAGLE

大语言模型(LLM)被越来越多应用于各种领域。然而,它们的文本生成过程既昂贵又缓慢。这种低效率归因于自回归解码的运算规则:每个词(token)的生成都需要进行一次前向传播,需要访问数十亿至数千亿参数的 LLM。这导致传统自回归解码的速度较慢。

来自主题: AI资讯
5538 点击    2023-12-15 11:37