AI资讯新闻榜单内容搜索-大模型推理

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 大模型推理
AAAI 2025 | 大模型推理加速新范式:加速比高达3.51倍、成本降至1/3

AAAI 2025 | 大模型推理加速新范式:加速比高达3.51倍、成本降至1/3

AAAI 2025 | 大模型推理加速新范式:加速比高达3.51倍、成本降至1/3

Falcon 方法是一种增强半自回归投机解码框架,旨在增强 draft model 的并行性和输出质量,以有效提升大模型的推理速度。Falcon 可以实现约 2.91-3.51 倍的加速比,在多种数据集上获得了很好的结果,并已应用到翼支付多个实际业务中。

来自主题: AI技术研报
6016 点击    2025-01-08 14:38
Deepmind 重磅开源:消除幻觉,让 LLMs 学会规则库和多步推理

Deepmind 重磅开源:消除幻觉,让 LLMs 学会规则库和多步推理

Deepmind 重磅开源:消除幻觉,让 LLMs 学会规则库和多步推理

大模型的的发布固然令人欣喜,但是各类测评也是忙坏了众多 AI 工作者。大模型推理的幻觉问题向来是 AI 测评的重灾区,诸如 9.9>9.11 的经典幻觉问题,各大厂家恨不得直接把问题用 if-else 写进来。

来自主题: AI技术研报
7158 点击    2024-12-30 10:39
大模型压缩KV缓存新突破,中科大提出自适应预算分配,工业界已落地vLLM框架

大模型压缩KV缓存新突破,中科大提出自适应预算分配,工业界已落地vLLM框架

大模型压缩KV缓存新突破,中科大提出自适应预算分配,工业界已落地vLLM框架

改进KV缓存压缩,大模型推理显存瓶颈迎来新突破—— 中科大研究团队提出Ada-KV,通过自适应预算分配算法来优化KV缓存的驱逐过程,以提高推理效率。

来自主题: AI技术研报
3323 点击    2024-11-02 19:10
KV Cache:图解大模型推理加速方法

KV Cache:图解大模型推理加速方法

KV Cache:图解大模型推理加速方法

KV Cache 是大模型推理性能优化的一个常用技术,该技术可以在不影响任何计算精度的前提下,通过空间换时间的思想,提高推理性能。

来自主题: AI资讯
7092 点击    2024-09-03 10:46
首个视频思维链推理框架Video-of-Thought来了:像人一样从感知到认知全面推理视频

首个视频思维链推理框架Video-of-Thought来了:像人一样从感知到认知全面推理视频

首个视频思维链推理框架Video-of-Thought来了:像人一样从感知到认知全面推理视频

最近,新加坡国立大学联合南洋理工大学和哈工深的研究人员共同提出了一个全新的视频推理框架,这也是首次大模型推理社区提出的面向视频的思维链框架(Video-of-Thought, VoT)。视频思维链VoT让视频多模态大语言模型在复杂视频的理解和推理性能上大幅提升。该工作已被ICML 2024录用为Oral paper。

来自主题: AI技术研报
9834 点击    2024-07-12 17:54