AI资讯新闻榜单内容搜索-LLM

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: LLM
多轮对话推理速度提升46%,开源方案打破LLM多轮对话的长度限制​

多轮对话推理速度提升46%,开源方案打破LLM多轮对话的长度限制​

多轮对话推理速度提升46%,开源方案打破LLM多轮对话的长度限制​

在大型语言模型(LLM)的世界中,处理多轮对话一直是一个挑战。前不久麻省理工 Guangxuan Xiao 等人推出的 StreamingLLM,能够在不牺牲推理速度和生成效果的前提下,可实现多轮对话总共 400 万个 token 的流式输入,22.2 倍的推理速度提升。

来自主题: AI技术研报
7055 点击    2024-01-08 14:02
大模型无限流式输入推理飙升46%!国产开源加速「全家桶」,打破多轮对话长度限制

大模型无限流式输入推理飙升46%!国产开源加速「全家桶」,打破多轮对话长度限制

大模型无限流式输入推理飙升46%!国产开源加速「全家桶」,打破多轮对话长度限制

大模型推理再次跃升一个新台阶!最近,全新开源的国产SwiftInfer方案,不仅能让LLM处理无限流式输入,而且还将推理性能提升了46%。

来自主题: AI资讯
5280 点击    2024-01-08 13:42
LangChain - RAG: 做 RAG 的天选打工人,拿这几个指标找老板加薪!

LangChain - RAG: 做 RAG 的天选打工人,拿这几个指标找老板加薪!

LangChain - RAG: 做 RAG 的天选打工人,拿这几个指标找老板加薪!

做所有的工作之前,想好如何评估结果、制定好北极星指标至关重要!!! Ragas把 RAG 系统的评估指标拆分为三个维度如下,这可不是 Benz 的标...

来自主题: AI技术研报
8953 点击    2024-01-08 10:37
行业动态 | 2023年十大人工智能(LLM)必读论文

行业动态 | 2023年十大人工智能(LLM)必读论文

行业动态 | 2023年十大人工智能(LLM)必读论文

2023 年,是机器学习和人工智能发展最为迅速的一年,这里分享 10 篇最值得关注的论文。

来自主题: AI技术研报
9324 点击    2024-01-07 14:19
专补大模型短板的RAG有哪些新进展?这篇综述讲明白了

专补大模型短板的RAG有哪些新进展?这篇综述讲明白了

专补大模型短板的RAG有哪些新进展?这篇综述讲明白了

同济大学王昊奋研究员团队联合复旦大学熊赟教授团队发布检索增强生成(RAG)综述,从核心范式,关键技术到未来发展趋势对 RAG 进行了全面梳理。这份工作为研究人员绘制了一幅清晰的 RAG 技术发展蓝图,指出了未来的研究探索方向。

来自主题: AI资讯
6561 点击    2024-01-06 16:54
语言模型是如何感知时间的?「时间向量」了解一下

语言模型是如何感知时间的?「时间向量」了解一下

语言模型是如何感知时间的?「时间向量」了解一下

语言模型究竟是如何感知时间的?如何利用语言模型对时间的感知来更好地控制输出甚至了解我们的大脑?最近,来自华盛顿大学和艾伦人工智能研究所的一项研究提供了一些见解。

来自主题: AI资讯
3835 点击    2024-01-06 16:48
模型A:幸亏有你,我才不得0分,模型B:俺也一样

模型A:幸亏有你,我才不得0分,模型B:俺也一样

模型A:幸亏有你,我才不得0分,模型B:俺也一样

琳琅满目的乐高积木,通过一块又一块的叠加,可以创造出各种栩栩如生的人物、景观等,不同的乐高作品相互组合,又能为爱好者带来新的创意。

来自主题: AI技术研报
8890 点击    2024-01-06 16:37
专访 VideoPoet 作者:视频模型技术会收敛,LLM 将取代diffusion带来真正的视觉智能

专访 VideoPoet 作者:视频模型技术会收敛,LLM 将取代diffusion带来真正的视觉智能

专访 VideoPoet 作者:视频模型技术会收敛,LLM 将取代diffusion带来真正的视觉智能

在 AI 领域,近年来各个子领域都逐渐向 transformer 架构靠拢,只有文生图和文生视频一直以 diffusion + u-net 结构作为主流方向。diffusion 有更公开可用的开源模型,消耗的计算资源也更少。

来自主题: AI资讯
7564 点击    2024-01-06 12:27
当LLM学会左右互搏,基础模型或将迎来集体进化

当LLM学会左右互搏,基础模型或将迎来集体进化

当LLM学会左右互搏,基础模型或将迎来集体进化

进入现今的大模型 (LLM) 时代,又有研究者发现了左右互搏的精妙用法!近日,加利福尼亚大学洛杉矶分校的顾全全团队提出了一种新方法 SPIN(Self-Play Fine-Tuning),可不使用额外微调数据,仅靠自我博弈就能大幅提升 LLM 的能力。

来自主题: AI资讯
10379 点击    2024-01-06 12:17