AI资讯新闻榜单内容搜索-上下文

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
AITNT-国内领先的一站式人工智能新闻资讯网站 搜索
搜索: 上下文
58行代码把Llama 3扩展到100万上下文,任何微调版都适用

58行代码把Llama 3扩展到100万上下文,任何微调版都适用

58行代码把Llama 3扩展到100万上下文,任何微调版都适用

堂堂开源之王Llama 3,原版上下文窗口居然只有……8k,让到嘴边的一句“真香”又咽回去了。

来自主题: AI资讯
9364 点击    2024-05-06 20:51
LLM上下文窗口突破200万!无需架构变化+复杂微调,轻松扩展8倍

LLM上下文窗口突破200万!无需架构变化+复杂微调,轻松扩展8倍

LLM上下文窗口突破200万!无需架构变化+复杂微调,轻松扩展8倍

大型语言模型(LLM)往往会追求更长的「上下文窗口」,但由于微调成本高、长文本稀缺以及新token位置引入的灾难值(catastrophic values)等问题,目前模型的上下文窗口大多不超过128k个token

来自主题: AI技术研报
7470 点击    2024-04-29 20:31
谷歌:假如AI大模型支持无限长上下文,会如何?

谷歌:假如AI大模型支持无限长上下文,会如何?

谷歌:假如AI大模型支持无限长上下文,会如何?

为解决大模型(LLMs)在处理超长输入序列时遇到的内存限制问题,本文作者提出了一种新型架构:Infini-Transformer,它可以在有限内存条件下,让基于Transformer的大语言模型(LLMs)高效处理无限长的输入序列。实验结果表明:Infini-Transformer在长上下文语言建模任务上超越了基线模型,内存最高可节约114倍。

来自主题: AI资讯
8167 点击    2024-04-14 11:32
直接扩展到无限长,谷歌Infini-Transformer终结上下文长度之争

直接扩展到无限长,谷歌Infini-Transformer终结上下文长度之争

直接扩展到无限长,谷歌Infini-Transformer终结上下文长度之争

谷歌又放大招了,发布下一代 Transformer 模型 Infini-Transformer。

来自主题: AI技术研报
8757 点击    2024-04-13 16:44
「有效上下文」提升20倍!DeepMind发布ReadAgent框架

「有效上下文」提升20倍!DeepMind发布ReadAgent框架

「有效上下文」提升20倍!DeepMind发布ReadAgent框架

模仿人类阅读过程,先分段摘要再回忆,谷歌新框架ReadAgent在三个长文档阅读理解数据集上取得了更强的性能,有效上下文提升了3-20倍。

来自主题: AI技术研报
7111 点击    2024-04-06 14:48
长文本之罪:Claude团队新越狱技术,Llama 2到GPT-4无一幸免

长文本之罪:Claude团队新越狱技术,Llama 2到GPT-4无一幸免

长文本之罪:Claude团队新越狱技术,Llama 2到GPT-4无一幸免

Anthropic 发现一种新型越狱漏洞并给出了高效的缓解方案,可以将攻击成功率从 61% 降至 2%。

来自主题: AI技术研报
6837 点击    2024-04-03 17:16
OpenAI竞对用256轮对话「灌醉」大模型,Claude被骗造出炸弹!

OpenAI竞对用256轮对话「灌醉」大模型,Claude被骗造出炸弹!

OpenAI竞对用256轮对话「灌醉」大模型,Claude被骗造出炸弹!

就在刚刚,Anthropic发现了大模型的惊人漏洞。经过256轮对话后,Claude 2逐渐被「灌醉」,开始疯狂越狱,帮人类造出炸弹!谁能想到,它的超长上下文,反而成了软肋。

来自主题: AI技术研报
8253 点击    2024-04-03 15:46
多忽悠几次AI全招了!Anthropic警告:长上下文成越狱突破口,GPT羊驼Claude无一幸免

多忽悠几次AI全招了!Anthropic警告:长上下文成越狱突破口,GPT羊驼Claude无一幸免

多忽悠几次AI全招了!Anthropic警告:长上下文成越狱突破口,GPT羊驼Claude无一幸免

大模型厂商在上下文长度上卷的不可开交之际,一项最新研究泼来了一盆冷水——Claude背后厂商Anthropic发现,随着窗口长度的不断增加,大模型的“越狱”现象开始死灰复燃。无论是闭源的GPT-4和Claude 2,还是开源的Llama2和Mistral,都未能幸免。

来自主题: AI技术研报
7157 点击    2024-04-03 14:31