# 热门搜索 #
搜索
搜索: 上下文
「有效上下文」提升20倍!DeepMind发布ReadAgent框架

模仿人类阅读过程,先分段摘要再回忆,谷歌新框架ReadAgent在三个长文档阅读理解数据集上取得了更强的性能,有效上下文提升了3-20倍。

来自主题: AI技术研报
6715 点击    2024-04-06 14:48
OpenAI竞对用256轮对话「灌醉」大模型,Claude被骗造出炸弹!

就在刚刚,Anthropic发现了大模型的惊人漏洞。经过256轮对话后,Claude 2逐渐被「灌醉」,开始疯狂越狱,帮人类造出炸弹!谁能想到,它的超长上下文,反而成了软肋。

来自主题: AI技术研报
7821 点击    2024-04-03 15:46
多忽悠几次AI全招了!Anthropic警告:长上下文成越狱突破口,GPT羊驼Claude无一幸免

大模型厂商在上下文长度上卷的不可开交之际,一项最新研究泼来了一盆冷水——Claude背后厂商Anthropic发现,随着窗口长度的不断增加,大模型的“越狱”现象开始死灰复燃。无论是闭源的GPT-4和Claude 2,还是开源的Llama2和Mistral,都未能幸免。

来自主题: AI技术研报
6741 点击    2024-04-03 14:31
开源11天,马斯克再发Grok-1.5!128K代码击败GPT-4

【新智元导读】马斯克「搞笑」模型刚刚升级到Grok-1.5,推理性能暴涨,支持128k长上下文。最重要的是,Grok-1.5的数学和代码能力大幅提升。

来自主题: AI技术研报
7606 点击    2024-03-29 16:34
讨论下一个token预测时,我们可能正在走进陷阱

自香农在《通信的数学原理》一书中提出「下一个 token 预测任务」之后,这一概念逐渐成为现代语言模型的核心部分。最近,围绕下一个 token 预测的讨论日趋激烈。

来自主题: AI资讯
6035 点击    2024-03-25 17:05
32K上下文,Mistral 7B v0.2 基模型突然开源了

刚刚,Mistral AI 的模型又更新了。 这次开源一如既往地「突然」,是在一个叫做 Cerebral Valley 的黑客松活动上公布的。

来自主题: AI资讯
5647 点击    2024-03-24 21:39
AI大模型的长上下文,究竟意味着什么?

本文讨论了AI大模型的长上下文在生成式人工智能中的意义和影响。通过对Gemini 1.5和RAG技术的对比和分析,文章指出Gemini在处理长文档和长上下文方面表现出色,因此有人认为RAG技术已经过时。

来自主题: AI资讯
5530 点击    2024-03-20 09:02