AI资讯新闻榜单内容搜索-上下文

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 上下文
官宣,Milvus开源语义高亮模型:告别饱和检索,帮RAG、agent剪枝80%上下文

官宣,Milvus开源语义高亮模型:告别饱和检索,帮RAG、agent剪枝80%上下文

官宣,Milvus开源语义高亮模型:告别饱和检索,帮RAG、agent剪枝80%上下文

RAG与agent用到深水区,一定会遇到这个问题: 明明架构很完美,私有数据也做了接入,但项目上线三天,不但token账单爆了,模型输出结果也似乎总差点意思。

来自主题: AI技术研报
9246 点击    2026-01-15 09:19
让钉钉A1成为了我的记忆外挂,充分实行了我的上下文工程

让钉钉A1成为了我的记忆外挂,充分实行了我的上下文工程

让钉钉A1成为了我的记忆外挂,充分实行了我的上下文工程

家人们, 大概是从去年下半年上下文工程这个概念火了之后,我开始有意识的进行一些碎片化的记录。

来自主题: AI资讯
5504 点击    2026-01-14 10:04
看完 Manus、Cursor 分享后的最大收获:避免 Context 的过度工程化才是关键

看完 Manus、Cursor 分享后的最大收获:避免 Context 的过度工程化才是关键

看完 Manus、Cursor 分享后的最大收获:避免 Context 的过度工程化才是关键

最近,Cursor 也发表了一篇文章《Dynamic context discovery》,分享了他们是怎么做上下文管理的。结合 Manus、Cursor 这两家 Agent 领域头部团队的思路,我们整理了如何做好上下文工程的一些关键要点。

来自主题: AI资讯
7993 点击    2026-01-10 10:48
Transformer已死?DeepMind正在押注另一条AGI路线

Transformer已死?DeepMind正在押注另一条AGI路线

Transformer已死?DeepMind正在押注另一条AGI路线

借鉴人类联想记忆,嵌套学习让AI在运行中构建抽象结构,超越Transformer的局限。谷歌团队强调:优化器与架构互为上下文,协同进化才能实现真正持续学习。这篇论文或成经典,开启AI从被动训练到主动进化的大门。

来自主题: AI技术研报
9516 点击    2026-01-09 11:24
检索做大,生成做轻:CMU团队系统评测RAG的语料与模型权衡

检索做大,生成做轻:CMU团队系统评测RAG的语料与模型权衡

检索做大,生成做轻:CMU团队系统评测RAG的语料与模型权衡

在检索增强生成中,扩大生成模型规模往往能提升准确率,但也会显著抬高推理成本与部署门槛。CMU 团队在固定提示模板、上下文组织方式与证据预算,并保持检索与解码设置不变的前提下,系统比较了生成模型规模与检索语料规模的联合效应,发现扩充检索语料能够稳定增强 RAG,并在多项开放域问答基准上让小中型模型在更大语料下达到甚至超过更大模型在较小语料下的表现,同时在更高语料规模处呈现清晰的边际收益递减。

来自主题: AI技术研报
7602 点击    2026-01-06 09:30