AI资讯新闻榜单内容搜索-Context

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: Context
RAG不会过时,但你需要这10个上下文处理技巧|Context Engineering系列一

RAG不会过时,但你需要这10个上下文处理技巧|Context Engineering系列一

RAG不会过时,但你需要这10个上下文处理技巧|Context Engineering系列一

RAG效果不及预期,试试这10个上下文处理优化技巧。对大部分开发者来说,搭一个RAG或者agent不难,怎么把它优化成生产可用的状态最难。在这个过程中,检索效率、准确性、成本、响应速度,都是重点关注问题。

来自主题: AI技术研报
7573 点击    2025-11-29 10:03
RAG效果要提升,先搞定高质量Context Pruning

RAG效果要提升,先搞定高质量Context Pruning

RAG效果要提升,先搞定高质量Context Pruning

Context Pruning如何结合rerank,优化RAG上下文?

来自主题: AI技术研报
8507 点击    2025-11-28 10:05
AI Agent 工程化,本质是数据库系统设计

AI Agent 工程化,本质是数据库系统设计

AI Agent 工程化,本质是数据库系统设计

最近半年,我阅读了业界关于 AI Agent 的工程实践:Anthropic 的 Context Engineering 论文、Manus 的工程分享、Cline 的 Memory Bank 设计等。同时自己也一直在做跟 AI Agent 相关的项目,如:Jta[1](开源的翻译 Agent,基于 Agentic Workflow)。

来自主题: AI技术研报
8037 点击    2025-11-20 15:03
EMNLP2025 | 通研院揭秘MoE可解释性,提升Context忠实性!

EMNLP2025 | 通研院揭秘MoE可解释性,提升Context忠实性!

EMNLP2025 | 通研院揭秘MoE可解释性,提升Context忠实性!

在大模型研究领域,做混合专家模型(MoE)的团队很多,但专注机制可解释性(Mechanistic Interpretability)的却寥寥无几 —— 而将二者深度结合,从底层机制理解复杂推理过程的工作,更是凤毛麟角。

来自主题: AI技术研报
9152 点击    2025-11-17 09:25
Memory和RAG的区别在哪?用「上下文工程」做出个性化 AI(谷歌白皮书精读)

Memory和RAG的区别在哪?用「上下文工程」做出个性化 AI(谷歌白皮书精读)

Memory和RAG的区别在哪?用「上下文工程」做出个性化 AI(谷歌白皮书精读)

谷歌在第三天发布了《上下文工程:会话与记忆》(Context Engineering: Sessions & Memory) 白皮书。文中开篇指出,LLM模型本身是无状态的 (stateless)。如果要构建有状态的(stateful)和个性化的 AI,关键在于上下文工程。

来自主题: AI技术研报
6184 点击    2025-11-14 10:22
40页的上下文工程ebook「深度拆解」|weaviate

40页的上下文工程ebook「深度拆解」|weaviate

40页的上下文工程ebook「深度拆解」|weaviate

如果你也在做 RAG 或智能体应用,大概经历过这些瞬间:文档切得太碎,答案失去上下文;切得太大,又召回不准;加了更多提示词,效果可能更不稳定。

来自主题: AI技术研报
6500 点击    2025-11-06 09:37
Context Engineering 2.0:在未来,一个人的本质,就是其所有上下文的总和|上海交大

Context Engineering 2.0:在未来,一个人的本质,就是其所有上下文的总和|上海交大

Context Engineering 2.0:在未来,一个人的本质,就是其所有上下文的总和|上海交大

在几天前,上海交大发布了一篇名为 《上下文工程2.0:上下文工程的上下文》(Context Engineering 2.0: The Context of Context Engineering) 的重磅论文。

来自主题: AI技术研报
6048 点击    2025-11-05 09:57
死磕「文本智能」,多模态研究的下一个前沿

死磕「文本智能」,多模态研究的下一个前沿

死磕「文本智能」,多模态研究的下一个前沿

dots.ocr 支持多语言文档的解析,能够在单一模型中统一完成版面检测、文本识别、表格解析、公式提取等任务,并保持良好的阅读顺序。他们之所以在一个模型中完成这些任务,是因为他们相信这些任务之间可以相互促进,为彼此提供更多的 context,从而达到更高的性能上限。目前,该项目的 star 量已经超过了 5000。

来自主题: AI资讯
8322 点击    2025-10-25 10:41
字节开源了一个让人上头的 Context 项目

字节开源了一个让人上头的 Context 项目

字节开源了一个让人上头的 Context 项目

最近在开源社区闲逛,发现字节悄悄放出了一个叫 MineContext 的项目。和字节Viking团队的小伙伴聊天时,我了解到一个挺有意思的故事:MineContext 团队其实在今年四五月份就有了初步想法,甚至更早之前就在思考:如何围绕个人的完整记忆来做应用。

来自主题: AI资讯
8370 点击    2025-10-24 10:00