
用子模优化做文本选择、段落重排和上下文工程
用子模优化做文本选择、段落重排和上下文工程在上一篇关于子模优化与多样化查询的文章发表后,我们收到了来自圈内很多积极的反馈,希望我们能多聊聊子模性(submodularity)和子模优化,尤其是在信息检索和 Agentic Search 场景下的更多应用。
在上一篇关于子模优化与多样化查询的文章发表后,我们收到了来自圈内很多积极的反馈,希望我们能多聊聊子模性(submodularity)和子模优化,尤其是在信息检索和 Agentic Search 场景下的更多应用。
曾被 OpenAI 相中,开价 30 亿美元的 AI 编程初创公司 Windsurf,如今转身投奔了 Google。就在刚刚,Google 宣布将 Windsurf 部分高管及工程团队纳入其旗下的 DeepMind 团队,重点推进「代理式编码」(Agentic Coding)方向的研究。
在信息爆炸的时代,传统关键词搜索已难以满足复杂知识需求。最新研究提出Agentic Deep Research
大模型公司之外的玩家,怎么参与AGI?这家公司来打样了!一枚磁吸超薄「随身大脑」,录音转写翻译思考样样精通。别不信,这简直是我们见过的Agent最有用的玩法,无数海外用户已经夸爆了。
强化学习(RL)已经成为当今 LLM 不可或缺的技术之一。从大模型对齐到推理模型训练再到如今的智能体强化学习(Agentic RL),你几乎能在当今 AI 领域的每个领域看到强化学习的身影。
随着语言模型在强化学习和 agentic 领域的进步,agent 正在从通用领域快速渗透到垂直领域,科学和生物医药这类高价值领域尤其受到关注。
近年来,大型语言模型(LLM)在处理复杂任务方面取得了显著进展,尤其体现在多步推理、工具调用以及多智能体协作等高级应用中。这些能力的提升,往往依赖于模型内部一系列复杂的「思考」过程或 Agentic System 中的 Agent 间频繁信息交互。
我们常把LangGraph、RAG、memory、evals等工具比作乐高积木,经验丰富的人知道如何搭配使用,就能迅速解决问题
当前,Agentic RAG(Retrieval-Augmented Generation)正逐步成为大型语言模型访问外部知识的关键路径。但在真实实践中,搜索智能体的强化学习训练并未展现出预期的稳定优势。一方面,部分方法优化的目标与真实下游需求存在偏离,另一方面,搜索器与生成器间的耦合也影响了泛化与部署效率。
我一直认为,火山引擎是一家比较有气质的云计算企业——思维新颖,动作很快,且打法总是直来直去。