AI资讯新闻榜单内容搜索-上下文

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 上下文
谷歌秀肌肉了:披露Gemini 3.0为啥过目不忘越用越好用,Titans的惊喜度+Miras框架

谷歌秀肌肉了:披露Gemini 3.0为啥过目不忘越用越好用,Titans的惊喜度+Miras框架

谷歌秀肌肉了:披露Gemini 3.0为啥过目不忘越用越好用,Titans的惊喜度+Miras框架

最近,Google Research 发布了一篇 Blog《Titans + MIRAS:帮助人工智能拥有长期记忆》。它们允许 AI 模型在运行过程中更新其核心内存,从而更快地工作并处理海量上下文。

来自主题: AI技术研报
9258 点击    2025-12-08 14:41
LLM强化学习不稳定之谜,被Qwen团队从「一阶近似」视角解开

LLM强化学习不稳定之谜,被Qwen团队从「一阶近似」视角解开

LLM强化学习不稳定之谜,被Qwen团队从「一阶近似」视角解开

如今,强化学习(RL)已成为提升大语言模型(LLM)复杂推理与解题能力的关键技术范式,而稳定的训练过程对于成功扩展 RL 至关重要。由于语言具有强烈的上下文属性,LLM 的 RL 通常依赖序列级奖励 —— 即根据完整生成序列给一个标量分数。

来自主题: AI技术研报
5301 点击    2025-12-08 10:27
谷歌新架构突破Transformer超长上下文瓶颈!Hinton灵魂拷问:后悔Open吗?

谷歌新架构突破Transformer超长上下文瓶颈!Hinton灵魂拷问:后悔Open吗?

谷歌新架构突破Transformer超长上下文瓶颈!Hinton灵魂拷问:后悔Open吗?

两项关于大模型新架构的研究一口气在NeurIPS 2025上发布,通过“测试时训练”机制,能在推理阶段将上下文窗口扩展至200万token。两项新成果分别是:Titans:兼具RNN速度和Transformer性能的全新架构;MIRAS:Titans背后的核心理论框架。

来自主题: AI技术研报
6871 点击    2025-12-06 11:10
全面战胜ReAct!斯坦福全新智能体推理框架,性能提升112.5%

全面战胜ReAct!斯坦福全新智能体推理框架,性能提升112.5%

全面战胜ReAct!斯坦福全新智能体推理框架,性能提升112.5%

斯坦福和MIT的研究团队推出了一种新的AI智能体推理框架ReCAP,在长上下文任务中全面超越了现有的主流框架ReAct,性能提升显著。ReCAP通过独特的递归树结构和三大机制,解决了大语言模型在复杂任务中常见的目标漂移、上下文断层和成本爆炸等问题。

来自主题: AI技术研报
9676 点击    2025-12-02 15:20
深入AI Agent内核: Google gemini-cli 源码深度解构

深入AI Agent内核: Google gemini-cli 源码深度解构

深入AI Agent内核: Google gemini-cli 源码深度解构

随着大语言模型与开发工具链的深度融合,命令行终端正被重塑为开发者的AI协作界面。本文以 Google gemini-cli 为范本,通过源码解构,系统性分析其 Agent 内核、ReAct 工作流、工具调用与上下文管理等核心模块的实现原理。为希望构建终端 Agent 的开发者,提供工程实现的系统化参考。

来自主题: AI技术研报
7743 点击    2025-12-01 16:15
RAG不会过时,但你需要这10个上下文处理技巧|Context Engineering系列一

RAG不会过时,但你需要这10个上下文处理技巧|Context Engineering系列一

RAG不会过时,但你需要这10个上下文处理技巧|Context Engineering系列一

RAG效果不及预期,试试这10个上下文处理优化技巧。对大部分开发者来说,搭一个RAG或者agent不难,怎么把它优化成生产可用的状态最难。在这个过程中,检索效率、准确性、成本、响应速度,都是重点关注问题。

来自主题: AI技术研报
7646 点击    2025-11-29 10:03
RAG效果要提升,先搞定高质量Context Pruning

RAG效果要提升,先搞定高质量Context Pruning

RAG效果要提升,先搞定高质量Context Pruning

Context Pruning如何结合rerank,优化RAG上下文?

来自主题: AI技术研报
8581 点击    2025-11-28 10:05
狙击Gemini 3!OpenAI发布GPT-5.1-Codex-Max

狙击Gemini 3!OpenAI发布GPT-5.1-Codex-Max

狙击Gemini 3!OpenAI发布GPT-5.1-Codex-Max

Gemini 3力压全场,OpenAI坐不住了。发布Codex新版本——GPT-5.1-Codex-Max,突破上下文窗口限制,实现跨越数百万token的长时间连续工作,最长超过24小时的那种。

来自主题: AI资讯
8590 点击    2025-11-20 20:29
NeurIPS 2025 | 上下文元学习实现不微调跨被试脑活动预测

NeurIPS 2025 | 上下文元学习实现不微调跨被试脑活动预测

NeurIPS 2025 | 上下文元学习实现不微调跨被试脑活动预测

人类高级视觉皮层在个体间存在显著的功能差异,而构建大脑编码模型(brain encoding models)—— 即能够从视觉刺激(如图像)预测人脑神经响应的计算模型 —— 是理解人类视觉系统如何表征世界的关键。传统视觉编码模型通常需要为每个新被试采集大量数据(数千张图像对应的脑活动),成本高昂且难以推广。

来自主题: AI技术研报
9872 点击    2025-11-19 15:21