AI资讯新闻榜单内容搜索-长上下文

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 长上下文
融资34亿!谷歌前TPU员工创业新型芯片,卡帕西也投了

融资34亿!谷歌前TPU员工创业新型芯片,卡帕西也投了

融资34亿!谷歌前TPU员工创业新型芯片,卡帕西也投了

在他们看来,真正的胜负手不在于单点技能拉满,而在于能否在同一颗芯片里,把“训练级吞吐”和“推理级低延迟”同时做好——尤其是在长上下文、Agent循环这些更复杂的真实工作流中。

来自主题: AI资讯
7376 点击    2026-02-25 14:49
Claude最强Sonnet模型4.6来了,百万token上下文

Claude最强Sonnet模型4.6来了,百万token上下文

Claude最强Sonnet模型4.6来了,百万token上下文

这次是 Anthropic,率先发布了他们称之为「我们目前能力最强的 Sonnet 模型」Claude Sonnet 4.6。Claude 称,新模型对编码、计算机使用、长上下文推理、智能体规划、知识工作和设计进行了全面升级。

来自主题: AI资讯
8192 点击    2026-02-18 22:42
Claude Sonnet 4.6空降!Office性能干翻旗舰模型,软件股哀嚎一片

Claude Sonnet 4.6空降!Office性能干翻旗舰模型,软件股哀嚎一片

Claude Sonnet 4.6空降!Office性能干翻旗舰模型,软件股哀嚎一片

今日凌晨,Anthropic推出史上最强Sonnet模型——Claude Sonnet 4.6,新模型在编程、计算机使用、长上下文推理、Agent规划、知识工作和设计工作上全面进化。

来自主题: AI资讯
8962 点击    2026-02-18 11:44
谷歌黑魔法,没人能看懂的Gemini 3 Flash

谷歌黑魔法,没人能看懂的Gemini 3 Flash

谷歌黑魔法,没人能看懂的Gemini 3 Flash

参数越小,智商越高?Gemini 3 Flash用百万级长上下文、白菜价成本,把自家大哥Pro按在地上摩擦。谷歌到底掏出了什么黑魔法,让整个大模型圈开始怀疑人生?

来自主题: AI技术研报
8538 点击    2025-12-23 15:22
Scaling Law没死!Gemini核心大佬爆料,谷歌已有颠覆性密钥

Scaling Law没死!Gemini核心大佬爆料,谷歌已有颠覆性密钥

Scaling Law没死!Gemini核心大佬爆料,谷歌已有颠覆性密钥

谷歌大模型将迎颠覆升级!Gemini负责人爆料:长上下文效率与长度双重突破在即,注意力机制迎来惊人发现。Scaling Law未死,正加速演变!

来自主题: AI资讯
7863 点击    2025-12-20 10:13
谷歌新架构突破Transformer超长上下文瓶颈!Hinton灵魂拷问:后悔Open吗?

谷歌新架构突破Transformer超长上下文瓶颈!Hinton灵魂拷问:后悔Open吗?

谷歌新架构突破Transformer超长上下文瓶颈!Hinton灵魂拷问:后悔Open吗?

两项关于大模型新架构的研究一口气在NeurIPS 2025上发布,通过“测试时训练”机制,能在推理阶段将上下文窗口扩展至200万token。两项新成果分别是:Titans:兼具RNN速度和Transformer性能的全新架构;MIRAS:Titans背后的核心理论框架。

来自主题: AI技术研报
7300 点击    2025-12-06 11:10
全面战胜ReAct!斯坦福全新智能体推理框架,性能提升112.5%

全面战胜ReAct!斯坦福全新智能体推理框架,性能提升112.5%

全面战胜ReAct!斯坦福全新智能体推理框架,性能提升112.5%

斯坦福和MIT的研究团队推出了一种新的AI智能体推理框架ReCAP,在长上下文任务中全面超越了现有的主流框架ReAct,性能提升显著。ReCAP通过独特的递归树结构和三大机制,解决了大语言模型在复杂任务中常见的目标漂移、上下文断层和成本爆炸等问题。

来自主题: AI技术研报
10000 点击    2025-12-02 15:20
用155万模拟视频给模型上课!GVE模型一次学会9种视频检索技能

用155万模拟视频给模型上课!GVE模型一次学会9种视频检索技能

用155万模拟视频给模型上课!GVE模型一次学会9种视频检索技能

当前视频检索研究正陷入一个闭环困境:以MSRVTT为代表的窄域基准,长期主导模型在粗粒度文本查询上的优化,导致训练数据有偏、模型能力受限,难以应对真实世界中细粒度、长上下文、多模态组合等复杂检索需求。

来自主题: AI技术研报
6065 点击    2025-11-14 09:41
终结Transformer统治!清华姚班校友出手,剑指AI「灾难性遗忘」

终结Transformer统治!清华姚班校友出手,剑指AI「灾难性遗忘」

终结Transformer统治!清华姚班校友出手,剑指AI「灾难性遗忘」

大模型「灾难性遗忘」问题或将迎来突破。近日,NeurIPS 2025收录了谷歌研究院的一篇论文,其中提出一种全新的「嵌套学习(Nested Learning)」架构。实验中基于该框架的「Hope」模型在语言建模与长上下文记忆任务中超越Transformer模型,这意味着大模型正迈向具备自我改进能力的新阶段。

来自主题: AI技术研报
7785 点击    2025-11-10 09:56