AI资讯新闻榜单内容搜索-上下文

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 上下文
Z Tech|我们与开源顶流实验室一起聊了聊 Harness Design

Z Tech|我们与开源顶流实验室一起聊了聊 Harness Design

Z Tech|我们与开源顶流实验室一起聊了聊 Harness Design

过去一年,大模型的能力曲线几乎是指数上升的——推理更强、工具调用更稳、上下文窗口越撑越大。但一个越来越尖锐的问题也随之浮出水面:模型变强了,可承接它的那层东西在哪?

来自主题: AI资讯
8779 点击    2026-04-13 15:03
Harness 刚火,可能就要成为过去时了|Hao好聊论文

Harness 刚火,可能就要成为过去时了|Hao好聊论文

Harness 刚火,可能就要成为过去时了|Hao好聊论文

随着任务的复杂度提升,Agent(智能体)的上下文在无限膨胀。在无穷的历史对话、工具调用输出、中间步骤以及报错信息中,模型迷糊了,于是开始跳步、忽视、绕道。

来自主题: AI技术研报
7908 点击    2026-04-13 13:51
评审也不靠人,每天消耗10亿token!OpenAI核心工程师自曝极限经历:对代码细节没执念了!MCP早死了!软件依赖会消失,揭秘幽灵库7层架构

评审也不靠人,每天消耗10亿token!OpenAI核心工程师自曝极限经历:对代码细节没执念了!MCP早死了!软件依赖会消失,揭秘幽灵库7层架构

评审也不靠人,每天消耗10亿token!OpenAI核心工程师自曝极限经历:对代码细节没执念了!MCP早死了!软件依赖会消失,揭秘幽灵库7层架构

相信大家都能感觉到,进入2月以来,“上下文工程”、“Vibe Coding”的热度已经让位给了一个新名词:"harness engineering"。

来自主题: AI资讯
6576 点击    2026-04-13 09:38
大模型能“原地”改参数了!字节Seed&北大新论文:测试时推理无需加层重训练

大模型能“原地”改参数了!字节Seed&北大新论文:测试时推理无需加层重训练

大模型能“原地”改参数了!字节Seed&北大新论文:测试时推理无需加层重训练

字节Seed最新研究,让大模型能“原地改参数”了。既不用改模型结构,也不用重新训练,还跑得很快。具体是这么个情况。智能体时代嘛,大家都知道模型们面对的任务开始变得越来越复杂、上下文越来越长。

来自主题: AI技术研报
8322 点击    2026-04-11 10:25
视频生成不再「断片」:OneStory给模型装上「选择性记忆」,跨镜头讲故事人物场景始终如一丨CVPR'26

视频生成不再「断片」:OneStory给模型装上「选择性记忆」,跨镜头讲故事人物场景始终如一丨CVPR'26

视频生成不再「断片」:OneStory给模型装上「选择性记忆」,跨镜头讲故事人物场景始终如一丨CVPR'26

最近,来自Meta与University of Copenhagen的研究者提出了OneStory: Coherent Multi-Shot Video Generation with Adaptive Memory(收录于CVPR 2026)。这项工作聚焦于一个核心问题:如何在生成多镜头视频时,有效保留长程跨镜头上下文,从而实现更强的叙事一致性。

来自主题: AI技术研报
6667 点击    2026-04-10 15:36
15个模板复制粘贴,让同一个AI聪明十倍:上下文工程实战手册

15个模板复制粘贴,让同一个AI聪明十倍:上下文工程实战手册

15个模板复制粘贴,让同一个AI聪明十倍:上下文工程实战手册

Nav Toor 的上一篇上下文工程文章火了——上百万人阅读,上千人私信他同一个问题:"道理我都懂了,但我到底该打什么字?"

来自主题: AI技术研报
7765 点击    2026-04-10 08:37
Mac用户可以在oMLX中使用TurboQuant了,搭配Gemma-4-31B,谷歌全家桶实测很能打!

Mac用户可以在oMLX中使用TurboQuant了,搭配Gemma-4-31B,谷歌全家桶实测很能打!

Mac用户可以在oMLX中使用TurboQuant了,搭配Gemma-4-31B,谷歌全家桶实测很能打!

对本地部署玩家,尤其是Mac用户来说,长上下文推理最大的痛点往往不是“模型不够聪明”,而是稍微多用点上下文,统一内存就被撑爆了”,这一点在最近的Gemma-4 31B的部署中尤为明显,在同等上下文的情况,显存占用比Qwen3.5-27B高约一倍不止,直接劝退了不少人。但好消息是,谷歌近期提出的TurboQuant KV缓存量化算法,正是为了解决这个痛点而生。

来自主题: AI技术研报
7931 点击    2026-04-09 09:47
北大团队改造DeepSeek注意力,速度快四倍还不丢精度

北大团队改造DeepSeek注意力,速度快四倍还不丢精度

北大团队改造DeepSeek注意力,速度快四倍还不丢精度

就在大家都急头白脸地等待DeepSeek-V4的时候,冷不丁一篇新论文引起了网友们的注意—— 提出新稀疏注意力机制HISA(分层索引稀疏注意力),突破64K上下文的索引瓶颈,相比DeepSeek正在用的DSA(DeepSeek Sparse Attention)提速2-4倍。

来自主题: AI技术研报
7200 点击    2026-04-07 10:30
给 OpenClaw 做硬件没前途,但给上下文系统做,是值得的

给 OpenClaw 做硬件没前途,但给上下文系统做,是值得的

给 OpenClaw 做硬件没前途,但给上下文系统做,是值得的

一家叫泛灵人工智能的团队,出了一款主打「超级办公助理」的硬件产品。

来自主题: AI资讯
6141 点击    2026-04-03 10:49
Anthropic王炸Claude基准测试泄露,卡皮巴拉细节曝光!还在代码里下毒

Anthropic王炸Claude基准测试泄露,卡皮巴拉细节曝光!还在代码里下毒

Anthropic王炸Claude基准测试泄露,卡皮巴拉细节曝光!还在代码里下毒

刚刚,Anthropic神秘王炸Mythos的基准测试泄露了,多项跑分直接刷新纪录!另外,泄露源码中还曝光出卡皮巴拉的细节:代号capabara-v2-fast,支持1M上下文。

来自主题: AI资讯
6887 点击    2026-04-02 10:41