AI资讯新闻榜单内容搜索-长上下文

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 长上下文
MiniMax 技术闭门会分享:长上下文是 Agent 的 Game Changer

MiniMax 技术闭门会分享:长上下文是 Agent 的 Game Changer

MiniMax 技术闭门会分享:长上下文是 Agent 的 Game Changer

MiniMax 在 7 月 10 日面向全球举办了 M1 技术研讨会,邀请了来自香港科技大学、滑铁卢大学、Anthropic、Hugging Face、SGLang、vLLM、RL领域的研究者及业界嘉宾,就模型架构创新、RL训练、长上下文应用等领域进行了深入的探讨。

来自主题: AI资讯
6446 点击    2025-07-20 12:37
重塑记忆架构:LLM正在安装「操作系统」

重塑记忆架构:LLM正在安装「操作系统」

重塑记忆架构:LLM正在安装「操作系统」

超长上下文窗口的大模型也会经常「失忆」,「记忆」也是需要管理的。

来自主题: AI技术研报
7235 点击    2025-07-16 16:26
ICML 2025 Oral工作再升级!上海AI Lab联合复旦、港中文推出支持更长视频理解的最佳工具VideoRoPE++

ICML 2025 Oral工作再升级!上海AI Lab联合复旦、港中文推出支持更长视频理解的最佳工具VideoRoPE++

ICML 2025 Oral工作再升级!上海AI Lab联合复旦、港中文推出支持更长视频理解的最佳工具VideoRoPE++

虽然旋转位置编码(RoPE)及其变体因其长上下文处理能力而被广泛采用,但将一维 RoPE 扩展到具有复杂时空结构的视频领域仍然是一个悬而未决的挑战。

来自主题: AI技术研报
7563 点击    2025-07-04 10:44
打破长视频理解瓶颈:HoPE混合位置编码提升VLM长度泛化能力

打破长视频理解瓶颈:HoPE混合位置编码提升VLM长度泛化能力

打破长视频理解瓶颈:HoPE混合位置编码提升VLM长度泛化能力

如今的视觉语言模型 (VLM, Vision Language Models) 已经在视觉问答、图像描述等多模态任务上取得了卓越的表现。然而,它们在长视频理解和检索等长上下文任务中仍表现不佳。

来自主题: AI技术研报
6010 点击    2025-06-30 10:24
技术Blog-4 | 新一代InfLLM:可训练的稀疏注意力机制

技术Blog-4 | 新一代InfLLM:可训练的稀疏注意力机制

技术Blog-4 | 新一代InfLLM:可训练的稀疏注意力机制

本文深入剖析 MiniCPM4 采用的稀疏注意力结构 InfLLM v2。作为新一代基于 Transformer 架构的语言模型,MiniCPM4 在处理长序列时展现出令人瞩目的效率提升。传统Transformer的稠密注意力机制在面对长上下文时面临着计算开销迅速上升的趋势,这在实际应用中造成了难以逾越的性能瓶颈。

来自主题: AI技术研报
6242 点击    2025-06-16 15:24
AI真有希望考清北了!豆包1.6多模态推理发威,闯关数理化带图大题

AI真有希望考清北了!豆包1.6多模态推理发威,闯关数理化带图大题

AI真有希望考清北了!豆包1.6多模态推理发威,闯关数理化带图大题

豆包大模型1.6惊艳亮相,成为国内首款多模态SOTA模型,256k对话窗口,深度思考最长上下文。它不仅能看会想,还能动手操作GUI,国内最有潜力考清北。

来自主题: AI技术研报
6344 点击    2025-06-12 17:04
强化学习解决长上下文推理问题:通义推出QwenLong-L1-32B

强化学习解决长上下文推理问题:通义推出QwenLong-L1-32B

强化学习解决长上下文推理问题:通义推出QwenLong-L1-32B

上下文长度达 13 万 token,适用于多段文档综合分析、金融、法律、科研等复杂领域任务。

来自主题: AI技术研报
5898 点击    2025-05-28 09:42
OpenAI诈骗?GPT-4.1正式上线ChatGPT,网友实测却大呼失望

OpenAI诈骗?GPT-4.1正式上线ChatGPT,网友实测却大呼失望

OpenAI诈骗?GPT-4.1正式上线ChatGPT,网友实测却大呼失望

GPT-4.1,在ChatGPT中可用了!现在,它不仅在API中开放,Plus、Pro和Team用户都可以使用。网友们兴奋地展开实测后,纷纷吐槽:OpenAI这是诈骗吧,说好的一百万超长上下文呢?

来自主题: AI资讯
9041 点击    2025-05-15 12:08
400万token新SOTA!英伟达UIUC联手:兼顾长短上下文顶尖性能

400万token新SOTA!英伟达UIUC联手:兼顾长短上下文顶尖性能

400万token新SOTA!英伟达UIUC联手:兼顾长短上下文顶尖性能

来自英伟达和UIUC的华人团队提出一种高效训练方法,将LLM上下文长度从128K扩展至惊人的400万token SOTA纪录!基于Llama3.1-Instruct打造的UltraLong-8B模型,不仅在长上下文基准测试中表现卓越,还在标准任务中保持顶尖竞争力。

来自主题: AI技术研报
6817 点击    2025-05-01 13:54