AI资讯新闻榜单内容搜索-长文本

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 长文本
ICML 2025 | 清华、上海AI Lab等提出傅里叶位置编码,多项任务远超RoPE

ICML 2025 | 清华、上海AI Lab等提出傅里叶位置编码,多项任务远超RoPE

ICML 2025 | 清华、上海AI Lab等提出傅里叶位置编码,多项任务远超RoPE

长文本能力对语言模型(LM,Language Model)尤为重要,试想,如果 LM 可以处理无限长度的输入文本,我们可以预先把所有参考资料都喂给 LM,或许 LM 在应对人类的提问时就会变得无所不能。

来自主题: AI技术研报
7998 点击    2025-05-09 10:42
Transformer+Mamba黄金组合!长文推理性能飙升3倍,性能还更强

Transformer+Mamba黄金组合!长文推理性能飙升3倍,性能还更强

Transformer+Mamba黄金组合!长文推理性能飙升3倍,性能还更强

Nemotron-H模型混合了Transformer和Mamba架构,使长文本推理速度提升3倍,同时还能保持高性能,开源版本包括8B和56B尺寸。训练过程采用FP8训练和压缩技术,进一步提高了20%推理速度

来自主题: AI产品测评
6594 点击    2025-04-20 20:47
Cohere推出新一代多模态搜索模型Embed 4,在数据处理长文本建模和跨模态能力显著提升

Cohere推出新一代多模态搜索模型Embed 4,在数据处理长文本建模和跨模态能力显著提升

Cohere推出新一代多模态搜索模型Embed 4,在数据处理长文本建模和跨模态能力显著提升

2025年4月16日,Cohere 发布了其最新一代多模态搜索模型 Embed 4,在多模态数据处理、长文本建模和跨模态检索能力上实现了显著提升,进一步巩固了其在企业级 AI 搜索领域的领先地位。

来自主题: AI资讯
4252 点击    2025-04-18 10:16
北大团队提出LIFT:将长上下文知识注入模型参数,提升大模型长文本能力

北大团队提出LIFT:将长上下文知识注入模型参数,提升大模型长文本能力

北大团队提出LIFT:将长上下文知识注入模型参数,提升大模型长文本能力

长文本任务是当下大模型研究的重点之一。在实际场景和应用中,普遍存在大量长序列(文本、语音、视频等),有些甚至长达百万级 tokens。

来自主题: AI技术研报
7436 点击    2025-03-17 16:04
无需训练,100%完美检索!LLM练出「火眼金睛」,InfiniRetri超长文本一针见血

无需训练,100%完美检索!LLM练出「火眼金睛」,InfiniRetri超长文本一针见血

无需训练,100%完美检索!LLM练出「火眼金睛」,InfiniRetri超长文本一针见血

LLM自身有望在无限长token下检索信息!无需训练,在检索任务「大海捞针」(Needle-in-a-Haystack)测试中,新方法InfiniRetri让有效上下文token长度从32K扩展至1000+K,让7B模型比肩72B模型。

来自主题: AI技术研报
8417 点击    2025-03-16 13:28
长文本向量模型在4K Tokens 之外形同盲区?

长文本向量模型在4K Tokens 之外形同盲区?

长文本向量模型在4K Tokens 之外形同盲区?

2025 年 2 月发布的 NoLiMA 是一种大语言模型(LLM)长文本理解能力评估方法。不同于传统“大海捞针”(Needle-in-a-Haystack, NIAH)测试依赖关键词匹配的做法,它最大的特点是 通过精心设计问题和关键信息,迫使模型进行深层语义理解和推理,才能从长文本中找到答案。

来自主题: AI技术研报
3951 点击    2025-03-12 15:08
在长文本上比Flash Attention快10倍!清华等提出APB序列并行推理框架

在长文本上比Flash Attention快10倍!清华等提出APB序列并行推理框架

在长文本上比Flash Attention快10倍!清华等提出APB序列并行推理框架

在 ChatGPT 爆火两年多的时间里,大语言模型的上下文窗口长度基准线被拉升,以此为基础所构建的长 CoT 推理、多 Agent 协作等类型的高级应用也逐渐增多。

来自主题: AI技术研报
7181 点击    2025-03-12 14:53
AI21 Labs发布Jamba 1.6,打破长文本处理极限,官方称其是企业部署的最佳开源模型

AI21 Labs发布Jamba 1.6,打破长文本处理极限,官方称其是企业部署的最佳开源模型

AI21 Labs发布Jamba 1.6,打破长文本处理极限,官方称其是企业部署的最佳开源模型

AI21Labs 近日发布了其最新的 Jamba1.6系列大型语言模型,这款模型被称为当前市场上最强大、最高效的长文本处理模型。与传统的 Transformer 模型相比,Jamba 模型在处理长上下文时展现出了更高的速度和质量,其推理速度比同类模型快了2.5倍,标志着一种新的技术突破。

来自主题: AI资讯
8416 点击    2025-03-10 00:28