AI资讯新闻榜单内容搜索-长文本

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 长文本
NeurIPS 2024 | Transformer长度外推,全新位置编码DAPE大幅提升模型性能

NeurIPS 2024 | Transformer长度外推,全新位置编码DAPE大幅提升模型性能

NeurIPS 2024 | Transformer长度外推,全新位置编码DAPE大幅提升模型性能

在当今的人工智能领域,Transformer 模型已成为解决诸多自然语言处理任务的核心。然而,Transformer 模型在处理长文本时常常遇到性能瓶颈。传统的位置编码方法,如绝对位置编码(APE)和相对位置编码(RPE),虽然在许多任务中表现良好,但其固定性限制了其在处理超长文本时的适应性和灵活性。

来自主题: AI技术研报
6519 点击    2024-10-12 14:29
4B小模型掀翻大模型牌桌!性能超GPT-3.5,无限长文本性能超Kimi...

4B小模型掀翻大模型牌桌!性能超GPT-3.5,无限长文本性能超Kimi...

4B小模型掀翻大模型牌桌!性能超GPT-3.5,无限长文本性能超Kimi...

你敢相信 4B 参数小模型,性能却超越千亿量级的 GPT-3.5 !OpenAI、谷歌、微软、苹果等一众海内外巨头还没做到的事,被一家中国大模型公司抢先了!

来自主题: AI资讯
3395 点击    2024-09-06 15:20
智谱,闷声不响发了个「100w 长文本模型」

智谱,闷声不响发了个「100w 长文本模型」

智谱,闷声不响发了个「100w 长文本模型」

最近各家模型发的都挺勤,一会一个 SOTA,一会一个遥遥领先。

来自主题: AI资讯
5645 点击    2024-08-15 10:48
大模型长文本阅读能力如何评估?

大模型长文本阅读能力如何评估?

大模型长文本阅读能力如何评估?

长文本处理能力对LLM的重要性是显而易见的。在2023年初,即便是当时最先进的GPT-3.5,其上下文长度也仅限于2k,然而今日,128k的上下文长度已经成为衡量模型技术先进性的重要标志之一。那你知道LLMs的长文本阅读能力如何评估吗?

来自主题: AI资讯
6651 点击    2024-08-14 11:25
月之暗面对谈 Zilliz:长文本和 RAG 如何选择?

月之暗面对谈 Zilliz:长文本和 RAG 如何选择?

月之暗面对谈 Zilliz:长文本和 RAG 如何选择?

关于长文本和 RAG 到底如何选择,一直有争论,从基模公司到应用开发者。 今天这篇文章,是来自基模公司月之暗面和中间层 Zilliz 的技术对话,值得一看。

来自主题: AI资讯
8000 点击    2024-08-13 13:42
LLM上下文窗口突破200万!无需架构变化+复杂微调,轻松扩展8倍

LLM上下文窗口突破200万!无需架构变化+复杂微调,轻松扩展8倍

LLM上下文窗口突破200万!无需架构变化+复杂微调,轻松扩展8倍

大型语言模型(LLM)往往会追求更长的「上下文窗口」,但由于微调成本高、长文本稀缺以及新token位置引入的灾难值(catastrophic values)等问题,目前模型的上下文窗口大多不超过128k个token

来自主题: AI技术研报
7730 点击    2024-04-29 20:31