AI资讯新闻榜单内容搜索-模型训练

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 模型训练
延迟交互模型,为什么是下一代RAG的标配?

延迟交互模型,为什么是下一代RAG的标配?

延迟交互模型,为什么是下一代RAG的标配?

在 RAG 系统开发中,良好的 Reranker 模型处于必不可少的环节,也总是被拿来放到各类评测当中,这是因为以向量搜索为代表的查询,会面临命中率低的问题,因此需要高级的 Reranker 模型来补救,这样就构成了以向量搜索为粗筛,以 Reranker 模型作精排的两阶段排序架构。

来自主题: AI技术研报
9915 点击    2024-08-05 13:58
Meta的Llama 3是合成数据训练?数据荒了解一下

Meta的Llama 3是合成数据训练?数据荒了解一下

Meta的Llama 3是合成数据训练?数据荒了解一下

如今一场席卷人工智能圈的“石油危机”已经出现,几乎每一家AI厂商都在竭力寻求新的语料来源,但再多的数据似乎也填不满AI大模型的胃口。更何况越来越多的内容平台意识到了手中数据的价值,纷纷开始敝帚自珍。为此,“合成数据”也成为了整个AI行业探索的新方向。

来自主题: AI资讯
7428 点击    2024-08-05 12:23
小技巧大功效,「仅阅读两次提示」让循环语言模型超越Transformer++

小技巧大功效,「仅阅读两次提示」让循环语言模型超越Transformer++

小技巧大功效,「仅阅读两次提示」让循环语言模型超越Transformer++

在当前 AI 领域,大语言模型采用的主流架构是 Transformer。不过,随着 RWKV、Mamba 等架构的陆续问世,出现了一个很明显的趋势:在语言建模困惑度方面与 Transformer 较量的循环大语言模型正在快速进入人们的视线。

来自主题: AI资讯
9670 点击    2024-08-04 14:04
可解释性终极追问,什么才是第一性解释?20篇CCF-A+ICLR论文给你答案

可解释性终极追问,什么才是第一性解释?20篇CCF-A+ICLR论文给你答案

可解释性终极追问,什么才是第一性解释?20篇CCF-A+ICLR论文给你答案

本文首先简单回顾了『等效交互可解释性理论体系』(20 篇 CCF-A 及 ICLR 论文),并在此基础上,严格推导并预测出神经网络在训练过程中其概念表征及其泛化性的动力学变化,即在某种程度上,我们可以解释在训练过程中神经网络在任意时间点的泛化性及其内在根因。

来自主题: AI技术研报
8579 点击    2024-08-04 13:55
DeepMind研究成本大起底,一篇ICML论文烧掉1290万美元

DeepMind研究成本大起底,一篇ICML论文烧掉1290万美元

DeepMind研究成本大起底,一篇ICML论文烧掉1290万美元

DeepMind最近被ICML 2024接收的一篇论文,完完全全暴露了他们背靠谷歌的「豪横」。一篇文章预估了这项研究所需的算力和成本,大概是Llama 3预训练的15%,耗费资金可达12.9M美元。

来自主题: AI技术研报
7612 点击    2024-08-03 15:03
首届大模型顶会COLM 高分论文:偏好搜索算法PairS,让大模型进行文本评估更高效

首届大模型顶会COLM 高分论文:偏好搜索算法PairS,让大模型进行文本评估更高效

首届大模型顶会COLM 高分论文:偏好搜索算法PairS,让大模型进行文本评估更高效

大模型展现出了卓越的指令跟从和任务泛化的能力,这种独特的能力源自 LLMs 在训练中使用了指令跟随数据以及人类反馈强化学习(RLHF)。

来自主题: AI技术研报
9925 点击    2024-08-03 14:29
RAG 高效应用指南 04:语义路由

RAG 高效应用指南 04:语义路由

RAG 高效应用指南 04:语义路由

在这篇文章中,笔者将讨论以下几个问题: • 什么是语义路由 • RAG 路由的不同场景

来自主题: AI技术研报
8521 点击    2024-08-03 11:05
RAG 高效应用指南 03:Query 理解

RAG 高效应用指南 03:Query 理解

RAG 高效应用指南 03:Query 理解

在这篇文章中,笔者将讨论以下几个问题: • 为什么要进行 query 理解 • query 理解有哪些技术(从 RAG 角度) • 各种 query 理解技术的实现(基于 LangChain)

来自主题: AI技术研报
9854 点击    2024-08-03 10:57