AI资讯新闻榜单内容搜索-模型训练

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 模型训练
RAG没有银弹!四级难度,最新综述覆盖数据集、解决方案,教你「LLM+外部数据」的正确使用姿势

RAG没有银弹!四级难度,最新综述覆盖数据集、解决方案,教你「LLM+外部数据」的正确使用姿势

RAG没有银弹!四级难度,最新综述覆盖数据集、解决方案,教你「LLM+外部数据」的正确使用姿势

论文提出了一种RAG任务分类法,将用户查询分为四个级别,并讨论了将外部数据集成到LLMs中的三种主要方式。从简单的事实检索到复杂的推理任务,每个级别都有其独特的难点和解决方案,需要不同的技术和方法来优化性能。

来自主题: AI技术研报
7707 点击    2024-11-21 13:39
媲美OpenAI事实性基准,这个中文评测集让o1-preview刚刚及格

媲美OpenAI事实性基准,这个中文评测集让o1-preview刚刚及格

媲美OpenAI事实性基准,这个中文评测集让o1-preview刚刚及格

如何解决模型生成幻觉一直是人工智能(AI)领域的一个悬而未解的问题。为了测量语言模型的事实正确性,近期 OpenAI 发布并开源了一个名为 SimpleQA 的评测集。而我们也同样一直在关注模型事实正确性这一领域,目前该领域存在数据过时、评测不准和覆盖不全等问题。例如现在大家广泛使用的知识评测集还是 CommonSenseQA、CMMLU 和 C-Eval 等选择题形式的评测集。

来自主题: AI技术研报
7573 点击    2024-11-20 15:02
微软和麻省理工权威发布:Prompt格式显著影响LLM性能,JSON比Markdown准确性高42%

微软和麻省理工权威发布:Prompt格式显著影响LLM性能,JSON比Markdown准确性高42%

微软和麻省理工权威发布:Prompt格式显著影响LLM性能,JSON比Markdown准确性高42%

朋友们,想了解为什么同一模型会带来大量结果的不一致性吗?今天,我们来一起深入分析一下来自微软和麻省理工学院的一项重大发现——不同的Prompt格式如何显著影响LLM的输出精度。这些研究结果对于应用Prompt优化设计具有非常重要的应用价值。

来自主题: AI技术研报
8135 点击    2024-11-20 09:19
面向代码语言模型的安全性研究全新进展,南大&NTU联合发布全面综述

面向代码语言模型的安全性研究全新进展,南大&NTU联合发布全面综述

面向代码语言模型的安全性研究全新进展,南大&NTU联合发布全面综述

近年来,代码语言模型(Language Models for Code,简称 CodeLMs)逐渐成为推动智能化软件开发的关键技术,应用场景涵盖智能代码生成与补全、漏洞检测与修复等。

来自主题: AI资讯
6879 点击    2024-11-19 20:35
LLM为何频频翻车算术题?最新研究追踪单个神经元,「大脑短路」才是根源

LLM为何频频翻车算术题?最新研究追踪单个神经元,「大脑短路」才是根源

LLM为何频频翻车算术题?最新研究追踪单个神经元,「大脑短路」才是根源

大模型在数学问题上的表现不佳,原因在于采取启发式算法进行数学运算的,通过定位到多层感知机(MLP)中的单个神经元,可以对进行数学运算的具体过程进行解释。

来自主题: AI技术研报
7107 点击    2024-11-19 19:53
Scaling Law“暴力美学”真的失效了吗?

Scaling Law“暴力美学”真的失效了吗?

Scaling Law“暴力美学”真的失效了吗?

近期,围绕Scaling Law的讨论不绝于耳。

来自主题: AI资讯
5285 点击    2024-11-19 10:32
NeurIPS 2024 | 自我纠错如何使OpenAI o1推理能力大大加强?北大、MIT团队给出理论解释

NeurIPS 2024 | 自我纠错如何使OpenAI o1推理能力大大加强?北大、MIT团队给出理论解释

NeurIPS 2024 | 自我纠错如何使OpenAI o1推理能力大大加强?北大、MIT团队给出理论解释

自我纠错(Self Correction)能力,传统上被视为人类特有的特征,正越来越多地在人工智能领域,尤其是大型语言模型(LLMs)中得到广泛应用,最近爆火的OpenAI o1模型[1]和Reflection 70B模型[2]都采取了自我纠正的方法。

来自主题: AI技术研报
4578 点击    2024-11-18 14:54