AI资讯新闻榜单内容搜索-RLHF

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: RLHF
全面超越DPO:陈丹琦团队提出简单偏好优化SimPO,还炼出最强8B开源模型

全面超越DPO:陈丹琦团队提出简单偏好优化SimPO,还炼出最强8B开源模型

全面超越DPO:陈丹琦团队提出简单偏好优化SimPO,还炼出最强8B开源模型

为了将大型语言模型(LLM)与人类的价值和意图对齐,学习人类反馈至关重要,这能确保它们是有用的、诚实的和无害的。在对齐 LLM 方面,一种有效的方法是根据人类反馈的强化学习(RLHF)。尽管经典 RLHF 方法的结果很出色,但其多阶段的过程依然带来了一些优化难题,其中涉及到训练一个奖励模型,然后优化一个策略模型来最大化该奖励。

来自主题: AI技术研报
9552 点击    2024-05-26 13:45
仅靠开源数据复刻出LLaMA3指令学习效果,在线迭代RLHF全流程解决方案来了

仅靠开源数据复刻出LLaMA3指令学习效果,在线迭代RLHF全流程解决方案来了

仅靠开源数据复刻出LLaMA3指令学习效果,在线迭代RLHF全流程解决方案来了

基于人类反馈的强化学习 (RLHF) 使得大语言模型的输出能够更加符合人类的目标、期望与需求,是提升许多闭源语言模型 Chat-GPT, Claude, Gemini 表现的核心方法之一。

来自主题: AI资讯
5343 点击    2024-05-18 11:18
「用 AI 训 AI」这事靠谱吗?

「用 AI 训 AI」这事靠谱吗?

「用 AI 训 AI」这事靠谱吗?

在大语言模型领域,微调是改进模型的重要步骤。伴随开源模型数量日益增多,针对LLM的微调方法同样在推陈出新。

来自主题: AI技术研报
8984 点击    2024-05-01 19:31
这就是OpenAI神秘的Q*?斯坦福:语言模型就是Q函数

这就是OpenAI神秘的Q*?斯坦福:语言模型就是Q函数

这就是OpenAI神秘的Q*?斯坦福:语言模型就是Q函数

在对齐大型语言模型(LLM)与人类意图方面,最常用的方法必然是根据人类反馈的强化学习(RLHF)

来自主题: AI资讯
3884 点击    2024-04-24 10:59
抱抱脸Open了OpenAI的秘密武器,网易参与复现

抱抱脸Open了OpenAI的秘密武器,网易参与复现

抱抱脸Open了OpenAI的秘密武器,网易参与复现

OpenAI的秘密武器、ChatGPT背后功臣RLHF,被开源了。来自Hugging Face、加拿大蒙特利尔Mila研究所、网易伏羲AI Lab的研究人员从零开始复现了OpenAI的RLHF pipeline,罗列了25个关键实施细节。

来自主题: AI技术研报
4779 点击    2024-04-08 09:55
ICLR 2024 | RLHF有了通用平台和基准,天大开源,专攻现实决策场景

ICLR 2024 | RLHF有了通用平台和基准,天大开源,专攻现实决策场景

ICLR 2024 | RLHF有了通用平台和基准,天大开源,专攻现实决策场景

RLHF 通过学习人类偏好,能够在难以手工设计奖励函数的复杂决策任务中学习到正确的奖励引导,得到了很高的关注,在不同环境中选择合适的人类反馈类型和不同的学习方法至关重要

来自主题: AI技术研报
8425 点击    2024-03-28 09:59
模型偏好只与大小有关?上交大全面解析人类与32种大模型偏好的定量组分

模型偏好只与大小有关?上交大全面解析人类与32种大模型偏好的定量组分

模型偏好只与大小有关?上交大全面解析人类与32种大模型偏好的定量组分

在目前的模型训练范式中,偏好数据的的获取与使用已经成为了不可或缺的一环。在训练中,偏好数据通常被用作对齐(alignment)时的训练优化目标,如基于人类或 AI 反馈的强化学习(RLHF/RLAIF)或者直接偏好优化(DPO),而在模型评估中,由于任务的复杂性且通常没有标准答案,则通常直接以人类标注者或高性能大模型(LLM-as-a-Judge)的偏好标注作为评判标准。

来自主题: AI技术研报
10093 点击    2024-03-02 14:58
Sora创建病毒式视频全网疯转,OpenAI密谋推出TikTok竞品?专家猜测:这是计划的一部分

Sora创建病毒式视频全网疯转,OpenAI密谋推出TikTok竞品?专家猜测:这是计划的一部分

Sora创建病毒式视频全网疯转,OpenAI密谋推出TikTok竞品?专家猜测:这是计划的一部分

为何OpenAI只在TikTok上发布Sora新视频?AI专家猜测这是计划的一部分:创建病毒式视频、加水印、收集数据、添加RLHF、推出TikTok竞品……整套流程一气呵成。

来自主题: AI资讯
1538 点击    2024-02-23 14:38
人类偏好优化算法哪家强?跟着高手一文学懂DPO、IPO和KTO

人类偏好优化算法哪家强?跟着高手一文学懂DPO、IPO和KTO

人类偏好优化算法哪家强?跟着高手一文学懂DPO、IPO和KTO

尽管收集人类对模型生成内容的相对质量的标签,并通过强化学习从人类反馈(RLHF)来微调无监督大语言模型,使其符合这些偏好的方法极大地推动了对话式人工智能的发展。

来自主题: AI技术研报
7467 点击    2024-02-18 12:25