AI资讯新闻榜单内容搜索-RL

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: RL
Yann LeCun不看好强化学习:「我确实更喜欢 MPC」

Yann LeCun不看好强化学习:「我确实更喜欢 MPC」

Yann LeCun不看好强化学习:「我确实更喜欢 MPC」

「相比于强化学习(RL),我确实更喜欢模型预测控制(MPC)。至少从 2016 年起,我就一直在强调这一点。强化学习在学习任何新任务时都需要进行极其大量的尝试。相比之下,模型预测控制是零样本的:如果你有一个良好的世界模型和一个良好的任务目标,模型预测控制就可以在不需要任何特定任务学习的情况下解决新任务。这就是规划的魔力。这并不意味着强化学习是无用的,但它的使用应该是最后的手段。」

来自主题: AI资讯
7384 点击    2024-08-26 16:25
一文搞懂SFT、RLHF、DPO、IFT

一文搞懂SFT、RLHF、DPO、IFT

一文搞懂SFT、RLHF、DPO、IFT

SFT、RLHF 和 DPO 都是先估计 LLMs 本身的偏好,再与人类的偏好进行对齐

来自主题: AI资讯
5810 点击    2024-08-22 17:04
ChatGPT「秘方」竟在拖LLM后腿?Karpathy、LeCun联手开怼RLHF!

ChatGPT「秘方」竟在拖LLM后腿?Karpathy、LeCun联手开怼RLHF!

ChatGPT「秘方」竟在拖LLM后腿?Karpathy、LeCun联手开怼RLHF!

RLHF到底是不是强化学习?最近,AI大佬圈因为这个讨论炸锅了。和LeCun同为质疑派的Karpathy表示:比起那种让AlphaGo在围棋中击败人类的强化学习,RLHF还差得远呢。

来自主题: AI资讯
6469 点击    2024-08-10 10:32
首届大模型顶会COLM 高分论文:偏好搜索算法PairS,让大模型进行文本评估更高效

首届大模型顶会COLM 高分论文:偏好搜索算法PairS,让大模型进行文本评估更高效

首届大模型顶会COLM 高分论文:偏好搜索算法PairS,让大模型进行文本评估更高效

大模型展现出了卓越的指令跟从和任务泛化的能力,这种独特的能力源自 LLMs 在训练中使用了指令跟随数据以及人类反馈强化学习(RLHF)。

来自主题: AI技术研报
9641 点击    2024-08-03 14:29
吴恩达弟子打造arXiv弹幕版,每篇论文都能自由讨论了

吴恩达弟子打造arXiv弹幕版,每篇论文都能自由讨论了

吴恩达弟子打造arXiv弹幕版,每篇论文都能自由讨论了

网友:学术圈该有的样子! 现在,arXiv的每篇论文,都能直接提问讨论了! 只需把URL中的arXiv替换成AlphaXiv,就能对任意一篇论文发布提问或讨论。

来自主题: AI资讯
7379 点击    2024-08-02 10:30
4轮暴训,Llama 7B击败GPT-4!Meta等让LLM「分饰三角」自评自进化

4轮暴训,Llama 7B击败GPT-4!Meta等让LLM「分饰三角」自评自进化

4轮暴训,Llama 7B击败GPT-4!Meta等让LLM「分饰三角」自评自进化

Meta、UC伯克利、NYU共同提出元奖励语言模型,给「超级对齐」指条明路:让AI自己当裁判,自我改进对齐,效果秒杀自我奖励模型。

来自主题: AI技术研报
8509 点击    2024-07-31 16:05
RLHF不够用了,OpenAI设计出了新的奖励机制

RLHF不够用了,OpenAI设计出了新的奖励机制

RLHF不够用了,OpenAI设计出了新的奖励机制

OpenAI 的新奖励机制,让大模型更听话了。

来自主题: AI技术研报
5337 点击    2024-07-25 18:25