# 热门搜索 #
搜索
搜索: 对齐
从RLHF到DPO再到TDPO,大模型对齐算法已经是「token-level」

在人工智能领域的发展过程中,对大语言模型(LLM)的控制与指导始终是核心挑战之一,旨在确保这些模型既强大又安全地服务于人类社会。早期的努力集中于通过人类反馈的强化学习方法(RLHF)来管理这些模型,成效显著,标志着向更加人性化 AI 迈出的关键一步。

来自主题: AI技术研报
2904 点击    2024-06-23 19:39
这个团队做了OpenAI没Open的技术,开源OpenRLHF让对齐大模型超简单

随着大型语言模型(LLM)规模不断增大,其性能也在不断提升。尽管如此,LLM 依然面临着一个关键难题:与人类的价值和意图对齐。在解决这一难题方面,一种强大的技术是根据人类反馈的强化学习(RLHF)。

来自主题: AI技术研报
8569 点击    2024-06-07 10:36
GPT-5倒计时!奥特曼踢走Ilya得逞,宫斗惊人内幕再曝光

解散Ilya的超级对齐团队之后,奥特曼再造了一个新的「安全委员会」。OpenAI称正训练离AGI更近一步的下一代前沿模型,不过在这90天评估期间,怕是看不到新模型发布了。

来自主题: AI资讯
9000 点击    2024-05-29 15:26
曝OpenAI超级对齐团队解散

Ilya Sutskever离职内幕曝光,Sam Altman面临信任崩盘。

来自主题: AI资讯
5350 点击    2024-05-19 13:58