AI资讯新闻榜单内容搜索-陈丹琦

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 陈丹琦
陈丹琦团队降本大法又来了:数据砍掉三分之一,性能却完全不减

陈丹琦团队降本大法又来了:数据砍掉三分之一,性能却完全不减

陈丹琦团队降本大法又来了:数据砍掉三分之一,性能却完全不减

陈丹琦团队又带着他们的降本大法来了—— 数据砍掉三分之一,大模型性能却完全不减。 他们引入了元数据,加速了大模型预训练的同时,也不增加单独的计算开销。

来自主题: AI资讯
6607 点击    2025-01-08 09:56
陈丹琦团队图表解读新基准:新王Claude3.5刚及格,但已是模型最强推理表现

陈丹琦团队图表解读新基准:新王Claude3.5刚及格,但已是模型最强推理表现

陈丹琦团队图表解读新基准:新王Claude3.5刚及格,但已是模型最强推理表现

Claude 3.5 Sonnet的图表推理能力,比GPT-4o高出了27.8%。 针对多模态大模型在图表任务上的表现,陈丹琦团队提出了新的测试基准。 新Benchmark比以往更有区分度,也让一众传统测试中的高分模型暴露出了真实能力。

来自主题: AI技术研报
8497 点击    2024-06-29 00:07
陈丹琦团队新作:微调8B模型超越Claude3 Opus,背后是RLHF新平替

陈丹琦团队新作:微调8B模型超越Claude3 Opus,背后是RLHF新平替

陈丹琦团队新作:微调8B模型超越Claude3 Opus,背后是RLHF新平替

比斯坦福DPO(直接偏好优化)更简单的RLHF平替来了,来自陈丹琦团队。 该方式在多项测试中性能都远超DPO,还能让8B模型战胜Claude 3的超大杯Opus。 而且与DPO相比,训练时间和GPU消耗也都大幅减少。

来自主题: AI资讯
8431 点击    2024-05-27 16:39
全面超越DPO:陈丹琦团队提出简单偏好优化SimPO,还炼出最强8B开源模型

全面超越DPO:陈丹琦团队提出简单偏好优化SimPO,还炼出最强8B开源模型

全面超越DPO:陈丹琦团队提出简单偏好优化SimPO,还炼出最强8B开源模型

为了将大型语言模型(LLM)与人类的价值和意图对齐,学习人类反馈至关重要,这能确保它们是有用的、诚实的和无害的。在对齐 LLM 方面,一种有效的方法是根据人类反馈的强化学习(RLHF)。尽管经典 RLHF 方法的结果很出色,但其多阶段的过程依然带来了一些优化难题,其中涉及到训练一个奖励模型,然后优化一个策略模型来最大化该奖励。

来自主题: AI技术研报
9561 点击    2024-05-26 13:45
2024苹果学者名单公布,华人占一半!宾大博士生曾和Jim Fan搞出英伟达最火机器人

2024苹果学者名单公布,华人占一半!宾大博士生曾和Jim Fan搞出英伟达最火机器人

2024苹果学者名单公布,华人占一半!宾大博士生曾和Jim Fan搞出英伟达最火机器人

2024年苹果学者名单开奖了!全球21位学者入选名单中,11位华人博士成功入选。其中包括师从陈丹琦、韩家炜教授的博士生。

来自主题: AI资讯
7078 点击    2024-03-12 18:28
陈丹琦团队新作:Llama-2上下文扩展至128k,10倍吞吐量仅需1/6内存

陈丹琦团队新作:Llama-2上下文扩展至128k,10倍吞吐量仅需1/6内存

陈丹琦团队新作:Llama-2上下文扩展至128k,10倍吞吐量仅需1/6内存

陈丹琦团队刚刚发布了一种新的LLM上下文窗口扩展方法:它仅用8k大小的token文档进行训练,就能将Llama-2窗口扩展至128k。

来自主题: AI技术研报
9048 点击    2024-02-29 13:27