AI资讯新闻榜单内容搜索-陈丹琦

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 陈丹琦
全面超越DPO:陈丹琦团队提出简单偏好优化SimPO,还炼出最强8B开源模型

全面超越DPO:陈丹琦团队提出简单偏好优化SimPO,还炼出最强8B开源模型

全面超越DPO:陈丹琦团队提出简单偏好优化SimPO,还炼出最强8B开源模型

为了将大型语言模型(LLM)与人类的价值和意图对齐,学习人类反馈至关重要,这能确保它们是有用的、诚实的和无害的。在对齐 LLM 方面,一种有效的方法是根据人类反馈的强化学习(RLHF)。尽管经典 RLHF 方法的结果很出色,但其多阶段的过程依然带来了一些优化难题,其中涉及到训练一个奖励模型,然后优化一个策略模型来最大化该奖励。

来自主题: AI技术研报
9788 点击    2024-05-26 13:45
2024苹果学者名单公布,华人占一半!宾大博士生曾和Jim Fan搞出英伟达最火机器人

2024苹果学者名单公布,华人占一半!宾大博士生曾和Jim Fan搞出英伟达最火机器人

2024苹果学者名单公布,华人占一半!宾大博士生曾和Jim Fan搞出英伟达最火机器人

2024年苹果学者名单开奖了!全球21位学者入选名单中,11位华人博士成功入选。其中包括师从陈丹琦、韩家炜教授的博士生。

来自主题: AI资讯
7330 点击    2024-03-12 18:28
陈丹琦团队新作:Llama-2上下文扩展至128k,10倍吞吐量仅需1/6内存

陈丹琦团队新作:Llama-2上下文扩展至128k,10倍吞吐量仅需1/6内存

陈丹琦团队新作:Llama-2上下文扩展至128k,10倍吞吐量仅需1/6内存

陈丹琦团队刚刚发布了一种新的LLM上下文窗口扩展方法:它仅用8k大小的token文档进行训练,就能将Llama-2窗口扩展至128k。

来自主题: AI技术研报
9300 点击    2024-02-29 13:27
陈丹琦团队新作:数据量砍95%,大模型性能更强了!Less is More

陈丹琦团队新作:数据量砍95%,大模型性能更强了!Less is More

陈丹琦团队新作:数据量砍95%,大模型性能更强了!Less is More

造大模型的成本,又被打下来了!这次是数据量狂砍95%的那种。陈丹琦团队最新提出大模型降本大法——数据选择算法LESS, 只筛选出与任务最相关5%数据来进行指令微调,效果比用整个数据集还要好。

来自主题: AI技术研报
3007 点击    2024-02-10 13:15
普林斯顿博士生高天宇指令微调进展速览:数据、算法和评估

普林斯顿博士生高天宇指令微调进展速览:数据、算法和评估

普林斯顿博士生高天宇指令微调进展速览:数据、算法和评估

自 ChatGPT 等大型语言模型推出以来,为了提升模型效果,各种指令微调方法陆续被提出。本文中,普林斯顿博士生、陈丹琦学生高天宇汇总了指令微调领域的进展,包括数据、算法和评估等。

来自主题: AI技术研报
6562 点击    2024-01-21 14:14
斯坦福Christopher Manning获2024 IEEE冯诺依曼奖,曾培养陈丹琦等多位华人学生

斯坦福Christopher Manning获2024 IEEE冯诺依曼奖,曾培养陈丹琦等多位华人学生

斯坦福Christopher Manning获2024 IEEE冯诺依曼奖,曾培养陈丹琦等多位华人学生

近日,2024 年度 IEEE 冯诺伊曼奖项结果正式公布,本年度奖项由斯坦福教授、AI 学者克里斯托弗・曼宁(Christopher Manning)获得,获奖理由为「促进自然语言计算表示和分析方面的进展」。

来自主题: AI资讯
6540 点击    2024-01-14 14:45