AI资讯新闻榜单内容搜索-模型训练

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 模型训练
将偏好学习引入模型训练,北大李戈团队新框架,可显著提升代码准确性与执行效率

将偏好学习引入模型训练,北大李戈团队新框架,可显著提升代码准确性与执行效率

将偏好学习引入模型训练,北大李戈团队新框架,可显著提升代码准确性与执行效率

代码模型SFT对齐后,缺少进一步偏好学习的问题有解了。 北大李戈教授团队与字节合作,在模型训练过程中引入偏好学习,提出了一个全新的代码生成优化框架——CodeDPO。

来自主题: AI技术研报
6845 点击    2024-11-27 14:35
Scaling Law百度最早提出?!OpenAI/Claude都受它启发,Ilya出现在致谢名单中

Scaling Law百度最早提出?!OpenAI/Claude都受它启发,Ilya出现在致谢名单中

Scaling Law百度最早提出?!OpenAI/Claude都受它启发,Ilya出现在致谢名单中

什么?Scaling Law最早是百度2017年提的?! Meta研究员翻出经典论文: 大多数人可能不知道,Scaling law原始研究来自2017年的百度,而非三年后(2020年)的OpenAI。

来自主题: AI资讯
5788 点击    2024-11-27 14:20
微软发现不同prompt模版会导致最大40%性能差距!

微软发现不同prompt模版会导致最大40%性能差距!

微软发现不同prompt模版会导致最大40%性能差距!

这篇文章研究了提示格式对大型语言模型(LLM)性能的影响。

来自主题: AI技术研报
5901 点击    2024-11-27 13:48
微软、OpenAI最新发布:从吴恩达教授推荐的Medprompt到o1的技术演进

微软、OpenAI最新发布:从吴恩达教授推荐的Medprompt到o1的技术演进

微软、OpenAI最新发布:从吴恩达教授推荐的Medprompt到o1的技术演进

近期,微软研究团队发布了一项重要的研究成果,揭示了AI推理能力从传统的提示工程方法(如Medprompt)到原生推理机制(如OpenAI的o1)演进的全貌。此项研究为正在开发AI产品的朋友们提供了宝贵的技术洞察。本文将详细分析这一研究的过程和结论,探讨其对AI推理领域及产品开发的深远影响。

来自主题: AI技术研报
5412 点击    2024-11-27 09:25
陈天奇团队LLM结构化生成新引擎XGrammar:百倍加速、近零开销

陈天奇团队LLM结构化生成新引擎XGrammar:百倍加速、近零开销

陈天奇团队LLM结构化生成新引擎XGrammar:百倍加速、近零开销

不管是编写和调试代码,还是通过函数调用来使用外部工具,又或是控制机器人,都免不了需要 LLM 生成结构化数据,也就是遵循某个特定格式(如 JSON、SQL 等)的数据。 但使用上下文无关语法(CFG)来进行约束解码的方法并不高效。针对这个困难,陈天奇团队提出了一种新的解决方案:XGrammar。

来自主题: AI资讯
7125 点击    2024-11-26 14:18
撞墙还是新起点?自回归模型在图像领域展现出Scaling潜力

撞墙还是新起点?自回归模型在图像领域展现出Scaling潜力

撞墙还是新起点?自回归模型在图像领域展现出Scaling潜力

自回归方法,在图像生成中观察到了 Scaling Law。 「Scaling Law 撞墙了?」这恐怕是 AI 社区最近讨论热度最高的话题。

来自主题: AI技术研报
5441 点击    2024-11-26 13:48
揭示Transformer「周期建模」缺陷!北大提出新型神经网络FAN,填补周期性特征建模能力缺陷

揭示Transformer「周期建模」缺陷!北大提出新型神经网络FAN,填补周期性特征建模能力缺陷

揭示Transformer「周期建模」缺陷!北大提出新型神经网络FAN,填补周期性特征建模能力缺陷

北京大学研究团队开发的FAN模型能有效捕捉数据中的周期性模式,相比传统模型在多项任务中表现出色,同时降低了参数量和计算量,增强了对周期性特征的建模能力,应用潜力广泛。

来自主题: AI技术研报
5567 点击    2024-11-26 13:43
大LLM输出就一定好吗,LLM嵌入用于回归任务,斯坦福和谷歌最新突破性发现与实践指南

大LLM输出就一定好吗,LLM嵌入用于回归任务,斯坦福和谷歌最新突破性发现与实践指南

大LLM输出就一定好吗,LLM嵌入用于回归任务,斯坦福和谷歌最新突破性发现与实践指南

在人工智能领域,大语言模型(LLM)的向量嵌入能力一直被视为处理文本数据的利器。然而,斯坦福大学和Google DeepMind的研究团队带来了一个颠覆性发现:LLM的向量嵌入能力可以有效应用于回归任务。

来自主题: AI技术研报
5714 点击    2024-11-26 09:04
OpenAI怒斥Scaling撞墙论!o1已产生推理直觉潜力巨大

OpenAI怒斥Scaling撞墙论!o1已产生推理直觉潜力巨大

OpenAI怒斥Scaling撞墙论!o1已产生推理直觉潜力巨大

Scaling Law撞墙了吗?OpenAI高级研究副总裁Mark Chen正式驳斥了这一观点。他表示,OpenAI已经有o系列和GPT系列两个模型,来让模型继续保持Scaling。

来自主题: AI资讯
5385 点击    2024-11-25 15:03