AI资讯新闻榜单内容搜索-预训练

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 预训练
如何使用OpenAI fine-tuning(微调)训练属于自己的专有模型?

如何使用OpenAI fine-tuning(微调)训练属于自己的专有模型?

如何使用OpenAI fine-tuning(微调)训练属于自己的专有模型?

Fine-tuning理论上很复杂,但是OpenAI把这个功能完善到任何一个人看了就能做出来的程度。我们先从原理入手,你看这张图,左边是Pre-trained LLM (预训练大模型模型),也就是像ChatGPT这样的模型;右边是Fine-tuned LLM (微调过的语言大模型),中间就是进行微调的过程,它需要我们提供一些「ChatGPT提供不了但是我们需要的东西」。

来自主题: AI技术研报
8909 点击    2024-12-01 10:56
GPT-5涌现能力可预测?UC伯克利仅使用当前模型检查点预测未来模型

GPT-5涌现能力可预测?UC伯克利仅使用当前模型检查点预测未来模型

GPT-5涌现能力可预测?UC伯克利仅使用当前模型检查点预测未来模型

LLM 规模扩展的一个根本性挑战是缺乏对涌现能力的理解。特别是,语言模型预训练损失是高度可预测的。然而,下游能力的可预测性要差得多,有时甚至会出现涌现跳跃(emergent jump),这使得预测未来模型的能力变得具有挑战性。

来自主题: AI技术研报
8362 点击    2024-11-30 16:51
DeepSeek等团队新作JanusFlow: 1.3B大模型统一视觉理解和生成

DeepSeek等团队新作JanusFlow: 1.3B大模型统一视觉理解和生成

DeepSeek等团队新作JanusFlow: 1.3B大模型统一视觉理解和生成

在多模态AI领域,基于预训练视觉编码器与MLLM的方法(如LLaVA系列)在视觉理解任务上展现出卓越性能。

来自主题: AI技术研报
8316 点击    2024-11-22 15:54
手把手教你预训练一个小型 LLM|Steel-LLM 的实战经验

手把手教你预训练一个小型 LLM|Steel-LLM 的实战经验

手把手教你预训练一个小型 LLM|Steel-LLM 的实战经验

随着开源数据的日益丰富以及算力价格的持续下降,对于个人或小型机构而言,预训练一个小型的 LLM 已逐渐成为可能。开源中文预训练语言模型 Steel - LLM 就是一个典型案例,其模型参数量与数据量并非十分庞大,基本处于参数量为 B 级别、数据量为 T 级别的规模。

来自主题: AI技术研报
7186 点击    2024-11-22 09:44
具身大模型学习——OCTO

具身大模型学习——OCTO

具身大模型学习——OCTO

在多样化的机器人数据集上预训练的大型策略有潜力改变机器人学习:与从头开始训练新策略相比,这种通用型机器人策略可以通过少量的领域内数据进行微调,同时具备广泛的泛化能力。

来自主题: AI资讯
6443 点击    2024-11-19 21:10
Ilya认错,Scaling Law崩了?自曝SSI秘密技术路线取代OpenAI

Ilya认错,Scaling Law崩了?自曝SSI秘密技术路线取代OpenAI

Ilya认错,Scaling Law崩了?自曝SSI秘密技术路线取代OpenAI

Ilya终于承认,自己关于Scaling的说法错了!现在训练模型已经不是「越大越好」,而是找出Scaling的对象究竟应该是什么。他自曝,SSI在用全新方法扩展预训练。而各方巨头改变训练范式后,英伟达GPU的垄断地位或许也要打破了。

来自主题: AI资讯
5221 点击    2024-11-12 14:39
字节豆包大模型团队突破残差连接局限!预训练收敛最快加速80%

字节豆包大模型团队突破残差连接局限!预训练收敛最快加速80%

字节豆包大模型团队突破残差连接局限!预训练收敛最快加速80%

字节跳动豆包大模型团队于近日提出超连接(Hyper-Connections),一种简单有效的残差连接替代方案。面向残差连接的主要变体的局限问题,超连接可通过动态调整不同层之间的连接权重,解决梯度消失和表示崩溃(Representation Collapse)之间的权衡困境。在 Dense 模型和 MoE 模型预训练中,超连接方案展示出显著的性能提升效果,使收敛速度最高可加速 80%。

来自主题: AI技术研报
4492 点击    2024-11-07 17:41
高效评估多模态预训练对齐质量,中科大提出模态融合率MIR

高效评估多模态预训练对齐质量,中科大提出模态融合率MIR

高效评估多模态预训练对齐质量,中科大提出模态融合率MIR

来自中科大等单位的研究团队共同提出了用来有效评估多模态大模型预训练质量的评估指标 Modality Integration Rate(MIR),能够快速准确地评估多模态预训练的模态对齐程度。

来自主题: AI技术研报
3612 点击    2024-11-04 17:13
幻觉不一定有害,新框架用AI的「幻觉」优化图像分割技术

幻觉不一定有害,新框架用AI的「幻觉」优化图像分割技术

幻觉不一定有害,新框架用AI的「幻觉」优化图像分割技术

在人工智能领域,大型预训练模型(如 GPT 和 LLaVA)的 “幻觉” 现象常被视为一个难以克服的挑战,尤其是在执行精确任务如图像分割时。

来自主题: AI技术研报
7572 点击    2024-11-03 17:53
李开复回应一切:竞技场排名“让我们有信心继续做预训练”

李开复回应一切:竞技场排名“让我们有信心继续做预训练”

李开复回应一切:竞技场排名“让我们有信心继续做预训练”

国产大模型首次在国际最具挑战的“大模型竞技场”榜单上超过GPT-4o(5月版本),当零一万物的名字紧跟在OpenAI、Google之后,李开复却如是坦言。

来自主题: AI资讯
3417 点击    2024-11-01 10:41