AI资讯新闻榜单内容搜索-训练

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 训练
微软:两个AI相互纠错,数学再涨5分

微软:两个AI相互纠错,数学再涨5分

微软:两个AI相互纠错,数学再涨5分

提升LLM数学能力的新方法来了——

来自主题: AI技术研报
5339 点击    2024-12-02 14:51
NeurIPS 2024|杜克大学&谷歌提出SLED解码框架,无需外部数据与额外训练,有效缓解大语言模型幻觉,提高事实准确性

NeurIPS 2024|杜克大学&谷歌提出SLED解码框架,无需外部数据与额外训练,有效缓解大语言模型幻觉,提高事实准确性

NeurIPS 2024|杜克大学&谷歌提出SLED解码框架,无需外部数据与额外训练,有效缓解大语言模型幻觉,提高事实准确性

大语言模型(LLM)在各种任务上展示了卓越的性能。然而,受到幻觉(hallucination)的影响,LLM 生成的内容有时会出现错误或与事实不符,这限制了其在实际应用中的可靠性。

来自主题: AI技术研报
8632 点击    2024-12-02 14:27
美欧亚三洲开发者联手,全球首个组团训练的大模型来了,全流程开源

美欧亚三洲开发者联手,全球首个组团训练的大模型来了,全流程开源

美欧亚三洲开发者联手,全球首个组团训练的大模型来了,全流程开源

Prime Intellect 宣布通过去中心化方式训练完成了一个 10B 模型。30 号,他们开源了一切,包括基础模型、检查点、后训练模型、数据、PRIME 训练框架和技术报告。据了解,这应该是有史以来首个以去中心化形式训练得到的 10B 大模型。

来自主题: AI资讯
7337 点击    2024-12-02 12:35
加密货币每疯狂一次,人类就离AGI更远一点?

加密货币每疯狂一次,人类就离AGI更远一点?

加密货币每疯狂一次,人类就离AGI更远一点?

因为比特币挖矿和AI训练都需要大量的能源和算力。两者的同步发展势必在电力和硬件资源上产生竞争。这意味着AI训练业务可能会受到比特币价格波动的影响,尤其是当矿工们争夺有限的硬件资源时。也就是说比特币价格的上涨,可能会带动AI训练成本的提升。

来自主题: AI资讯
7384 点击    2024-12-02 10:23
关于计算机视觉中的自回归模型,这篇综述一网打尽了

关于计算机视觉中的自回归模型,这篇综述一网打尽了

关于计算机视觉中的自回归模型,这篇综述一网打尽了

随着计算机视觉领域的不断发展,自回归模型作为一种强大的生成模型,在图像生成、视频生成、3D 生成和多模态生成等任务中展现出了巨大的潜力。然而,由于该领域的快速发展,及时、全面地了解自回归模型的研究现状和进展变得至关重要。本文旨在对视觉领域中的自回归模型进行全面综述,为研究人员提供一个清晰的参考框架。

来自主题: AI技术研报
7416 点击    2024-12-01 14:21
Andrej Karpathy:神奇大模型不存在的,只是对人类标注的拙劣模仿

Andrej Karpathy:神奇大模型不存在的,只是对人类标注的拙劣模仿

Andrej Karpathy:神奇大模型不存在的,只是对人类标注的拙劣模仿

本周五,知名 AI 领域学者,OpenAI 创始成员、特斯拉前 AI 高级总监 Andrej Karpathy 发表观点:「人们对『向人工智能询问某件事』的解释过于夸张」,引发网友热议。

来自主题: AI资讯
5453 点击    2024-12-01 14:17
无需Transformer,简单滤波器即可提高时间序列预测精度 | NeurIPS 2024

无需Transformer,简单滤波器即可提高时间序列预测精度 | NeurIPS 2024

无需Transformer,简单滤波器即可提高时间序列预测精度 | NeurIPS 2024

无需Transformer,简单滤波器即可提高时间序列预测精度。 由国家信息中心、牛津大学、北京理工大学、同济大学、中国科学技术大学等机构的团队提出了一个FilterNet。 目前已被NeurlPS 2024接收。

来自主题: AI技术研报
6332 点击    2024-12-01 14:12
如何使用OpenAI fine-tuning(微调)训练属于自己的专有模型?

如何使用OpenAI fine-tuning(微调)训练属于自己的专有模型?

如何使用OpenAI fine-tuning(微调)训练属于自己的专有模型?

Fine-tuning理论上很复杂,但是OpenAI把这个功能完善到任何一个人看了就能做出来的程度。我们先从原理入手,你看这张图,左边是Pre-trained LLM (预训练大模型模型),也就是像ChatGPT这样的模型;右边是Fine-tuned LLM (微调过的语言大模型),中间就是进行微调的过程,它需要我们提供一些「ChatGPT提供不了但是我们需要的东西」。

来自主题: AI技术研报
9101 点击    2024-12-01 10:56