AI资讯新闻榜单内容搜索-训练

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 训练
人大、东北大学联合开发「图机器学习库」Jittor Geometric!性能超越PYG、DGL

人大、东北大学联合开发「图机器学习库」Jittor Geometric!性能超越PYG、DGL

人大、东北大学联合开发「图机器学习库」Jittor Geometric!性能超越PYG、DGL

ittor Geometric 1.0是由中国人民大学与东北大学联合开发的图机器学习库,基于国产Jittor框架,高效灵活,可助力处理复杂图结构数据,性能优于同类型框架,支持多种前沿图神经网络模型,已开源供用户使用。

来自主题: AI资讯
5738 点击    2025-01-21 07:50
Kimi硬刚多模态满血版o1,首曝训练细节!强化学习scaling新范式诞生

Kimi硬刚多模态满血版o1,首曝训练细节!强化学习scaling新范式诞生

Kimi硬刚多模态满血版o1,首曝训练细节!强化学习scaling新范式诞生

来了来了,月之暗面首个「满血版o1」来了!这是除OpenAI之外,首次有多模态模型在数学和代码能力上达到了满血版o1的水平。

来自主题: AI资讯
9483 点击    2025-01-21 07:44
诉讼频发,AI训练“盗用”版权内容,建立共享数据库迫在眉睫?

诉讼频发,AI训练“盗用”版权内容,建立共享数据库迫在眉睫?

诉讼频发,AI训练“盗用”版权内容,建立共享数据库迫在眉睫?

AI具备的能力,本质上来自算法和训练大模型所用的数据,数据的数量和质量会对大模型起到决定性作用。此前OpenAI工作人员表示,因没有足够多的高质量数据,Orion项目(即GPT-5)进展缓慢。不得已之下,OpenAI招募了许多数学家、物理学家、程序员原创数据,用于训练大模型。

来自主题: AI资讯
6499 点击    2025-01-21 07:33
给大模型制作图文并茂的教科书: 从2.5年的教学视频里挖掘多模态语料

给大模型制作图文并茂的教科书: 从2.5年的教学视频里挖掘多模态语料

给大模型制作图文并茂的教科书: 从2.5年的教学视频里挖掘多模态语料

近期关于 scaling law 的讨论甚嚣尘上,很多观点认为 scale law is dead. 然而,我们认为,高质量的 “无监督” 数据才是 scaling law 的关键,尤其是教科书级别的高质量的知识语料。此外,尽管传统的语料快枯竭了,但是互联网上还有海量的视频并没有被利用起来,它们囊括了丰富的多种模态的知识,可以帮助 VLMs 更好好地理解世界。

来自主题: AI技术研报
8001 点击    2025-01-20 19:01
意图识别:实现人类和智能体的有效沟通

意图识别:实现人类和智能体的有效沟通

意图识别:实现人类和智能体的有效沟通

意图识别及其在智能设计中的应用

来自主题: AI资讯
8133 点击    2025-01-20 14:27
选LLM-Judge评估,用这个可证明的人类对齐评估框架, ICLR2025匿名论文

选LLM-Judge评估,用这个可证明的人类对齐评估框架, ICLR2025匿名论文

选LLM-Judge评估,用这个可证明的人类对齐评估框架, ICLR2025匿名论文

在当今AI技术迅猛发展的背景下,大语言模型(LLM)的评估问题已成为一个不可忽视的挑战。传统的做法是直接采用最强大的模型(如GPT-4)进行评估,这就像让最高法院的大法官直接处理所有交通违章案件一样,既不经济也不一定总能保证公正。

来自主题: AI技术研报
6988 点击    2025-01-20 10:50
细粒度对齐无需仔细标注了!淘天提出视觉锚定奖励,自我校准实现多模态对齐

细粒度对齐无需仔细标注了!淘天提出视觉锚定奖励,自我校准实现多模态对齐

细粒度对齐无需仔细标注了!淘天提出视觉锚定奖励,自我校准实现多模态对齐

近年来,视觉大模型(Large Vision Language Models, LVLMs)领域经历了迅猛的发展,这些模型在图像理解、视觉对话以及其他跨模态任务中展现出了卓越的能力。然而,随着 LVLMs 复杂性和能力的增长,「幻觉现象」的挑战也日益凸显。

来自主题: AI技术研报
7710 点击    2025-01-19 14:51
Atom Capital:中美AI最前沿——创投新趋势、中美竞争与初创企业出海战略

Atom Capital:中美AI最前沿——创投新趋势、中美竞争与初创企业出海战略

Atom Capital:中美AI最前沿——创投新趋势、中美竞争与初创企业出海战略

2024又是AI精彩纷呈的一年。LLM不再是AI舞台上唯一的主角。随着预训练技术遭遇瓶颈,GPT-5迟迟未能问世,从业者开始从不同角度寻找突破。以o1为标志,大模型正式迈入“Post-Training”时代;开源发展迅猛,Llama 3.1首次击败闭源模型;中国本土大模型DeepSeek V3,在GPT-4o发布仅7个月后,用 1/10算力实现了几乎同等水平。

来自主题: AI资讯
10155 点击    2025-01-19 10:38
确认了!o3-mini几周内发布,奥特曼表示AGI只需872兆瓦计算功率

确认了!o3-mini几周内发布,奥特曼表示AGI只需872兆瓦计算功率

确认了!o3-mini几周内发布,奥特曼表示AGI只需872兆瓦计算功率

昨天,我们报道了一个行业猜想,说是 OpenAI 和 Anthropic 等前沿大模型公司可能已经训练出了下一代大模型,但由于它们的使用成本过高,所以短时间内根本不会被放出来。

来自主题: AI资讯
8531 点击    2025-01-18 15:11