AI资讯新闻榜单内容搜索-模型训练

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 模型训练
GPU泡沫破灭前夜:2美元/小时出租,H100算力价格暴跌75%

GPU泡沫破灭前夜:2美元/小时出租,H100算力价格暴跌75%

GPU泡沫破灭前夜:2美元/小时出租,H100算力价格暴跌75%

红杉资本的报告曾指出,AI产业的年产值超过6000亿美元,才够支付数据中心、加速GPU卡等AI基础设施费用。而现在一种普遍说法认为,基础模型训练的资本支出是“历史上贬值最快的资产”,但关于GPU基础设施支出的判定仍未出炉,GPU土豪战争仍在进行。

来自主题: AI资讯
5835 点击    2024-10-18 10:02
DeepMind最新:发布说话者-推理者架构实现Agents快慢思考 | 融合系统1+系统2

DeepMind最新:发布说话者-推理者架构实现Agents快慢思考 | 融合系统1+系统2

DeepMind最新:发布说话者-推理者架构实现Agents快慢思考 | 融合系统1+系统2

近期,LLM领域有不少关于系统1和系统2思考的讨论,在Agent方向上这方面的讨论还很少。如何让AI agents既能快速响应用户,又能进行深度思考和规划,一直是一个巨大的挑战。

来自主题: AI技术研报
5671 点击    2024-10-17 10:25
ChatGPT确实会看人下菜!OpenAI官方报告揭示大模型的刻板印象

ChatGPT确实会看人下菜!OpenAI官方报告揭示大模型的刻板印象

ChatGPT确实会看人下菜!OpenAI官方报告揭示大模型的刻板印象

我们都知道,OpenAI 最近越来越喜欢发博客了。 这不,今天他们又更新了一篇,标题是「评估 ChatGPT 中的公平性」,但实际内容却谈的是用户的身份会影响 ChatGPT 给出的响应。

来自主题: AI技术研报
4181 点击    2024-10-17 10:09
补齐Transformer规划短板又不放弃快速思考,田渊栋团队的Dualformer融合System 1和2双重优势

补齐Transformer规划短板又不放弃快速思考,田渊栋团队的Dualformer融合System 1和2双重优势

补齐Transformer规划短板又不放弃快速思考,田渊栋团队的Dualformer融合System 1和2双重优势

OpenAI ο1 模型的发布掀起了人们对 AI 推理过程的关注,甚至让现在的 AI 行业开始放弃卷越来越大的模型,而是开始针对推理过程进行优化了。今天我们介绍的这项来自 Meta FAIR 田渊栋团队的研究也是如此,其从人类认知理论中获得了灵感,提出了一种新型 Transformer 架构:Dualformer。

来自主题: AI技术研报
3874 点击    2024-10-16 15:56
重新定义自监督学习!LeCun团队让MMCR再进一步

重新定义自监督学习!LeCun团队让MMCR再进一步

重新定义自监督学习!LeCun团队让MMCR再进一步

近日,来自斯坦福、MIT、纽约大学和Meta-FAIR等机构的研究人员,通过新的研究重新定义了最大流形容量表示法(MMCR)的可能性。

来自主题: AI技术研报
4510 点击    2024-10-16 15:44
北大林宙辰团队全新混合序列建模架构MixCon:性能远超Mamba

北大林宙辰团队全新混合序列建模架构MixCon:性能远超Mamba

北大林宙辰团队全新混合序列建模架构MixCon:性能远超Mamba

在自然语言处理、语音识别和时间序列分析等众多领域中,序列建模是一项至关重要的任务。然而,现有的模型在捕捉长程依赖关系和高效建模序列方面仍面临诸多挑战。

来自主题: AI技术研报
6315 点击    2024-10-15 19:22
大模型合成数据机理分析,人大刘勇团队:信息增益影响泛化能力

大模型合成数据机理分析,人大刘勇团队:信息增益影响泛化能力

大模型合成数据机理分析,人大刘勇团队:信息增益影响泛化能力

在大语言模型(LLMs)后训练任务中,由于高质量的特定领域数据十分稀缺,合成数据已成为重要资源。虽然已有多种方法被用于生成合成数据,但合成数据的理论理解仍存在缺口。为了解决这一问题,本文首先对当前流行的合成数据生成过程进行了数学建模。

来自主题: AI技术研报
6674 点击    2024-10-15 18:38