AI资讯新闻榜单内容搜索-模型训练

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 模型训练
Karpathy新实验火了!一个「表情」占53个token,DeepSeek-R1苦思10分解谜失败

Karpathy新实验火了!一个「表情」占53个token,DeepSeek-R1苦思10分解谜失败

Karpathy新实验火了!一个「表情」占53个token,DeepSeek-R1苦思10分解谜失败

一个简单的笑脸😀可能远不止这么简单?最近,AI大神Karpathy发现,一个😀竟然占用了多达53个token!这背后隐藏着Unicode编码的哪些秘密?如何利用这些「隐形字符」在文本中嵌入、传递甚至「隐藏」任意数据。更有趣的是,这种「数据隐藏术」甚至能对AI模型进行「提示注入」!

来自主题: AI技术研报
6120 点击    2025-02-14 10:21
单卡3090帮你一口气看完《黑悟空》,港大百度打造超长视频理解引擎VideoRAG

单卡3090帮你一口气看完《黑悟空》,港大百度打造超长视频理解引擎VideoRAG

单卡3090帮你一口气看完《黑悟空》,港大百度打造超长视频理解引擎VideoRAG

今天向大家介绍一项来自香港大学黄超教授实验室的最新科研成果 VideoRAG。这项创新性的研究突破了超长视频理解任务中的时长限制,仅凭单张 RTX 3090 GPU (24GB) 就能高效理解数百小时的超长视频内容。

来自主题: AI技术研报
5054 点击    2025-02-14 10:04
DeepSeek R1不编程就能生成GPU内核,比熟练工程师好,惊到了英伟达

DeepSeek R1不编程就能生成GPU内核,比熟练工程师好,惊到了英伟达

DeepSeek R1不编程就能生成GPU内核,比熟练工程师好,惊到了英伟达

这项尝试只用到了 R1 模型和基本验证器,没有针对 R1 的工具,没有对专有的英伟达代码进行微调。其实根据 DeepSeek 介绍,R1 的编码能力不算顶尖。

来自主题: AI技术研报
7071 点击    2025-02-13 15:18
清华一作1B暴打405B巨无霸,7B逆袭DeepSeek R1!测试时Scaling封神

清华一作1B暴打405B巨无霸,7B逆袭DeepSeek R1!测试时Scaling封神

清华一作1B暴打405B巨无霸,7B逆袭DeepSeek R1!测试时Scaling封神

【新智元导读】仅凭测试时Scaling,1B模型竟完胜405B!多机构联手巧妙应用计算最优TTS策略,不仅0.5B模型在数学任务上碾压GPT-4o,7B模型更是力压o1、DeepSeek R1这样的顶尖选手。

来自主题: AI技术研报
6961 点击    2025-02-13 14:18
推理模型新路线开源!与DeepSeek截然不同,抛弃思维链不用人类语言思考

推理模型新路线开源!与DeepSeek截然不同,抛弃思维链不用人类语言思考

推理模型新路线开源!与DeepSeek截然不同,抛弃思维链不用人类语言思考

开源推理大模型新架构来了,采用与Deepseek-R1/OpenAI o1截然不同的路线: 抛弃长思维链和人类的语言,直接在连续的高维潜空间用隐藏状态推理,可自适应地花费更多计算来思考更长时间。

来自主题: AI技术研报
6468 点击    2025-02-12 16:42
抛砖引玉 | 为什么DeepSeek-R1是推理模型?(万字长文)

抛砖引玉 | 为什么DeepSeek-R1是推理模型?(万字长文)

抛砖引玉 | 为什么DeepSeek-R1是推理模型?(万字长文)

这一篇文章来源于我自己的困惑而进行的探索和思考,再进行多次讨论后总觉隔靴搔痒,理解不透彻。 而在我自己整理后,发现已经有小伙伴点明了他们的区别。但是因为了解深度的不够,即使告诉了答案,我也无法理解,总有隔靴搔痒之感。

来自主题: AI技术研报
8812 点击    2025-02-12 16:26
AI已学会自我复制!复旦新研究:开源LLM克隆成功率最高90%

AI已学会自我复制!复旦新研究:开源LLM克隆成功率最高90%

AI已学会自我复制!复旦新研究:开源LLM克隆成功率最高90%

复旦新研究揭示了AI系统自我复制的突破性进展,表明当前的LLM已具备在没有人类干预的情况下自我克隆的能力。这不仅是AI超越人类的一大步,也为「流氓AI」埋下了隐患,带来前所未有的安全风险。

来自主题: AI技术研报
5746 点击    2025-02-12 12:05
推理成本比MoE直降83%!字节最新大模型架构入围ICLR 2025

推理成本比MoE直降83%!字节最新大模型架构入围ICLR 2025

推理成本比MoE直降83%!字节最新大模型架构入围ICLR 2025

字节出了个全新架构,把推理成本给狠狠地打了下去!推理速度相比MoE架构提升2-6倍,推理成本最高可降低83%。

来自主题: AI技术研报
5992 点击    2025-02-12 11:37
8卡32B模型超越o1预览版、DeepSeek V3,普林斯顿、北大提出层次化RL推理新范式

8卡32B模型超越o1预览版、DeepSeek V3,普林斯顿、北大提出层次化RL推理新范式

8卡32B模型超越o1预览版、DeepSeek V3,普林斯顿、北大提出层次化RL推理新范式

推理大语言模型(LLM),如 OpenAI 的 o1 系列、Google 的 Gemini、DeepSeek 和 Qwen-QwQ 等,通过模拟人类推理过程,在多个专业领域已超越人类专家,并通过延长推理时间提高准确性。推理模型的核心技术包括强化学习(Reinforcement Learning)和推理规模(Inference scaling)。

来自主题: AI技术研报
5685 点击    2025-02-12 11:33
开源22万条DeepSeek R1的高质量数据!你也能复现DeepSeek了

开源22万条DeepSeek R1的高质量数据!你也能复现DeepSeek了

开源22万条DeepSeek R1的高质量数据!你也能复现DeepSeek了

DeepSeek 在海内外搅起的惊涛巨浪,余波仍在汹涌。当中国大模型撕开硅谷的防线之后,在预设中总是落后半拍的中国 AI 军团,这次竟完成了一次反向技术输出,引发了全球范围内复现 DeepSeek 的热潮。

来自主题: AI技术研报
5897 点击    2025-02-11 14:52