AI技术研报-这里有最前沿的人工智能技术解读

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
南大等8家单位,38页、400+参考文献,物理模拟器与世界模型驱动的机器人具身智能综述

南大等8家单位,38页、400+参考文献,物理模拟器与世界模型驱动的机器人具身智能综述

南大等8家单位,38页、400+参考文献,物理模拟器与世界模型驱动的机器人具身智能综述

本文作者来自:南京大学、香港大学、中南大学、地平线、中国科学院计算所、上海交通大学、慕尼黑工业大学、清华大学。

来自主题: AI技术研报
7044 点击    2025-07-15 15:25
谷歌T5Gemma重燃架构之战!「套壳」反杀Gemma本尊,9B推理快得离谱

谷歌T5Gemma重燃架构之战!「套壳」反杀Gemma本尊,9B推理快得离谱

谷歌T5Gemma重燃架构之战!「套壳」反杀Gemma本尊,9B推理快得离谱

Google双线出击!T5Gemma重燃encoder-decoder架构战火,性能暴涨12分;MedGemma坚守decoder-only路线,强攻医疗多模态,击穿闭源壁垒。Gemma体系完成「架构+落地」双重进化,打响Google开源反击战。

来自主题: AI技术研报
6154 点击    2025-07-15 15:05
彻底压榨潜能!我用 Kimi K2 写了一套前端组件库

彻底压榨潜能!我用 Kimi K2 写了一套前端组件库

彻底压榨潜能!我用 Kimi K2 写了一套前端组件库

大家好,我是歸藏(guizang),今天展示一下我用 Kimi K2 实现的一套组件库,以及K2 替代 Claude Code 的默认模型的教程补充。

来自主题: AI技术研报
7254 点击    2025-07-15 13:33
微软研究了20万Copilot真实对话:AI到底改变了哪些工作?

微软研究了20万Copilot真实对话:AI到底改变了哪些工作?

微软研究了20万Copilot真实对话:AI到底改变了哪些工作?

每当我们讨论AI对就业的影响时,大多数都是专家拍脑袋的预测。但微软研究院的这篇论文不一样,他们分析了20万个真实的Microsoft bing Copilot用户对话,每一个数据点背后都是一个真实的人,一个真实的工作场景,首次用硬数据告诉我们:AI到底在改变什么工作?哪些工作活动和职业正在被生成式AI(Generative AI)最大程度地影响?

来自主题: AI技术研报
6190 点击    2025-07-15 12:18
首次综述「边-云协同计算」,分布式智能与模型优化的最新进展

首次综述「边-云协同计算」,分布式智能与模型优化的最新进展

首次综述「边-云协同计算」,分布式智能与模型优化的最新进展

边缘-云协同计算通过整合边缘节点和云端资源,解决了传统云计算的延迟和带宽问题,推动了分布式智能和模型优化的发展。最新综述论文系统梳理了ECCC的架构设计、模型优化、资源管理、隐私安全和实际应用,提出了统一的分布式智能与模型优化框架,为未来研究提供了方向,包括大语言模型部署、6G整合和量子计算等前沿技术。

来自主题: AI技术研报
6771 点击    2025-07-15 11:43
用子模优化做文本选择、段落重排和上下文工程

用子模优化做文本选择、段落重排和上下文工程

用子模优化做文本选择、段落重排和上下文工程

在上一篇关于子模优化与多样化查询的文章发表后,我们收到了来自圈内很多积极的反馈,希望我们能多聊聊子模性(submodularity)和子模优化,尤其是在信息检索和 Agentic Search 场景下的更多应用。

来自主题: AI技术研报
7786 点击    2025-07-15 11:05
智能之镜:NeuroAI如何反映大脑与人工智能的未来

智能之镜:NeuroAI如何反映大脑与人工智能的未来

智能之镜:NeuroAI如何反映大脑与人工智能的未来

在大语言模型能力如此强大的背景下,AI与神经科学之间的联系变得前所未有地重要,催生了一个新兴领域:NeuroAI。它关注两个角度的问题:

来自主题: AI技术研报
7315 点击    2025-07-15 10:32
AI进化时间表已现!LLM每7个月能力翻倍,2030年职场不复存在?

AI进化时间表已现!LLM每7个月能力翻倍,2030年职场不复存在?

AI进化时间表已现!LLM每7个月能力翻倍,2030年职场不复存在?

LLM正以前所未有的速度进化:METR发现,它们的智能每7个月就翻一番。到了2030年,一个模型可能只需几小时,就能搞定人类工程师几个月的工作。别眨眼,你的岗位或许已在倒计时中。

来自主题: AI技术研报
6168 点击    2025-07-15 10:24
比Adam更有效,POET从谱不变原理出发,让LLM训练又稳又快

比Adam更有效,POET从谱不变原理出发,让LLM训练又稳又快

比Adam更有效,POET从谱不变原理出发,让LLM训练又稳又快

Zeju Qiu和Tim Z. Xiao是德国马普所博士生,Simon Buchholz和Maximilian Dax担任德国马普所博士后研究员

来自主题: AI技术研报
8033 点击    2025-07-15 10:11
ICCV 2025 | 清华&腾讯混元X发现「视觉头」机制:仅5%注意力头负责多模态视觉理解

ICCV 2025 | 清华&腾讯混元X发现「视觉头」机制:仅5%注意力头负责多模态视觉理解

ICCV 2025 | 清华&腾讯混元X发现「视觉头」机制:仅5%注意力头负责多模态视觉理解

多模态大模型通常是在大型预训练语言模型(LLM)的基础上扩展而来。尽管原始的 LLM 并不具备视觉理解能力,但经过多模态训练后,这些模型却能在各类视觉相关任务中展现出强大的表现。

来自主题: AI技术研报
5771 点击    2025-07-15 10:07
10项评测痛打GPT-4o!智源重磅开源全球最强具身智能大脑

10项评测痛打GPT-4o!智源重磅开源全球最强具身智能大脑

10项评测痛打GPT-4o!智源重磅开源全球最强具身智能大脑

最强具身大脑,宝座易主!在10项评测中,国产RoboBrain 2.0全面超越GPT-4o。这次,智源研究院开源了具身大脑RoboBrain 2.0 32B版本以及跨本体大小脑协同框架RoboOS 2.0单机版。不仅问鼎评测基准SOTA,还成功刷新跨本体多机协作技术范式!

来自主题: AI技术研报
7151 点击    2025-07-14 16:12
ACL 2025|自我怀疑还是自我纠正?清华团队揭示LLMs反思技术的暗面

ACL 2025|自我怀疑还是自我纠正?清华团队揭示LLMs反思技术的暗面

ACL 2025|自我怀疑还是自我纠正?清华团队揭示LLMs反思技术的暗面

反思技术因其简单性和有效性受到了广泛的研究和应用,具体表现为在大语言模型遇到障碍或困难时,提示其“再想一下”,可以显著提升性能 [1]。然而,2024 年谷歌 DeepMind 的研究人员在一项研究中指出,大模型其实分不清对与错,如果不是仅仅提示模型反思那些它回答错误的问题,这样的提示策略反而可能让模型更倾向于把回答正确的答案改错 [2]。

来自主题: AI技术研报
6168 点击    2025-07-14 15:40
这个AI精准模拟人类行为大脑状态,上Nature了

这个AI精准模拟人类行为大脑状态,上Nature了

这个AI精准模拟人类行为大脑状态,上Nature了

首个能跨领域精准预测人类认知的基础模型诞生!

来自主题: AI技术研报
6115 点击    2025-07-14 12:00
AI失忆术!只需3个注意力头,就能让大模型忘记「狗会叫」

AI失忆术!只需3个注意力头,就能让大模型忘记「狗会叫」

AI失忆术!只需3个注意力头,就能让大模型忘记「狗会叫」

AI也能选择性失忆?Meta联合NYU发布新作,轻松操控缩放Transformer注意头,让大模型「忘掉狗会叫」。记忆可删、偏见可调、安全可破,掀开大模型「可编辑时代」,安全边界何去何从。

来自主题: AI技术研报
5774 点击    2025-07-14 11:34
万字追问:逆向设计人类智能,会成就下一代AI吗?

万字追问:逆向设计人类智能,会成就下一代AI吗?

万字追问:逆向设计人类智能,会成就下一代AI吗?

现在人工智能领域面临的最大挑战是广义的具身智能,即使你并不特别关心大脑本身……

来自主题: AI技术研报
4578 点击    2025-07-14 11:15
VLA 推理新范式!一致性模型 CEED-VLA 实现四倍加速!

VLA 推理新范式!一致性模型 CEED-VLA 实现四倍加速!

VLA 推理新范式!一致性模型 CEED-VLA 实现四倍加速!

近年来,视觉 - 语言 - 动作(Vision-Language-Action, VLA)模型因其出色的多模态理解与泛化能力,已成为机器人领域的重要研究方向。尽管相关技术取得了显著进展,但在实际部署中,尤其是在高频率和精细操作等任务中,VLA 模型仍受到推理速度瓶颈的严重制约。

来自主题: AI技术研报
5793 点击    2025-07-14 11:12
EasyCache:无需训练的视频扩散模型推理加速——极简高效的视频生成提速方案

EasyCache:无需训练的视频扩散模型推理加速——极简高效的视频生成提速方案

EasyCache:无需训练的视频扩散模型推理加速——极简高效的视频生成提速方案

近年来,随着扩散模型(Diffusion Models)和扩散 Transformer(DiT)在视频生成领域的广泛应用,AI 合成视频的质量和连贯性有了飞跃式提升。像 OpenAI Sora、HunyuanVideo、Wan2.1 等大模型,已经能够生成结构清晰、细节丰富且高度连贯的长视频内容,为数字内容创作、虚拟世界和多媒体娱乐带来了巨大变革。

来自主题: AI技术研报
5802 点击    2025-07-14 10:42
告别Transformer!北大、北邮、华为开源纯卷积DiC:3x3卷积实现SOTA性能,比DiT快5倍!

告别Transformer!北大、北邮、华为开源纯卷积DiC:3x3卷积实现SOTA性能,比DiT快5倍!

告别Transformer!北大、北邮、华为开源纯卷积DiC:3x3卷积实现SOTA性能,比DiT快5倍!

当整个 AI 视觉生成领域都在 Transformer 架构上「卷生卷死」时,一项来自北大、北邮和华为的最新研究却反其道而行之,重新审视了深度学习中最基础、最经典的模块——3x3 卷积。

来自主题: AI技术研报
6289 点击    2025-07-14 10:25
AI编程「反直觉」调研引300万围观!开发者坚信提速20%,实测反慢19%

AI编程「反直觉」调研引300万围观!开发者坚信提速20%,实测反慢19%

AI编程「反直觉」调研引300万围观!开发者坚信提速20%,实测反慢19%

随着大模型的崛起,AI编程领域正在发生翻天覆地的变化。各种编程大模型、编程工具涌现,通过自动补全代码、自动 debug 等实用的功能为开发者的日常工作提供极大便利,并在一定程度上提升了开发效率。

来自主题: AI技术研报
5889 点击    2025-07-13 13:24
攻克「恶意投毒」攻击!华南理工联合霍普金斯和UCSD,连登TPAMI、TIFS顶刊

攻克「恶意投毒」攻击!华南理工联合霍普金斯和UCSD,连登TPAMI、TIFS顶刊

攻克「恶意投毒」攻击!华南理工联合霍普金斯和UCSD,连登TPAMI、TIFS顶刊

华南理工大学计算机学院AI安全团队长期深耕于人工智能安全,近期联合约翰霍普金斯大学和加州大学圣地亚戈分校聚焦于联邦学习中防范恶意投毒攻击,产出工作连续发表于AI顶刊TPAMI 2025和网络安全顶刊TIFS 2025。

来自主题: AI技术研报
5907 点击    2025-07-13 11:45
无Tokenizer时代真要来了?Mamba作者再发颠覆性论文,挑战Transformer

无Tokenizer时代真要来了?Mamba作者再发颠覆性论文,挑战Transformer

无Tokenizer时代真要来了?Mamba作者再发颠覆性论文,挑战Transformer

最近,Mamba 作者之一 Albert Gu 又发新研究,他参与的一篇论文《 Dynamic Chunking for End-to-End Hierarchical Sequence Modeling 》提出了一个分层网络 H-Net,其用模型内部的动态分块过程取代 tokenization,从而自动发现和操作有意义的数据单元。

来自主题: AI技术研报
6007 点击    2025-07-13 11:37