AI资讯新闻榜单内容搜索-Multi

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: Multi
全球首款 AI 多人游戏来了!你的老电脑也能玩 | 附下载地址

全球首款 AI 多人游戏来了!你的老电脑也能玩 | 附下载地址

全球首款 AI 多人游戏来了!你的老电脑也能玩 | 附下载地址

以色列 Enigma Labs 团队今天在 X 平台宣称发布全球首款由 AI 生成的多人游戏——Multiverse(多重宇宙)。名字听起来就像漫威出品,玩法也确实够科幻。漂移、撞车,全都同步,操作互相响应,细节还能对上帧数。

来自主题: AI资讯
8215 点击    2025-05-09 14:53
细节直逼亚毫米级!港科广分层建模突破3D人体生成|CVPR 2025

细节直逼亚毫米级!港科广分层建模突破3D人体生成|CVPR 2025

细节直逼亚毫米级!港科广分层建模突破3D人体生成|CVPR 2025

从人体单图变身高保真3D模型,不知道伤害了多少程序猿头发的行业难题,竟然被港科广团队一招破解了!

来自主题: AI技术研报
6738 点击    2025-05-06 09:01
CVPR 2025 | CV 微调卷出天际,Mona:我小、我强、我省资源

CVPR 2025 | CV 微调卷出天际,Mona:我小、我强、我省资源

CVPR 2025 | CV 微调卷出天际,Mona:我小、我强、我省资源

Mona(Multi-cognitive Visual Adapter)是一种新型视觉适配器微调方法,旨在打破传统全参数微调(full fine-tuning)在视觉识别任务中的性能瓶颈。

来自主题: AI技术研报
6813 点击    2025-05-02 14:17
两个脑袋比一个好。自适应Multi-Agent框架M500实现41%的提升。| 最新

两个脑袋比一个好。自适应Multi-Agent框架M500实现41%的提升。| 最新

两个脑袋比一个好。自适应Multi-Agent框架M500实现41%的提升。| 最新

Two Heads are Better Than One"(两个脑袋比一个好/双Agent更优)源自英语中的一句古老谚语。MAS-TTS框架的研究者将这一朴素智慧应用到LLM中,创造性地让多个智能体协同工作,如同专家智囊团。

来自主题: AI技术研报
7468 点击    2025-04-19 13:39
Multi-Agents 系统太难搞了,不要轻易尝试 | UC Berkeley 论文分享

Multi-Agents 系统太难搞了,不要轻易尝试 | UC Berkeley 论文分享

Multi-Agents 系统太难搞了,不要轻易尝试 | UC Berkeley 论文分享

这两年,AI 领域最激动人心的进展莫过于大型语言模型(LLM)的崛起,LLM 展现了惊人的理解和生成能力。

来自主题: AI技术研报
8021 点击    2025-03-28 09:33
ICLR 2025 Spotlight | 慕尼黑工业大学&北京大学:迈向无冲突训练的ConFIG方法

ICLR 2025 Spotlight | 慕尼黑工业大学&北京大学:迈向无冲突训练的ConFIG方法

ICLR 2025 Spotlight | 慕尼黑工业大学&北京大学:迈向无冲突训练的ConFIG方法

在深度学习的多个应用场景中,联合优化多个损失项是一个普遍的问题。典型的例子包括物理信息神经网络(Physics-Informed Neural Networks, PINNs)、多任务学习(Multi-Task Learning, MTL)和连续学习(Continual Learning, CL)。然而,不同损失项的梯度方向往往相互冲突,导致优化过程陷入局部最优甚至训练失败。

来自主题: AI技术研报
8086 点击    2025-03-17 14:55
MM-Eureka:极少数据实现多模态推理的R1-Zero时刻

MM-Eureka:极少数据实现多模态推理的R1-Zero时刻

MM-Eureka:极少数据实现多模态推理的R1-Zero时刻

尽管 DeepSeek-R1 在单模态推理中取得了显著成功,但已有的多模态尝试(如 R1-V、R1-Multimodal-Journey、LMM-R1)尚未完全复现其核心特征。

来自主题: AI技术研报
7130 点击    2025-03-14 15:32
DeepSeek的MLA,任意大模型都能轻松迁移了

DeepSeek的MLA,任意大模型都能轻松迁移了

DeepSeek的MLA,任意大模型都能轻松迁移了

DeepSeek-R1 作为 AI 产业颠覆式创新的代表轰动了业界,特别是其训练与推理成本仅为同等性能大模型的数十分之一。多头潜在注意力网络(Multi-head Latent Attention, MLA)是其经济推理架构的核心之一,通过对键值缓存进行低秩压缩,显著降低推理成本 [1]。

来自主题: AI技术研报
4943 点击    2025-03-07 10:24
谷歌最新PlanGEN框架,开发自适应Multi-Agent,错过太可惜,不用邀请码

谷歌最新PlanGEN框架,开发自适应Multi-Agent,错过太可惜,不用邀请码

谷歌最新PlanGEN框架,开发自适应Multi-Agent,错过太可惜,不用邀请码

Agent这两天随着邀请码进入公众视野,展示了不凡的推理能力。然而,当面对需要精确规划和深度推理的复杂问题时,即使是最先进的LLMs也常常力不从心。Google研究团队提出的PlanGEN框架,正是为解决这一挑战而生。

来自主题: AI技术研报
2916 点击    2025-03-06 16:55