AI资讯新闻榜单内容搜索-模型

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索: 模型
自进化零监督多Agent框架: MAS-ZERO,让AI因地制宜动态适应

自进化零监督多Agent框架: MAS-ZERO,让AI因地制宜动态适应

自进化零监督多Agent框架: MAS-ZERO,让AI因地制宜动态适应

主席在《矛盾论》中强调"具体问题具体分析,是Marxism的活的灵魂"。而在AI领域,我们终于有了一个能够践行这一哲学思想的技术框架——MAS-ZERO,帮我们构建能够因地制宜、因时制宜的智能系统。

来自主题: AI技术研报
5881 点击    2025-05-30 12:03
Linear-MoE:线性注意力遇上混合专家的开源实践

Linear-MoE:线性注意力遇上混合专家的开源实践

Linear-MoE:线性注意力遇上混合专家的开源实践

来自上海人工智能实验室团队的最新成果 Linear-MoE,首次系统性地实现了线性序列建模与 MoE 的高效结合,并开源了完整的技术框架,包括 Modeling 和 Training 两大部分,并支持层间混合架构。为下一代基础模型架构的研发提供了有价值的工具和经验。

来自主题: AI技术研报
7272 点击    2025-05-30 12:03
为什么人们喜欢鉴定AI?

为什么人们喜欢鉴定AI?

为什么人们喜欢鉴定AI?

文章探讨人们对AI生成内容的鉴定行为本质:技术层面无意义,因AI可精准模仿人类风格,而内容价值应取决于质量而非来源。分析鉴定行为源于人类中心主义偏见和社会表演需求,预测未来实质性鉴定将消失,但表演性鉴定会因社交攀比持续存在。

来自主题: AI资讯
5400 点击    2025-05-30 11:21
今天的寒门,是不懂AI的家庭

今天的寒门,是不懂AI的家庭

今天的寒门,是不懂AI的家庭

“今天的寒门,是不懂AI的家庭”,这个观点一落入眼帘,就抓住了海淀妈妈郑瑞虹的注意。

来自主题: AI资讯
7804 点击    2025-05-29 16:57
还得是华为!Pangu Ultra MoE架构:不用GPU,你也可以这样训练准万亿MoE大模型

还得是华为!Pangu Ultra MoE架构:不用GPU,你也可以这样训练准万亿MoE大模型

还得是华为!Pangu Ultra MoE架构:不用GPU,你也可以这样训练准万亿MoE大模型

Pangu Ultra MoE 是一个全流程在昇腾 NPU 上训练的准万亿 MoE 模型,此前发布了英文技术报告[1]。最近华为盘古团队发布了 Pangu Ultra MoE 模型架构与训练方法的中文技术报告,进一步披露了这个模型的细节。

来自主题: AI技术研报
7796 点击    2025-05-29 16:47
RSS 2025|从说明书学习复杂机器人操作任务:NUS邵林团队提出全新机器人装配技能学习框架Manual2Skill

RSS 2025|从说明书学习复杂机器人操作任务:NUS邵林团队提出全新机器人装配技能学习框架Manual2Skill

RSS 2025|从说明书学习复杂机器人操作任务:NUS邵林团队提出全新机器人装配技能学习框架Manual2Skill

视觉语言模型(Vision-Language Models, VLMs),为真实环境中的机器人操作任务提供了极具潜力的解决方案。

来自主题: AI技术研报
7824 点击    2025-05-29 16:33
市盈率超 500 倍,AI 巨头 Palantir 的璀璨与迷思

市盈率超 500 倍,AI 巨头 Palantir 的璀璨与迷思

市盈率超 500 倍,AI 巨头 Palantir 的璀璨与迷思

全球最贵估值科技公司,AI 巨头 Palantir 如何合理定价?

来自主题: AI技术研报
9001 点击    2025-05-29 15:18