
机器人上下文协议首次开源:阿里达摩院一口气放出具身智能「三大件」
机器人上下文协议首次开源:阿里达摩院一口气放出具身智能「三大件」8 月 11 日,在世界机器人大会上,阿里达摩院宣布开源自研的 VLA 模型 RynnVLA-001-7B、世界理解模型 RynnEC、以及机器人上下文协议 RynnRCP ,推动数据、模型和机器人的兼容适配,打通具身智能开发全流程。
8 月 11 日,在世界机器人大会上,阿里达摩院宣布开源自研的 VLA 模型 RynnVLA-001-7B、世界理解模型 RynnEC、以及机器人上下文协议 RynnRCP ,推动数据、模型和机器人的兼容适配,打通具身智能开发全流程。
阿里巴巴达摩院提出了 WorldVLA, 首次将世界模型 (World Model) 和动作模型 (Action Model/VLA Model) 融合到了一个模型中。WorldVLA 是一个统一了文本、图片、动作理解和生成的全自回归模型。
这两天我快被AI医疗包围了。昨天那篇达摩院的AI医疗文章又一点小火,然后,就受邀来参加蚂蚁的AI医疗产品发布会了。
AI新进展,救命的那种。现在,只需做一次体检时常规的CT检查,再用AI分析,就有可能在癌症还没有露出明显症状之前——比如提前半年——把它揪出来。
刚刚,浙江省肿瘤医院联合阿里巴巴达摩院召开发布会,发布全球首个胃癌影像筛查AI模型DAMO GRAPE,首次利用平扫CT影像识别早期胃癌病灶,并联合全国20个中心近10万人的大规模临床研究中大幅提升胃癌检出率。相关成果登上国际顶级期刊《自然·医学》(Nature Medicine)。
本文第一作者为前阿里巴巴达摩院高级技术专家,现一年级博士研究生满远斌,研究方向为高效多模态大模型推理和生成系统。通信作者为第一作者的导师,UTA 计算机系助理教授尹淼。尹淼博士目前带领 7 人的研究团队,主要研究方向为多模态空间智能系统,致力于通过软件和系统的联合优化设计实现空间人工智能的落地。
算力砍半,视觉生成任务依然SOTA!
阿里通义实验室语音团队负责人鄢志杰已于近期离职,离职时间为2月15日,按照以前的P序列(原阿里内部职级体系)比照,其职级为P10。鄢志杰是智能语音领域的技术大牛。公开资料显示,2003年,鄢志杰大学本科毕业,升入中科大语音实验室,攻读博士学位,师从语音领域专家王仁华教授(科大讯飞创始人之一,曾任科大讯飞公司董事长)。
7B大小的视频理解模型中的新SOTA,来了!
DeepSeek的含金量还在上升,一个半个周末过去发生这些大事:国家超算互联网平台上线DeepSeek-R1,最高支持671B的满血版。达摩院玄铁芯片成功适配DeepSeek-R1系列蒸馏模型,在RISC-V架构CPU和端侧平台打开新的应用空间。