视听分离SOTA提速6倍!清华发布首个6M高性能模型|ICLR'26
视听分离SOTA提速6倍!清华发布首个6M高性能模型|ICLR'26清华大学团队推出的Dolphin模型突破了「高性能必高能耗」的瓶颈:仅用6M参数(较主流模型减半),通过离散化视觉编码和物理启发的热扩散注意力机制,实现单次推理即可精准分离语音,速度提升6倍以上,在多项基准测试中刷新纪录,为智能助听器、手机等端侧设备部署高清语音分离开辟新路。
来自主题: AI技术研报
8098 点击 2026-02-14 10:28