摘要
本申请公开了基于多模态统一嵌入空间引导的听话人视频生成方法,方法包括:获取说话人的第一真实视频,并提取对应的视频特征和音频特征作为发起用户特征;通过预先训练的情感预测模型,根据发起用户特征进行情感预测,得到听话人的接收情感特征;通过模态自适应混合专家编码器,将发起用户特征与接收情感特征融合,得到融合特征;通过预先训练的动作生成模型,基于交叉注意力层,根据融合特征生成听话人对应的动作数据;根据动作数据进行渲染,生成听话人对应的头部视频。专注于生成核心的动作数据,而非直接生成原始像素视频,后续渲染步骤相对独立,降低了实时生成的计算复杂度,提升了响应的实时性潜力。