摘要
本申请涉及人机交互技术领域,公开了一种基于AI声景调控的视听联动系统,该系统包括:复合感知组件,采集环境声学与观众生物特征;情感状态评估引擎,基于采集的特征更新观众的情感信念状态,并在信念状态不确定性高时,通过释放情感探针并监测生物特征变化,主动校准该状态;分层式策略引擎,根据信念状态生成导演意图与协同渲染行动;以及视听渲染组件,执行渲染行动以联动调控视听场景。该方法包括:采集多模态数据,评估并更新情感信念状态,判断不确定性并执行主动校准,进行分层式决策生成渲染指令,最终执行指令以实现视听联动,并形成闭环控制。本发明能够实现视听内容与观众内在情感的深度、实时、自适应耦合。