在数据分布持续变化的动态环境中,如何进行连续模型泛化?
东京大学等高校的研究人员提出了名为Koodos的新框架,可以基于在一些随机时间点观测的数据分布,在任意时刻生成当下适用的神经网络。
尽管数据随时间持续发生变化,但是泛化的模型能在连续时间中与数据分布始终保持协调一致。
Koodos将模型的复杂非线性动态转化为可学习的连续动态系统,同时利用先验知识以确保泛化过程的稳定性和可控性。
实验表明,Koodos显著超越现有方法,为时域泛化开辟了全新的研究方向。
在实际应用中,数据集的数据分布往往随着时间而不断变化,预测模型需要持续更新以保持准确性。
时域泛化旨在预测未来数据分布,从而提前更新模型,使模型与数据同步变化。
领域泛化(Domain Generalization, DG)作为一种重要的机器学习策略,旨在学习一个能够在未见目标领域中也保持良好表现的模型。
近年来研究人员发现,在动态环境中,领域数据(Domain Data)分布往往具有显著的时间依赖性,这促使了时域泛化(Temporal Domain Generalization, TDG)技术的快速发展。
时域泛化将多个领域视为一个时间序列而非一组独立的静态个体,利用历史领域预测未来领域,从而实现对模型参数的提前调整,显著提升了传统DG方法的效果。
然而,现有的时域泛化研究集中在“离散时间域”假设下,即假设领域数据在固定时间间隔(如逐周或逐年)收集。
基于这一假设,概率模型被用于预测时域演变,例如通过隐变量模型生成未来数据,或利用序列模型(如LSTM)预测未来的模型参数。
然而在现实中,领域数据的观测并不总是在离散、规律的时间点上,而是随机且稀疏地分布在连续时间轴上。
例如在下图展示的示例中,与传统TDG假设的领域在时间轴上规律分布不同,实际情况下人们只能在特定事件发生时获得一个域,而这些事件的发生时间并不固定。
同时,概念漂移(Concept Drift)在时间轴上发生,即领域数据分布随着时间不断演变:如活跃用户增加、新交互行为形成、年龄与性别分布变化等。
理想情况下,每个时态域对应的预测模型也应随时间逐渐调整,以应对这种概念漂移。
最后,由于未来的域采集时间未知,作者希望泛化预测模型到未来的任意时刻。
此外,传统方法也难以保证泛化过程在整个时间流中保持稳定和可控。
为了应对这些场景中的模型泛化,作者提出了“连续时域泛化”(Continuous Temporal Domain Generalization, CTDG)任务,其中观测和未观测的领域均分布于连续时间轴上随机的时间点。
CTDG关注于如何表征时态领域的连续动态,使得模型能够在任意时间点实现稳定、适应性的调整,从而完成泛化预测。
CTDG任务的挑战远超传统的TDG方法。
CTDG不仅需要处理不规律时间分布的训练域,更重要的是,它旨在让模型泛化到任意时刻,即要求在连续时间的每个点上都能精确描述模型状态。
而TDG方法则仅关注未来的单步泛化:在观测点优化出当前模型状态后,只需将其外推一步即可。
这使得CTDG区别于TDG任务——
CTDG的关键在于如何在连续时间轴上同步数据分布和模型参数的动态演变,而不是仅局限于未来某一特定时刻的模型表现。
具体而言,与TDG任务相比,CTDG的复杂性主要来自以下几个尚未被充分探索的核心挑战:
接下来具体分析一下这三大挑战。
CTDG要求在连续时间轴上捕捉领域数据的动态,并据此同步调整模型状态。
然而,数据动态本身难以直接观测,需要通过观测时间点来学习。
此外,模型动态的演变过程也同样复杂。理解数据演变如何驱动模型演变构成了CTDG的首要挑战。
领域数据的预测模型通常依赖过参数化(over-parametrized)的深度神经网络,模型动态因此呈现出高维、非线性的复杂特征。
这导致模型的主动态嵌藏在大量潜在维度中。
如何有效提取并将这些主动态映射到可学习的空间,是CTDG任务中的另一重大挑战。
为实现未来任意时刻的泛化,CTDG必须确保模型的长期稳定性。
此外,在许多情况下,人们可能拥有数据动态的高层次先验知识。
如何将这些先验知识嵌入CTDG的优化过程中,进而提升泛化的稳定性和可控性,是一个重要的开放性问题。
作者提出的方法通过模型与数据的同步、动态简化表示,以及高效的联合优化展开。
具体思路如下:
作者对多个组件同时施加约束确保模型能稳定泛化,其中包含以下关键项:
此外,还可以在库普曼算子中施加约束来控制模型的动态行为。
通过观察库普曼算子的特征值,可以判断系统是否稳定:
通过分析这些特征值的分布,可以预测系统的长期行为,识别模型在未来是否可能出现崩溃的风险。
此外,还可以通过对库普曼算子施加显式约束来调控模型的动态行为。例如:
通过这些手段,不仅提高了泛化的长期稳定性,还增强了模型在特定任务中的可控性。
为验证算法效果,作者使用了合成数据集和多种真实世界场景的数据集:
合成数据集包括 Rotated 2-Moons 和 Rotated MNIST 数据集,通过在连续时间区间内随机生成时间戳,并对 Moons 和 MNIST 数据按时间戳逐步旋转生成连续时域。
真实世界数据集则包括以下三类:
作者首先对比了Koodos方法与各基线方法的定量性能。
下表显示,Koodos方法在所有数据集上展现了显著的性能提升。
在合成数据集上,Koodos能够轻松应对持续的概念漂移,而所有基线方法在这种场景下全部失效。
在真实世界数据集上,尽管某些基线方法(如 CIDA、DRAIN和DeepODE)在少数场景中略有表现,但其相较于简单方法(如Offline)的改进非常有限。
相比之下,Koodos显著优于所有现有方法,彰显出在时域泛化任务中考虑分布连续变化的关键作用。
为直观展示泛化效果,作者在Rotated 2-Moons数据集上进行了决策边界的可视化。
该任务具有极高难度:模型需在0到35秒左右的35个连续时域上训练,随后泛化到不规律分布在35到50秒的15个测试域。而现有方法通常只能泛化至未来的一个时域(T+1),且难以处理不规律的时间分布。
下图展示了从15个测试域中选取了7个进行可视化测试的结果(紫色和黄色表示数据区域,红线表示决策边界)。
结果清晰地表明,基线方法在应对连续时域的动态变化时表现不足。随着时间推进,决策边界逐渐偏离理想状态。
尤其是最新的DRAIN方法(ICLR23)在多步泛化任务中明显失效。
相比之下,Koodos在所有测试域上展现出卓越的泛化能力,始终保持清晰、准确的决策边界,与实际数据分布变化高度同步。
这一效果突显了Koodos在时域泛化任务中的优势。
为更深入地分析模型的泛化能力,作者通过t-SNE降维,将不同方法的模型参数的演变过程(Model Evolution Trajectory)在隐空间中可视化。
可以看出,Koodos的轨迹呈现出平滑而有规律的螺旋式上升路径,从训练域平滑延伸至测试域。
这一轨迹表明,Koodos能够在隐空间中有效捕捉数据分布的连续变化,并随时间自然地扩展泛化。
相比之下,基线模型的轨迹在隐空间中缺乏清晰结构,随着时间推移,逐渐出现明显的偏离,未能形成一致的动态模式。
在 Koodos 模型中,库普曼算子为分析模型动态提供了有效手段。
作者对Koodos在2-Moons数据集上分析表明,库普曼算子的特征值在复平面上分布在稳定区和不稳定区。
这意味着Koodos在中短期内能稳定泛化,但在极长时间的预测上将会逐渐失去稳定性,偏离预期路径(下图b)。
为提升模型的稳定性,作者通过将库普曼算子配置为反对称矩阵(即Koodos+版本),确保所有特征值为纯虚数,使模型具有周期性稳定特性。
在这一配置下,Koodos+展现出高度一致的轨迹,即使在长时间外推过程中依然保持稳定和准确,证明了引入先验知识对增强模型稳健性的效果(下图c)。
(a:部分训练域数据;b:不受控,模型最终偏离预期;c:受控,模型始终稳定且准确。)
时域泛化与生成式模型任务有天然的关联,Koodos所具备的泛化能力能够为神经网络生成技术带来新的可能。
Koodos的应用并不局限于时域泛化,它也可以适用于其他分布变化的任务中。
作者计划探索其在非时态领域的应用。
同时,作者也将探索时域泛化在大模型中的集成,帮助LLM在复杂多变的分布中保持鲁棒性和稳定性。
论文地址:
https://arxiv.org/pdf/2405.16075
GitHub:
https://github.com/Zekun-Cai/Koodos/
文章来自于“量子位”,作者“蔡泽坤”。