摘要
本申请公开了一种神经网络持续学习方法和相关设备,包括:接收新输入样本写入短期记忆区,评估参数对已学任务的重要性以调节其训练可塑性,从长时/外部记忆区联想检索相关历史知识,与新样本混合回放训练,按规则在多记忆区间迁移知识至网络收敛。本申请以参数动态调节与历史知识回放双重保障攻克灾难性遗忘,避免旧任务性能下降。通过存储知识表征而非原始样本,结合适配任务的知识迁移规则,降低存储与计算成本,提升可扩展性;借联想检索实现新旧知识关联整合,增强泛化能力。构建多记忆区知识流通机制,让外部记忆深度参与训练,提升交互效率。整体平衡持续学习的高效性、稳定性与泛化性,显著优化神经网络持续学习性能。