ICLR 2024 | 联邦学习后门攻击的模型关键层 ICLR 2024 | 联邦学习后门攻击的模型关键层 关键词: 模型训练,ICLR,良性模型,数据集 联邦学习使多个参与方可以在数据隐私得到保护的情况下训练机器学习模型。但是由于服务器无法监控参与者在本地进行的训练过程,参与者可以篡改本地训练模型,从而对联邦学习的全局模型构成安全序隐患,如后门攻击。 来自主题: AI技术研报 4081 点击 2024-04-06 15:16