摘要
本发明涉及信息安全技术领域,特别涉及一种针对终端资源受限的联邦大模型个性化训练方法。包括:参数服务器端:位于参数服务器端的大模型包含多个层级,且每个大模型的层级设有一个权重矩阵;本地终端:对应大模型中的每个权重矩阵,在本地终端的每个工作节点部署一个对应的LoRA模块,并在本地终端增设一个Local Layer层;本地终端通过参数服务器端进行联邦大模型训练过程包括:S1.前向传播;S2.计算Loss;S3.反向传播。本发明利用参数服务器的计算、存储资源来帮助资源受限的多个终端实现对大模型的联邦训练。