关键词:
联邦学习
图神经网络
鲁棒性
隐私保护
摘要:
图神经网络(GNNs)以其独特的图结构数据处理能力,在数据挖掘、推荐系统等图分类任务中得到了广泛应用。由于隐私法规与竞争关系对图数据在多方共享的制约,催生了联邦图学习(FGL),通过分布式训练打破图数据孤岛。然而,当前FGL仍面临双重挑战:客户端子图信息缺失与异构性影响模型训练效率,非完全可信环境中恶意客户端篡改本地数据、半诚实服务器推理攻击威胁隐私安全。针对上述问题,本文提出两种创新性方法,在数据异构场景下提升联邦图学习的效率并保证安全性与隐私性。主要研究内容如下:
1.基于预特征聚合的元联邦图学习方法(MetaFedPA)。针对联邦图学习中数据异构及少样本场景下模型泛化能力不足的问题,提出一种融合预特征聚合与模型无关元学习(MAML)的联邦图优化方法。具体来说,MetaFedPA首先通过一轮跨客户端特征聚合补全图结构信息,提升跨客户端边信息的利用率;随后,受深度学习中模型无关的元学习的启发,将联邦图学习中各非独立同分布的客户端视为MAML中独立的任务,利用元学习方法训练全局元模型参数,再将全局元模型参数作为初始化参数,进行较少轮次的联邦微调得到优化后的模型,以此来解决数据异构带来的影响,提升模型的训练效率和泛化性能。实验结果表明,该方法在Cora、CiteSeer、PubMed、Coauthor-CS等图基准数据集上,相较于其他对比方法的准确率有明显提升,尤其在少样本及数据非独立同分布场景下,模型性能得到明显增强。
2.具有隐私增强的双通道鲁棒图学习方法(DRGLP)。针对非可信环境中可能存在的客户端对本地数据及模型参数的攻击,以及服务器对客户端数据的成员推理攻击,对原始的均值聚合GNN模型进行了修改,提出了双通道图卷积架构:将均值聚合与截尾均值聚合分别应用于不同的图卷积网络层,通过注意力机制将二者结合,并动态调整权重,实现均值聚合最大程度保留信息与截尾均值聚合抵抗恶意攻击的平衡,确保元联邦图学习模型的鲁棒性。同时引入多密钥全同态加密(MKFHE)技术,确保客户端数据及模型参数在交互过程中的隐私性。大量实验表明,在施加不同程度的节点特征扰动与节点掩码攻击下,DRGLP的模型稳定性分数较单通道方法都有显著提升,尤其是在大规模数据集上具有更强的鲁棒性,验证了方法的有效性与鲁棒性。