• 简体   /   繁体
基于潜在空间生成器的联邦知识蒸馏-计算机应用研究2024年11期

基于潜在空间生成器的联邦知识蒸馏

作者:王虎 王晓峰 李可 字体:      

摘 要:用户的异质性对联邦学习(FL)构成了显著挑战,这可能导致全局模型偏移和收敛速度缓慢。针对此问题,提出一种结合知识蒸馏和潜在空间生成器的联邦学习方法(FedLSG)。该方法通过中央服务器学习一个搭载潜在空(试读)...

计算机应用研究

2024年第11期