郑重声明:原文参见标题,如有侵权,请联系作者,将会撤销发布! 以下是对本文关键部分的摘抄翻译,详情请参见原文. arXiv:1910.06378v1 [cs.LG] 14 Oct 2019 Abstract 联邦学习是现代大规模机器学习中的一个关键场景.在这种情况下,训练数据仍然分布在大量的客户机上,这些客户机可能是电话.其他移动设备或网络传感器,并且在不通过网络传输客户机数据的情况下学习集中式模型.此方案中使用的标准优化算法是联邦平均(FedAvg).然而,当客户端数据是异质的(这在应用程序中…
Sunwoo Lee, , Anit Kumar Sahu, Chaoyang He, and Salman Avestimehr. "Partial Model Averaging in Federated Learning: Performance Guarantees and Benefits." (2022). 简介 传统FedAvg算法下,SGD的多轮本地训练会导致模型差异增大,从而使全局loss收敛缓慢.本文作者提出每次本地用户更新后,仅对部分网络参数进行聚合,从而降低模型…
核心问题:如果每个用户只有一类数据,如何进行联邦学习? Felix X. Yu, , Ankit Singh Rawat, Aditya Krishna Menon, and Sanjiv Kumar. "Federated Learning with Only Positive Labels." (2020). 简述 在联邦学习中,如果每个用户节点上只有一类数据,那么在本地训练时会将任何数据映射到对应标签,此时使用分布式SGD或FedAvg算法学习分类器会导致整体学习失效.为了安全性…
In federated learning, multiple client devices jointly learn a machine learning model: each client device maintains a local model for its local training dataset, while a master device maintains a global model via aggregating the local models from the…
A Survey on Federated Learning: The Journey From Centralized to Distributed On-Site Learning and Beyond Author Sawsan AbdulRahman, Hanine Tout, Hakima Ould-Slimane, Azzam Mourad, Chamseddine Talhi, Mohsen Guizani Keywords AI; DL; distributed intellig…
联邦学习简介        联邦学习(Federated Learning)是一种新兴的人工智能基础技术,在 2016 年由谷歌最先提出,原本用于解决安卓手机终端用户在本地更新模型的问题,其设计目标是在保障大数据交换时的信息安全.保护终端数据和个人数据隐私.保证合法合规的前提下,在多参与方或多计算结点之间开展高效率的机器学习.其中,联邦学习可使用的机器学习算法不局限于神经网络,还包括随机森林等重要算法.联邦学习有望成为下一代人工智能协同算法和协作网络的基础. 联邦学习的系统构架       以包…
本文链接:https://blog.csdn.net/Sinsa110/article/details/90697728代码微众银行+杨强教授团队的联邦学习FATE框架代码:https://github.com/WeBankFinTech/FATE谷歌联邦迁移学习TensorFlow Federated (TFF)框架代码:https://www.tensorflow.org/federated/论文Towards Federated Learning at Scale: System Desi…
挖个大坑,等有空了再回来填.心心念念的大综述呀(吐血三升)! 郑重声明:原文参见标题,如有侵权,请联系作者,将会撤销发布! 项目地址:https://github.com/open-intelligence/federated-learning-chinese 具体内容参见项目地址,欢迎大家在项目的issue上提出问题!!! Abstract 联邦学习(FL)是一种机器学习环境,其中许多客户端(如移动设备或整个组织)在中央服务器(如服务提供商)的协调下协同训练模型,同时保持训练数据去中心化.FL…
郑重声明:原文参见标题,如有侵权,请联系作者,将会撤销发布! arXiv:1908.07873v1 [cs.LG] 21 Aug 2019 Abstract 联邦学习包括通过远程设备或孤立的数据中心(如移动电话或医院)训练统计模型,同时保持数据本地化.在异构和潜在的大规模网络中进行训练带来了新的挑战,这些挑战的要求从根本上偏离了大规模机器学习.分布式优化和隐私保护数据分析的标准方法.在这篇文章中,我们讨论了联邦学习的独特特点和挑战,对当前的方法进行了广泛的概述,并概述了与广泛的研究界相关的未来工…
郑重声明:原文参见标题,如有侵权,请联系作者,将会撤销发布! 以下是对本文关键部分的摘抄翻译,详情请参见原文. NeurIPS 2019 Workshop on Federated Learning for Data Privacy and Confidentiality, Vancouver, Canada. Abstract 我们解决了非i.i.d.情况下的联邦学习问题,在这种情况下,局部模型漂移,抑制了学习.基于与终身学习的类比,我们将灾难性遗忘的解决方案改用在联邦学习上.我们在损失函数中…