联邦学习(federated learning,FL)是指在保护数据隐私的前提下实现分布式多数据源模型训练的学习范式。由于各个数据源的统计异质性在现实场景下广泛存在,同时统计异质性也给联邦学习下合作式的模型学习带来了负面影响,甚至会损害模型性能。
因而,这也带来了一个基本问题:一个机构(client)加入合作网络能否获得增益,即参与合作是否意味着自身模型性能的提升。
事实上,一个机构并非总是与所有机构合作才能带来自身性能的最大化。清华大学三年级博士生崔森等人建立了联邦学习下的合作均衡理论,其中各个机构只与对其有利的机构合作,最大程度上避免负迁移的影响,从而实现自身模型性能的最大化。具体地,提出通过两个公理刻画合作均衡:自私原则:没有利益,就没有合作;理性原则:各个机构致力于最大化自身模型性能。他们还提出了增益图(benefit graph)的概念,描述了每个机构的最优合作者,并提出了一种基于帕累托优化的方法确定最优合作者。最后在理论上证明了合作均衡的存在性,并提出了一种基于图论的方法,实现 O(V+E) 时间复杂度下的合作均衡。
2022 年 8 月 10 日,机器之心最新一期线上分享邀请到了崔森,为大家详细解读联邦学习下的合作均衡。
分享主题:联邦学习下的合作均衡
分享嘉宾崔森,本科毕业于清华大学钱学森力学班,目前为清华大学信息学院博士三年级学生,师从清华大学张长水教授。主要研究方向为可信赖机器学习,包括算法公平性,鲁棒性,可解释性,和隐私保护等。他曾以第一作者身份在 SIGKDD、 NeurIPS 等机器学习会议上发表多篇论文,并担任 ICML、NeurIPS 等机器学习会议审稿人。
个人主页 https://cuis15.github.io,  非常期待与机器学习领域的学者经常交流探讨。
分享摘要由于公众对数据隐私的关切,合作式的联邦学习在当前受到机器学习领域学者的广泛关注。合作总会伴随着代价,却并不总是带来利益。从合作与博弈的角度出发,我们提出合作均衡的概念,并给出一个基于图论的合作均衡的实现框架。
相关论文:https://arxiv.org/pdf/2108.07926.pdf
分享时间2022 年 8 月 10 日 19:00-20:00
直播间:关注机动组视频号,北京时间2月24日开播。
交流群:本次直播设有 QA 环节,欢迎加入本次直播交流群探讨交流。
机器之心 · 机动组
机动组是机器之心发起的人工智能技术社区,聚焦于学术研究与技术实践主题内容,为社区用户带来技术线上公开课、学术分享、技术实践、走近顶尖实验室等系列内容。机动组也将不定期举办线下学术交流会与组织人才服务、产业技术对接等活动,欢迎所有 AI 领域技术从业者加入。
  • 点击阅读原文,访问机动组官网,观看往期回顾
  • 关注机动组服务号,获取每周直播预告。
继续阅读
阅读原文