用KFServing加速联邦学习模型的部署

2021-12-26 09:58:44 浏览数 (1)

12月初召开的 CNCF KubeCon 中国线上虚拟会议上,我们 VMware 云原生实验室的工程师王方驰和社区合作伙伴做了一个演讲分享:用KFServing加速联邦学习模型的部署。该演讲介绍了我们把联邦学习和云原生技术有机结合的方法,实现了安全可靠的云原生联邦学习平台,并且贡献到 FATE / KubeFATE 的开源项目中。

下面是相关内容、视频

http://mpvideo.qpic.cn/0bc3v4aciaaahaajs75uuvqvbl6desxqajaa.f10002.mp4?dis_k=4d0287912ec7639ac6485ce63e76bea2&dis_t=1640483743&vid=wxv_2175043526584041473&format_id=10002&support_redirect=0&mmversion=false

联邦学习 (FL) 是近年来发展最快的机器学习 (ML) 技术,它解决了数据孤岛问题,同时加强了隐私和安全性。与传统的机器学习相比,联邦学习通常部署在不同的站点/边缘,这意味着联邦学习推理服务需要一个高效且灵活的平台,以适应不同的框架和硬件。Kubeflow 的 KFServing 组件为本地推理提供了简单、高效、可插拔和全生命周期的解决方案,完全符合联邦学习的需要。KubeFATE 是 Linux 基金会的一个开源项目,在 Kubernetes 上提供 FL 的云原生管理,并与 Kubeflow 兼容。讲座将介绍使用 KFServing 为 KubeFATE 的联邦学习模型提供服务的实践,包括:

1. 简要介绍 Kubeflow、KFServing 和推断服务工作流程

2. 联邦学习基础,不同的联邦学习算法类型和用例

3. 演示如何从水平训练的联邦学习模型创建服务

0 人点赞