首款诞生!用于医学图像分析的保护隐私的联邦学习系统来了

前言

为促进医学研究、保护数据隐私以及改善患者脑肿瘤识别结果,NVIDIA 携手伦敦国王学院(King’s College London)于2019年10月13日宣布推出首款用于医学图像分析的保护隐私的联邦学习系统( Federated Learning System),标志着在医疗健康 AI 领域实现了突破性进展。


NVIDIA人工智能计算公司

接下来就跟着小编一起来全方位了解这款用于医学图像分析的联邦学习系统吧。


联邦学习系统作用

成为医学专家的关键是临床经验的积累,需要在诊病过程中准确解释疾症成因,在紧急情况下知道该采取何种措施以及具体的治疗方法进行应对。


对于AI算法而言,经验的获得主要来自于大型、多样且高质量的数据集。但现实中医疗保健领域很难获得这样的数据集,数据源可能会由于仪器的不精准或有限的临床经验而有所偏差。


联邦学习系统可以使AI算法从位于不同站点的大量医疗数据中获得经验,使多个医疗机构可以在不直接共享临床数据的前提下进行联合建模,获得的联合模型精准度要比对通过单个医疗机构内部数据训练出的模型精准度更高。


联邦学习系统工作原理

联邦学习系统主要应用联邦学习技术,各医疗机构利用分散在多个位置的医疗数据对中心深度神经网络(DNN)进行训练。


联邦学习系统流程图

各节点负责训练其自身的本地模型,并定期提交给参数服务器。该服务器不断累积并聚合各自的贡献,进而创建一个全局模型分享给所有节点。该方法无需共享任何临床数据,支持各医疗机构针对共享模型开展协作。


联邦学习系统技术细节

联邦学习虽然可以保证极高的隐私安全性,但通过模型反演仍可以设法使数据重现。为了帮助提高联邦学习的安全性,研究人员试验了使用ε-差分隐私框架的可行性。该框架是一种正式定义隐私损失的方法,该方法可以借助其强大的隐私保障性来保护患者与机构数据。


此外,研究团队还将NVIDIA V100 Tensor Core GPU用于训练与推理。 相比于数据集中式系统,联邦学习所提供的方法可以在不共享机构数据的情况下实现相当大的分割性能。试验结果显示,隐私保护与受训模型质量之间产生了自然折中。而且,通过使用稀疏向量技术,联盟学习系统可以实现严格隐私保护,且对模型性能仅产生合理的轻微影响。


结语

深度学习是一种从医学数据中自动提取知识的强大技术,联邦学习有望有效聚合各医疗机构,并从私有数据中学习经验进一步提高深度模型的准确性、稳健性和通用化能力。


联邦学习系统的研究为部署安全联邦学习做出了巨大的推动,并将推动数据驱动型精准医学的进步。


PS:联邦学习系统相关的技术论文在 MICCAI (Medical Image Computing and Computer-Assisted Intervention)大会召开期间发布。该会议于 10 月 14 日在中国深圳拉开帷幕,是全球最高端的医学影像会议之一。


小编之后会继续跟进MICCAI 大会与联邦学习相关的技术内容,大家敬请期待!


相关资料链接:

1.https://blogs.nvidia.com/blog/2019/10/13/what-is-federated-learning/

2.https://news.developer.nvidia.com/first-privacy-preserving-federated-learning-system/

--END--

投稿或寻求报道:fedlearningai@163.com


请长按扫描上方二维码加关注,

我们为您送上源源不断的前沿知识!