2016年,谷歌AI在一篇技术博客文章中首次引入“联邦学习”的概念,随后这项技术开始在AI领域受到关注。
所谓“联邦学习”,就是允许多个参与者在不共享数据的情况下,构建一个通用强大的机器学习模型。
简单来说就是,通过“数据不动模型动”的方法,来解决如数据隐私、数据安全、数据访问权限和对异构数据访问等问题。此后“联邦学习”逐渐受到关注,推动了整个隐私计算技术架构的完善。
2012年,王爽在SCI期刊上发表了全球第一篇在线医疗联邦学习论文。这篇论文,也成为日后他在医疗隐私计算领域学术研究和工作方向的源头。
王爽发现,用“联邦学习”等手段从技术层面解决这个问题,可以实现“数据可用不可见”,进而大大提升信息化技术在医疗中的可用性。比如过去医院在治疗罕见病时往往受限于单中心数据量不够等问题,在解决了数据隐私问题后,就可以整合全行业数据为病人寻找最有效的治疗方案。“原来需要数周寻找治疗方案,现在可能会缩短至1天甚至更短。”王爽说。
当掌握隐私计算技术的极客跟医院的医生频繁交流后,隐私计算的技术也有了飞速迭代,“在技术性能上,每年都会有10倍的提升。”一个很明显的感受是,此前解决一个多方联合建模的问题需要1个小时,现在只需要1分钟。
领取专属 10元无门槛券
私享最新 技术干货