联邦学习开源框架FATE新版本发布!配套引擎EggRoll焕新登场

引文:

联邦学习开源框架FATE新版本发布!配套引擎EggRoll焕新登场。如何在保证本地训练数据不公开的前提下 , 实现多个数据拥有者协同训练一个共享的机器学习模型?传统的机器学习方法需要将所有的数据集中到一个地方(例如数据中心) , 然后进行机器学习模型的训练 。 但这种基于集中数据的做法无疑会严重侵害用户隐私和数据安全 。 如今 , 世界上越来越多的人开始强烈要求科技公司必须根据用户隐私法律法规妥善地处理用户的数据 , 欧盟的《通用数据保护条例》是一个很好的例子 。 而联邦学习这门技术 , 则可以将分布式机器学习、密码学、基于金融规则的激励机制和博弈论结合起来 , 从而解决分散数据的使用问题 。 FATE(FederatedAITechnologyEnabler)作为全球首个联邦学习的工业级开源框架 , 实现了同态加密和多方计算(MPC)的安全计算协议 , 其支持联邦学习架构 , 内置了多种机器学习算法的联邦学习实现 , FATE的每一次更新迭代 , 都在一定程度上代表着联邦学习的前进方向 。

正文:

近日 , 全球首个联邦学习工业级开源框架FATE(FederatedAITechnologyEnabler)正式迎来了1.4新版本发布 。 在这一版本中 , FATE着重提升了用户在真实建模中的体验 , 横向联邦增加了对Secureboost树算法的支持 , 纵向联邦广义线性模型系列则增加了对基于AIC及BIC进行逐步回归模型选择的全面支持 , 纵向联邦分箱也新增了最优分箱方法 , 支持iv\gini\chi-square\ks , 同时 , 作为FATE计算/存储/通信引擎的EggRoll也迎来了全新的2.0 , 稳定性、性能以及用户体验显著提升 。 作为侧重点在完善FATE可用性的这一版本 , 相信能为开发者带来更为流畅的使用体验 。

主要更新点介绍:

1.横向联邦新增对Secureboost树算法的支持 , 开发者可以在用户数据特征相同的横向场景下构建GBDT模型 , 自此 , FATE框架中树算法得以进一步完善 , 现在FATE的树算法已可支持所有的联邦场景;

2.纵向联邦广义线性模型系列 , 现已全面支持基于AIC及BIC进行逐步回归模型选择 , 在平衡线性模型参数量与效果的场景中 , 将会自动选取特征组合 , 减少选取模型过程中人工操作次数 , 提升开发者的使用体验;

3.纵向联邦分箱支持最优分箱方法 , 支持iv\gini\chi-square\ks , 开发者从这一版本起 , 就可以在纵向联邦分箱中使用最优分箱方法了 , 特征工程的分箱方法进一步丰富化 , 相信能让开发者更直观感受到FATE建模过程中的实用性;

4.AI生态互操作:横向联邦NN支持pytorchbackend , FATE新增了pytorchbackend , 即支持使用pytorch引擎搭建nn网络 , 换而言之 , 使用pytorch编写的横向nn模型 , 可相关使用配置文件将其通过pytorchbackend进行转化 , 加入多方横向联邦学习 , 作为重要的深度学习库 , 支持pytorch的呼声一直很高 , 横向nn在支持使用tensorflow和keras的基础上 , 增加了pytorchbackend , 进一步丰富了FATE的功能性 。

FederatedML:新增横向secureboost算法 , 广义线性模型的逐步回归模型选择以及最优分箱功能支持

在上一个版本中 , FATE对训练稀疏数据效率进行了提升 , 内存消耗也再度优化 。 而在1.4版本中 , FederatedML的更新也延续了这一想法 , 主要集中提高了FATE的可用性 。 首当其冲的 , 便是完善了更多的常见功能 。 比如1.4中新增的横向secureboost算法 , 广义线性模型的逐步回归模型选择以及最优分箱功能支持等 , 都是在建模过程中用户迫切希望得以实现的功能 。 除此以外 , FATE1.4也在努力提升原有算法的体验和应用范围 。 比如本次更新进一步完善了横向nn的功能 , 新增pytorch框架支持 , 提升建模效率的同时 , 增强了易用性 , 开发者不必同时掌握多种深度学习库 , 即可满足联邦场景中的建模需求 。 最后 , 新版本还通过优化部分算法的实现 , 大大提升了建模过程中的稳定性和效率 , 使得开发者能更顺畅地使用FATE来实现自己的业务目标 。


推荐阅读