隐私|担心AI侵犯数据?隐私计算技术受关注

_原题为 担心AI侵犯数据?隐私计算技术受关注
在数字经济繁荣发展的时代 , 数据流通是数据要素价值充分释放的关键环节 , 但隐私泄露、安全威胁等一系列问题仍然制约着数据的有序流通 。
这一问题在今年的上海世界人工智能大会上受到特别关注 。 在一场智能数据云端峰会上 , 与会嘉宾讨论了联邦学习和多方安全计算等隐私计算技术 , 这有望打破数据流通的瓶颈 。
隐私|担心AI侵犯数据?隐私计算技术受关注
文章图片

图灵奖得主、中国科学院院士姚期智在今年的上海世界人工智能大会开幕式上强调 , 人工智能的相关研究需要重视理论研究和隐私保护学习 。 姚期智认为 , 将人工智能与多方计算技术相结合 , 有望实现数据隐私保护 。
他说道:“假定有很多不同的当事方 , 需要将各方的数据结合才能通过AI挖掘到重要结果 , 但所有当事方的数据都具有隐私属性 , 并且不希望把这些数据交给第三方 , 那我们就可以采纳多方计算的做法 , 即让计算结果不揭秘数据属于谁 , 甚至不必揭秘这个数据 , 我们可以通过密码学来实现这一目标 。 ”
微众银行首席AI官、香港科技大学讲席教授杨强表示:“用户隐私代表了人类的重大利益 , AI首先需要保护人的隐私 。 AI的力量来自大数据 , 面对人工智能领域实际存在的数据孤岛问题和国内外数据监管等问题 , ‘联邦学习’的这一解决方案应运而生 。 ”
所谓联邦学习 , 主要目的是让数据保持在原地 , 数据在加密的状态下可以被不同的机构使用 , 但是各方都看不见对方的数据 , 总结起来就是“数据不动模型动 , 数据可用不可见” 。
【隐私|担心AI侵犯数据?隐私计算技术受关注】目前联邦迁移学习技术已经在行业中开始推广应用 。 AI技术提供商第四范式创始人CEO戴文渊对第一财经采访人员表示:“近年来我们在迁移学习隐私保护方面取得突破 , ‘联邦学习’能够在保护隐私的基础上赋能数据共享 。 ”
联邦学习的落地领域包括金融、零售、能源、医疗、互联网等行业 。 以第四范式为例 , 该公司的技术能从一些数据较为完善的大型医院中迁移出有价值且受隐私保护的知识 , 来帮助地方医院、社区医院、体检中心等机构完善医疗诊断 , 将知识从大数据领域迁移到小数据领域 , 既能提升数据使用效果 , 又保护了隐私 。 这种方法也在开始在金融行业落地 。 ”
上海数据交易中心CEO、晶赞科技创始人兼董事长汤奇峰对第一财经采访人员表示:“这次人工智能大会从技术角度 , 提出了很多涉及人工智能本质的核心问题 , 比如一些企业对多方计算表示期待 , 他们也开始使用‘联邦学习’的解决方案 , 这是多方计算非常重要的部分 , 对技术推动起到很大的作用 。 ”
关于隐私保护的多方计算技术标准也在进一步完善 。 7月10日 , 《基于多方安全计算的数据流通产品 技术要求与测试方法》(修订版)、《基于可信执行环境的数据计算平台技术要求与测试方法》和《基于联邦学习的数据流通产品技术要求与测试方法》三项隐私计算系列标准在2020大数据产业峰会上正式发布 。 标准的推出进一步明确了隐私计算平台将是联邦学习、可信计算和多方安全计算等多种技术路线融合的综合型平台 。
第一财经广告合作 ,请点击这里
此内容为第一财经原创 , 著作权归第一财经所有 。 未经第一财经书面授权 , 不得以任何方式加以使用 , 包括转载、摘编、复制或建立镜像 。 第一财经保留追究侵权者法律责任的权利 。如需获得授权请联系第一财经版权部:021-22002972或021-22002335;banquan@yicai.com 。
文章作者


    推荐阅读