人工智能|欧洲科学院院士郭毅可:未来AI不是靠钱堆出来的,需要用东方文明特有的智慧


人工智能|欧洲科学院院士郭毅可:未来AI不是靠钱堆出来的,需要用东方文明特有的智慧
本文插图

【人工智能|欧洲科学院院士郭毅可:未来AI不是靠钱堆出来的,需要用东方文明特有的智慧】人工智能(AI)正以前所未有的深度和广度向人类社会渗透 , 曾经存在于科幻小说和电影中的“人机二元世界”已在逼近真实 。 立足当下 , 未来人工智能将何去何从?在今天由中国科学院上海高等研究院主办的“智能无界 , 图新未来”上海人工智能大会上 , 英国皇家工程院院士、欧洲科学院院士、英国帝国理工学院数据科学研究所所长郭毅可教授在线上主旨报告中提出 , 对于未来的人工智能 , “我们不求机器做得多 , 但求机器做得对 。 ”
以技术创新引导AI遵循人类社会伦理
随着AI的进化和发展 , 相关的隐私和安全问题受到了人类社会的空前关注 。
当大数据为我们的衣食住行带来种种便利时 , 人们也不禁担心数据背后的个人隐私被盗取和利用 。 微众银行首席人工智能官杨强教授在报告中介绍了一种新算法 , 可以只在个人手机上进行此类隐私数据的计算 , 最后输出一个系统所需要的结果 , 这样可以最大限度保护个人隐私 。
人工智能|欧洲科学院院士郭毅可:未来AI不是靠钱堆出来的,需要用东方文明特有的智慧
本文插图

▲杨强教授在论坛上做报告

“当大量数据流通起来之后 , 大家开始思考一个更为本质的问题:为何要交换数据?”杨强认为 , 其实最终人们需要从数据中得到的是价值 , 由此不难想见 , 完全可以让数据留在本地 , 转而通过一定的技术体系输出价值 。 如果这一理念得以实现 , 将有望产生新一代的数据市场 。
目前 , 专家已经在进行各种尝试 。 比如 , 针对深度信息泄露 , 美国麻省理工学院的韩松教授最近建立了一个新的模型 , 这种模型可以让对方猜不出信息提供者的隐私 。 这些尝试实际上是在引导AI以遵循人类社会伦理的姿态与人类社会相融合 。
用东方文明特有的智慧来包容、研究和应用AI
郭毅可认为 , 作为人工智能发展的基本要素之一 , 社会伦理将是未来AI发展必须优先思考的根本问题 , “我们不求机器做得多 , 但求机器做得对 。 ”比起“做得多” , “做得对”更困难 , 但也更重要 。
近年来 , 关于AI“黑箱”的质疑不绝于耳:机器协助审判是否存在偏见?新闻生成算法是否存在选择性?算法定价是否涉嫌操纵市场?AI的交友推荐究竟增加还是减少了社会关系的同质性?当人们还没能弄清这些问题时 , AI已经渗透到社会生活的方方面面 。

由此可见 , 在让机器“做得更多”之前 , 先要确保它“做得对” 。 郭毅可援引美国加州大学伯克利分校计算机学教授斯图亚特·罗素“可证明有益人工智能的三大原则”——利他主义、谦逊法则、学习能力 , 来说明AI前沿学者们的努力 , “这些研究不是技术问题 , 也不仅仅是科学问题 , 而是一个哲学问题” 。
比如 , 如何判断机器做得对不对 , 显然不能简单用效用最大、最优来评价 。 “让机器拥有值得信任的素质 , 使智能系统有能力向人类解释其行为 , 都是发展未来人工智能必须考虑的因素 。 ”郭毅可表示 , 人机二元世界的到来指日可待 , “我们不要神化它 , 也不必害怕它 , 但不可轻视它 , 更不能滥用它” 。 因为AI就是实实在在的算法 , 是我们不可避免要走向的未来 , 它会改变我们的社会 , “实现这样一个未来 , 并不是靠钱堆出来的 , 而要用东方文明特有的智慧来包容、研究和应用它 , 使之成为人类社会新的存在” 。
作者:许琦敏图片:主办方提供责任编辑:任荃
*文汇独家稿件 , 转载请注明出处 。


    推荐阅读