松鼠热点|强大的AI如何治理?中科院研究员曾毅:企业要为长远愿景做准备

人工智能作为一项颠覆性技术 , 正如水电一般融入人类日常生活的方方面面 , 也开始引发部分人思考如何更好地将这项技术为人类所用 。 6月初 , 美国经历了一场大规模的反种族歧视示威 , 包括IBM、亚马逊和微软在内的科技公司 , 纷纷主动叫停了可能带有种族偏见的人脸识别 , 重新审视人工智能技术应用红线 , 引发外界广泛关注 。
同样的 , 大洋彼岸 , 在突发的新冠肺炎疫情中 , AI电话人群筛查、人脸身份识别在国内发挥了巨大作用 , 也引发人们对于新技术的隐私保护顾虑 。 如何对这项强大的新技术进行规范 , 成为学界、业界、监管层和公众共同关心的问题 。
近日 , 《每日经济新闻》采访人员采访了中国科学院自动化所研究员、北京智源人工智能研究院AI伦理与可持续发展研究中心主任曾毅 , 他同时是科技部新一代人工智能治理专业委员会委员 。 “刚刚颁布的民法典 , 关于个人隐私、个人数据相关的保护已经得到加强 。 ”曾毅向采访人员透露 , 从前沿研究的角度来讲 , 人工智能立法在科技部、若干省市等都有专门的研究计划部署 , 相关高校和产业都在协作制定可行的草案 , 北京市也在筹划推动与人工智能相关的立法工作 。
松鼠热点|强大的AI如何治理?中科院研究员曾毅:企业要为长远愿景做准备
文章图片
中国科学院自动化所研究员曾毅图片来源:受访者供图
迫切需要加强从业者伦理培训美国近期的反种族歧视大游行 , 也引发了抵制人脸识别的算法偏见 。 大众再次意识到 , 前沿科技与群体权益之间的矛盾如此刺眼 。
《每日经济新闻》采访人员曾参加过多次关于人工智能治理的研讨会 , 在讨论人工智能治理时 , 偏见、隐私这两个关键词被反复提及 。
由于人类文化以及成长环境不同 , 每个人都有鲜明的个性 , 对于特定事物的判断 , 人类个体很难做到不偏不倚 , 人在训练机器模型时就会出现偏差 , 这就会导致AI的偏见 。 穿着红色衣服的面试者 , 在某些人看来是热情开朗 , 有些地区的个体却不这样认为 。
另一方面 , 人工智能企业是数据的大户 , 要使用大量的数据训练模型 , 这就需要在可信的环境下进行 。 据曾毅介绍 , 几乎所有人工智能行业的从业者和技术专家在加入人工智能企业之前 , 没有经过任何的人工智能伦理培训或教育 , 这方面迫切需要加强 。
国内领先人工智能企业旷视首席运营官、AI治理研究院院长徐云程认为 , 正是由于AI技术的普遍性与其对于社会影响的深刻性 , 促使社会各界在AI商业化比较早期的时候 , 就开始探索AI治理的这条道路 。 “人工智能行业一直有一个观点 , 不能先发展后治理 , 应该是边发展边治理 。 ”
从全球来看 , 人工智能规范很难有统一的标准 , 人工智能的伦理和治理之间很难形成共识 。 曾毅介绍称 , 联合国有非常多的关于人工智能治理和伦理方面的努力 , 在不同国家的努力中寻求共识 , 与不同文化的基本哲学思想和价值观息息相关 , 这是根源 。
联合国教科文组织牵头全球193个会员国推荐专家来构成一个全球的人工智能伦理的特设专家组 , 形成了全球人工智能伦理的草案 , 目前已经发布 , 并处于征求意见的阶段 。 曾毅作为中国的代表 , 担任三个工作组中伦理工作组的共同组长 , 努力推动全球AI技术普惠、缩小各国之间的差距 。
【松鼠热点|强大的AI如何治理?中科院研究员曾毅:企业要为长远愿景做准备】人工智能企业作为以盈利为目的的商业机构 , 如何建立一套适宜企业自身发展需求的AI治理体系 , 既以负责任的态度承担企业社会责任 , 又不阻碍甚至是促进业务发展 , 这是摆在像曾毅这样的学者面前的重要研究课题 , 也是旷视这样的AI企业在进行AI治理落地时的重要考量 。
松鼠热点|强大的AI如何治理?中科院研究员曾毅:企业要为长远愿景做准备


推荐阅读