|2020北京AI治理论坛|旷视对话大咖:全球共建可持续发展AI( 二 )


城市 , 也是人类社会与人工智能技术激烈的碰撞点 。 人工智能既为城市居民解决了一些城市问题 , 也同时带来了隐私保护、数据安全、工作被替代等一系列新的问题 。 比如北京大学光华管理学院院长刘俏就很关注劳动力就业的变化问题 , 他认为AI应当在消灭旧有就业机会的同时 , 应当创造更多的新就业机会 , 并使人类更加便捷、舒适的就业 。
面对如此复杂的城市系统 , 旷视选择先从两个具体的研究课题入手 , 在公益研究计划平台上线后 , 期待与感兴趣的专业研究机构共同携手 , 共同开展深入的原创研究:

  1. AI治理+社区方向:关注儿童友好型智慧社区的建设 。 厘清儿童特殊保护和一般性的AI治理原则之间的关系 , 并形成一套涵盖多方利益相关者的高效治理方案建议 。
  2. AI?治理+可信任AI方向:聚焦计算机视觉+推荐算法 。 关注算法权力对人们的隐私、安全、尊严和社会公正产生的影响 。 对主要应用场景、关键技术进行梳理 , 并结合企业的自治与行业的监管 , 给出风险评估与治理的建议方案 。
旷视徐云程表示 , “旷视AI治理研究院在研究中历来追求原创 。 我们希望通过此项公益平台计划 , 与有实力的研究机构一起 , 从底层的信息收集、数据分析做起 , 真正做出能够指导实践的研究 , 让成果早日得以应用 , 让城市成为人们美好的栖息家园 。 ”
|2020北京AI治理论坛|旷视对话大咖:全球共建可持续发展AI
本文插图

图示:旷视首席运营官、AI治理研究院院长徐云程在进行发言
规范塑造 AI未来, 构建可持续发展的A I
发展可持续的AI , 核心任务就是确保人工智能始终向对人类和生态有益的方向发展 , 这需要由学界、政府、监管机构、企业、法律界等各个方面共同参与 , 如有任何一环缺位 , AI治理都不能很好的推进 。
联合国秘书长数字合作高级别小组前执行主任Amandeep S Gill 表示 , 无论是东方还是西方 , “公众对于数据安全、所有权、隐私和知情权的担忧” , 使民众渴望对新兴的AI产业进行监督 。
同时 , 慕尼黑工业大学AI伦理中心主任 , 全球AI伦理协会发起者 Christoph Lütge 认为 , 需要外界监督保持一定的决策权 , “在我们为自己保留的决策权和我们委托给人工智能的决策权之间取得平衡 。 ”
所有AI治理相关的研究、建议、监管规定 , 都需要AI企业的落地参与 , 才能得到切实的推进 。 企业的AI治理 , 不仅要靠社会各方的监督 , 更要靠企业本身的自律 。 尽管现在并没有成熟的企业AI治理模式可循 , 但是探索本身就很有意义 。 正如旷视徐云程表示:“AI企业担负着推动AI产业可持续发展的重任 。 虽然AI治理是一件“摸着石头过河”的事业 , 但我们正在秉持一贯的长期主义精神 , 用大胆向前 , 小心求证的方式探索企业AI治理的道路 。 ”
“原创” , 成为了旷视AI治理行动的一个重要关键词 , 不仅体现在研究上 , 还体现在机制建设上 。 旷视的AI治理实践始于2019年7月对外发布了《人工智能应用准则》 , 为企业的AI治理指明了行动方向 。 随后旷视成立了“人工智能道德委员会”、向董事会汇报 , 开启了企业AI治理的机制建设 。 2020年1月 , 旷视成立了“AI治理研究院” , 向社会发布2019年《全球十大AI治理事件》 , 与社会各界探讨AI治理的方向与界限 , 并开始与各界机构探讨联合研究课题 。 日前 , 旷视完成了与北大光华案例中心的合作 , 以旷视的案例为样本 , 进行企业AI治理的有益探索 。
企业的AI治理 , 行胜于言 。 旷视的实践也让参会的专家们多了一个从企业研究的视角 。
倡导东西方协作创新 , AI产业应由世界共建
在“可持续发展的AI”这个宏大命题下 , 东西方交流、全球协作创新在今天显得愈发重要 。


推荐阅读