欧盟发布人工智能伦理准则

欧盟委员会4月8日发布人工智能伦理准则 , 以提升人们对人工智能产业的信任 。 欧盟委员会同时宣布启动人工智能伦理准则的试行阶段 , 邀请工商企业、研究机构和政府机构对该准则进行

江苏新闻

测试 。

社会

该准则由欧盟人工智能高级别专家组起草 , 列出了“可信赖人工智能”的7个关键条件——人的能动性和监督能力、安全性、隐私数据管理、透明度、包容性、社会福祉、问责机制 , 以确保人工智能足够安全可靠 。 欧盟将“人工智能”定义为“显示智能行为的系统” , 它可以分析环境 , 并行使一定的自主权来执行任务 。

根据官方解释 , “可信赖的人工智能”有两个必要的组成部分:一是应尊重基本人权、规章制度、核心原则及价值观;二是应在技术上安全可靠 , 避免因技术不足而造成无意的伤害 。 举例来说 , 如果人工智能在未来诊断出一个人患有某种病症 , 欧盟的准则可以确保系统不会做出基于患者种族或性别的偏见诊断 , 也不会无视人类医生的反对意见 , 患者可以自行选择获得对诊断结果的解释 。


推荐阅读