数据政治丨数字化治理:人工智能的立法困境


数据政治丨数字化治理:人工智能的立法困境文章插图
人工智能时代已然来临 , 诸如人脸识别、无人驾驶、智能机器人越来越受到人们的青睐 。 人们一方面享受着人工智能所带来的便利 , 一方面对人工智能技术的滥用产生了担忧 , 比如个人信息隐私保护等等 。 11月19日是《个人信息保护法(草案)》公开征求意见截止日期 , 而这也是国内首部专门规定个人信息保护的法律 。
其实 , 针对数字经济的立法趋势在全球都开始显现 。 10月末 , 欧洲议会通过了有关欧盟如何更好地监管人工智能的三份立法倡议报告 , 以促进创新、道德标准和技术信任 。 欧盟委员会预计到2021年初会形成关于AI立法的提案 。
如何看待人工智能的立法问题 , 未来的方向又是什么?刘志毅认为 , 法律规则必须适应创新否则就会无效或者产生不良后果 , 另一方面法律系统必须有一定的预见性 , 否则当深度学习这样的算法广泛使用时 , 将会产生预期外甚至不可逆的结果 。
——编者
刘志毅/文以深度学习为代表的人工智能技术在这一轮信息技术浪潮中逐渐占据了主导地位后 , 一方面带来了不同产业的智能化转型的应用场景落地 , 一方面也带来了诸多挑战与风险 , 其中一点就是在法律制订与应用层面的风险 。 鉴于人工智能技术应用中的普遍性 , 如果只是单维度的考虑其影响(比如就人工智能技术算法对法律的影响) , 将有失偏颇 , 因此我们采取一种更加宏观的视角去理解这个问题 。 我们不仅讨论使用人工智能技术如何产生作用的场景 , 同时也会讨论人工智能技术作为复杂的系统化技术对使用者和第三方的影响和风险 , 对人工智能法律和道德之间的关系进行初步的讨论以及提供理解的基本框架 。
法律的框架
首先我们需要明确一个问题 , 人工智能技术所带来的影响可能涉及社会、经济以及伦理领域 , 而我们是否需要制定一个法律框架来促进个人与公共的利益在人工智能技术的发展中能够被正确引导呢?虽然我们可以看到非数字化的法律法规(民法、刑法、公法或者其他规范和标准) , 但是数字化世界里的挑战是复杂和多元的 , 单纯的引用非数字化世界的法律可能并不能满足相应场景的需求 。
另一方面 , 如果新的人工智能相关的法律出来 , 如何应该将它放在法律体系的整体框架内?我们知道单个领域的法律规范系统是会与整个法律系统相联系的 , 会通过一定的规制和方式嵌入复杂的法律架构之中 , 而不同的法律是需要不同的资源去支撑的 , 也需要在不同的社会组织中进行复杂的协作 , 这是我们理解人工智能技术立法的第一个视角 。
其次 , 我们可以看到法律实际上是治理模式的一部分 , 对于人工智能的立法问题来说 , 如何看待它的治理模式 。 它的治理模式包括市场、竞争、网络、合同和数字化控制等多个方面 , 这些方面的结构和范式其实就是各个国家推动人工智能政策和法律的基本元素 , 也是我们研究数字化治理的基本逻辑 。
著名学者卢西亚诺.弗洛里迪曾经在他的专著中提到 , “数字化治理是建立和实践适当开放、使用和管理信息圈的政策、程序和标准的实践 , 这也是一个惯例和良好协作的问题 , 有时既谈不上道德与否 , 亦谈不上合法与否 。 ”因此 , 通常数字化治理的基本出发点就是“善治” , 即通过算法进行治理来保证符合道德要求以及合规性 , 而依据这方面的研究 , 就得到了关于AI伦理的一系列原则 。 采纳这样的方式的原因是因为法律和道德之间深刻的相互作用 , 即法律具备道德基础 , 而道德与原则又通过法律来自我塑造 , 保持了一定的弹性空间 。
现实的障碍
事实上 , 善治并不是单独产生的 , 它包括法律、伦理、道德等一系列的内容 , 因此我们需要提供一系列治理的框架来指导其实施逻辑 , 也就是说通常非数字化领域通过法律为主体的治理方式 , 到了数字化空间则需要多管齐下的去治理 , 这其中包括以下内容:


推荐阅读