数据政治丨数字化治理:人工智能的立法困境( 二 )


第一 , 数字化空间面临着公法和司法底层关系和结构的挑战 , 一方面原因是生态型的服务厂商正在创造和指引相应的规范 , 比如国外的谷歌、脸书、苹果等企业 , 这些规范来自于其企业创新实践 , 同时也来自于它在各国所面临的司法挑战 。 我们看到这些私营部门的强大正在改变很多商业的规则 , 但是它并不能改变国家有责任保护个人和公共利益的事实 。 这就创造了一种错位的空间 , 即私营部门在追求利益方面的不受限制以及其在承担公共利益上的义务的不对称性 。 于此同时 , 国家则集中精力推动私人单位追求公共利益 , 从而使得社会能够承担更大的责任同时也不会放松对其的治理 。 因此 , 需要建立起一种公共和私营部门的合作框架和机制 , 在欧洲强调一种“保障性国家”或“赋权型国家”机制 , 也正是随着数字化空间的兴起被重视起来 。 换言之 , 数字化空间是有私营部门创造出来的 , 赋权型国家的任务就是保护数字空间中的个人和公共利益 , 而法律则是其使用的重要治理手段 。 换言之 , 因为数字空间的基础很大程度上是由私营机构所建构的 , 因此国家则需要通过建立适当的架构和规范来为其发展划定必要的边界 , 指引合适的方向以及提供必要的基础设施支持(这也是新基建之所以重要的原因之一) 。
第二 , 由于数字空间发展的创新性 , 因此判例成为重要的法律手段 。 例如德国作为大陆法系的重要国家 , 也将判例作为重要的隐私保护和数据安全的方式 。 例如2016年的一起案件中 , 德国联邦宪法法院裁定 , 对信息技术系统的保护不仅涵盖个人使用的技术及 , 还包括计算机之间的联网 , 例如在公有云上存储的数据 , 因此与之相关的人工智能运营也可能落入基本权利保护的范畴 。 为了实现在《德国基本法》上所提及的国家有义务避免对个人权利施加限制及保障个人免受他人的侵害 , 德国提供了数据保护法及信息技术安全法来处理人工智能相关的问题 。
我们看到通过判例的方式不仅体现了法律在相关领域的创新 , 也体现了提供系统性保护的思路 。 所谓的系统性的保护并不是信息系统的保护 , 而是通过相关的技术以构建技术系统 , 独立地维护受保护的利益 , 尤其是第三方的利益 。 例如欧盟《通用数据保护条例》中的第25条中明确规定的通过设计与默认设置的方式来进行数据保护 。 通过这样的设计思路不仅仅能够在数据层面保护使用者的权利和安全 , 同时也能够保护数据隐私等权利 。 换言之 , 法律是要通过技术的方式进行算法规制 , 从而确保或者促进基本法律原则及作为补充的基本道德原则的有效性 。
第三 , 人工智能领域的法律是有其现实障碍的 , 限于篇幅 , 我们主要讨论其中三个主要的风险:首先 , 是由于科技创新的快速迭代 , 以及相关商业模式发展带来的开放性问题 。 由于知识匮乏和发展的不确定相关 , 法律措施可能无法适应技术的创新 。
一方面 , 法律规则必须适应创新否则就会无效或者产生不良后果 , 另一方面法律系统必须有一定的预见性 , 否则当深度学习这样的算法广泛使用时 , 将会产生预期外甚至不可逆的结果 。 例如我们看到人体与芯片相结合的技术方案越来越受到关注 , 而这就会造成人体和技术之间的界限越来越模糊 , 技术的攻击的危害也从技术终端扩展到人体本身的完整性;
第二 , 人工智能领域的技术通常是全球性的 , 由于不同国家法律体系以及法律法规各不相同 , 成为了阻碍法律实施以及商业模式落地的重要挑战 。 由于人工智能技术发展过程中硬件和软件的边界逐渐模糊 , 线上空间和线下空间逐渐融合 , 则需要法律能够对跨界的人工智能应用场景进行规范 , 甚至对各个专门领域中的人工智能使用进行规范 。
第三 , 人工智能的技术通常是集中且不透明的 , 这会使得法律实施及其结果变得很困难 。 在国外 , 强大的信息技术企业正在通过自己的方式让自己的服务和产出变得不受监管 , 即使有了反垄断法的存在其实质性影响也是相当有限的 , 覆盖全球信息技术和人工智能领域的反垄断法并不存在 。 与此同时 , 人工智能技术的涉密性和安全性也使得其不太透明 , 产生一定的黑箱特性 。 随着算法的知识产权保护越来越受重视 , 很有可能扩张了其技术的不透明性 。 我们之前讨论过 , 人工智能相关法律的重要目标是防止个人与公共的相关利益受到损害 , 例如保护隐私、免收操作、公平获取信息及防治算法歧视等 , 而现有的法律框架在面临这些挑战时缺乏实践性的效果 。


推荐阅读