数字化|数字化治理:人工智能的立法困境( 二 )


第二,由于数字空间发展的创新性,因此判例成为重要的法律手段。例如德国作为大陆法系的重要国家,也将判例作为重要的隐私保护和数据安全的方式。例如2016年的一起案件中,德国联邦宪法法院裁定,对信息技术系统的保护不仅涵盖个人使用的技术及,还包括计算机之间的联网,例如在公有云上存储的数据,因此与之相关的人工智能运营也可能落入基本权利保护的范畴。为了实现在《德国基本法》上所提及的国家有义务避免对个人权利施加限制及保障个人免受他人的侵害,德国提供了数据保护法及信息技术安全法来处理人工智能相关的问题。
我们看到通过判例的方式不仅体现了法律在相关领域的创新,也体现了提供系统性保护的思路。所谓的系统性的保护并不是信息系统的保护,而是通过相关的技术以构建技术系统,独立地维护受保护的利益,尤其是第三方的利益。例如欧盟《通用数据保护条例》中的第25条中明确规定的通过设计与默认设置的方式来进行数据保护。通过这样的设计思路不仅仅能够在数据层面保护使用者的权利和安全,同时也能够保护数据隐私等权利。换言之,法律是要通过技术的方式进行算法规制,从而确保或者促进基本法律原则及作为补充的基本道德原则的有效性。
第三,人工智能领域的法律是有其现实障碍的,限于篇幅,我们主要讨论其中三个主要的风险:首先,是由于科技创新的快速迭代,以及相关商业模式发展带来的开放性问题。由于知识匮乏和发展的不确定相关,法律措施可能无法适应技术的创新。
一方面,法律规则必须适应创新否则就会无效或者产生不良后果,另一方面法律系统必须有一定的预见性,否则当深度学习这样的算法广泛使用时,将会产生预期外甚至不可逆的结果。例如我们看到人体与芯片相结合的技术方案越来越受到关注,而这就会造成人体和技术之间的界限越来越模糊,技术的攻击的危害也从技术终端扩展到人体本身的完整性;
第二,人工智能领域的技术通常是全球性的,由于不同国家法律体系以及法律法规各不相同,成为了阻碍法律实施以及商业模式落地的重要挑战。由于人工智能技术发展过程中硬件和软件的边界逐渐模糊,线上空间和线下空间逐渐融合,则需要法律能够对跨界的人工智能应用场景进行规范,甚至对各个专门领域中的人工智能使用进行规范。
第三,人工智能的技术通常是集中且不透明的,这会使得法律实施及其结果变得很困难。在国外,强大的信息技术企业正在通过自己的方式让自己的服务和产出变得不受监管,即使有了反垄断法的存在其实质性影响也是相当有限的,覆盖全球信息技术和人工智能领域的反垄断法并不存在。与此同时,人工智能技术的涉密性和安全性也使得其不太透明,产生一定的黑箱特性。随着算法的知识产权保护越来越受重视,很有可能扩张了其技术的不透明性。我们之前讨论过,人工智能相关法律的重要目标是防止个人与公共的相关利益受到损害,例如保护隐私、免收操作、公平获取信息及防治算法歧视等,而现有的法律框架在面临这些挑战时缺乏实践性的效果。
以上就是我们对人工智能对法律制订与应用带来的挑战与风险的初步讨论,我们可以看到人工智能领域的法律和道德伦理要求是紧密相关的,这其中的关键在于明确在多大程度上保护措施仅基于道德标准,还是要考虑通过约束性的规则进行规范即可。除此之外,我们看到了人工智能技术在实施上的困难,尤其是在跨国法律框架下所收到的挑战。
可以看到,无论是国内还是跨国的人工智能领域企业,尤其是占据市场支配地位的科技巨头,更愿意用道德原则去规范和指引行为而非直接诉诸于法律手段,来为科技创新获得更大的自由度,而我们也需要认识到。鉴于数字化空间普遍存在的风险,以及全球越来越重视人工智能领域的规则制定,人工智能领域的立法将成为不可避免的趋势。
【 数字化|数字化治理:人工智能的立法困境】(作者系数字经济学家、商汤智能产业研究院主任)


推荐阅读