人工智能|娄雪洋:论人工智能致人损害的法律规制


人工智能|娄雪洋:论人工智能致人损害的法律规制文章插图
娄雪洋 中国政法大学法学院硕士研究生 。
内容摘要
伴随着AI技术的发展和应用 , 人工智能致人损害的纠纷也不断涌现 , 对我国的现行法体系提出了考验 。 以自动驾驶汽车为例 , 根据其致损原因的不同 , 可将自动驾驶汽车致人损害分为人为操控下致人损害、 因其产品缺陷致人损害以及因其自主行为致人损害三种情形 。 结合目前我国人工智能的发展状况 , 出于对不违背现行法律体系整体上的安定性又不无视人工智能致损问题的特殊性的双重考量 ,对现行侵权法体系进行适当的调整并辅以必要的配套机制便可解决此问题 , 而无须赋予其法律人格 。
随着“人工智能+”时代的迫近 , 人工智能的迅猛发展深刻地影响着人们的生产和生活方式 , 并且已经渗透到教育、医疗、养老、环境保护、交通、公共服务等各个领域 , 对个人、国家乃至整个人类社会影响深远 。 在个人层面 , 关于人工智能致人损害的纠纷不断涌现 。 在国家层面 , 人工智能已然成为很多国家发展战略的重要内容 , 也是现在乃至未来各个国家经济和科技竞争的重要领域 。 任何新兴产业的成长和繁育无不需要法律的配合与支撑 , 我国想要抢占人工智能全球制高点 , 就必然要健全相关的配套法律机制 , 对人工智能致人损害的法律规制就属于其中的重要内容 。 人工智能本身的自主性、难以预见性等特征也意味着我们必须在现有法律体系的基础上结合人工智能自身的特性对其致损行为的法律规制进行重新审视与完善 。
目前 , 我国学术界关于人工智能致人损害的法律规制主要有两大观点:一是循用现行侵权法体系尤其是产品责任及替代责任来规制 , 不宜赋予人工智能以独立人格;二是借鉴法人制度通过法律拟制赋予人工智能以法律人格使其自身承担相应责任 。
人工智能作为一个新兴的课题 , 目前学界对其致损问题的法学研究尚不甚多 , 该问题尚存极大的探讨空间 。 在当前的研究文献中 , 多数研究人员都是从整体上探究人工智能致损行为的法律规制 , 或者以脱离人为控制的程度为划分依据探究智能程度不同的人工智能致人损害案件的归责范式 。 这就忽略了以机器人的智能程度进行分类的不周延性以及相邻类别的界限模糊性 。 而本文将直接着眼于人工智能致损原因的不同 , 探究差别化的归责设计 。 结合目前我国人工智能的发展状况 , 综合考量现行法律体系整体上的安定性及人工智能致损问题的特殊性 , 探究切实可行的路径 , 以期实现既不阻碍创新又能最大程度上防控风险的良好效果 。
一、 何为人工智能
早在1956年的达特茅斯学会上 , “人工智能”这一概念就被提出 , 并被确定为一个崭新的研究领域 。 经历了六十多年的发展 , 特别是随着互联网与计算机技术的发展 , 其进入全新的快速发展时代 , 对人类生产生活的影响日益凸显 , 也为愈来愈多的大众所知悉 。 然而直到今天 , 人人皆谈“人工智能” , 却尚无人能够对其提出一个较为准确的、能被广泛接受的定义 。
定义人工智能的主要困难在于如何定义“智能” 。 而人类是众所周知的拥有智能的天然且唯一的主体 , 那么界定人工智能势必要以人类的特征为参考 , 著名的图灵测试实质上也以此为原理 。 因而目前对人工智能的界定主要分为四类:像人一样思考(thinking humanly);像人一样行为(acting hu-manly);理性思考(thinking rationally);理性行为(acting rationally) 。 其中前两类从与人类表现的逼真度的维度出发 , 后两类从合理性的、理想的表现量的维度出发 。 但不论是“像人一样”的逼真度描述还是“理性”的表现量描述 , 似乎都不能为人工智能提供一个法律上的清晰界定 , 因为人本身的特质就是复杂多样的 , 而“理性”也本就为一个较为抽象和泛泛的概念 。


推荐阅读