人工智能|娄雪洋:论人工智能致人损害的法律规制( 六 )


总之 , 人工智能致人损害的法律责任 , 并不能单一地由一般过错侵权责任、产品责任或者替代来解决 , 必须根据不同的致损原因即操作人过失还是产品缺陷抑或是人工智能的自主行为而适用不同的归责方式 。
人工智能|娄雪洋:论人工智能致人损害的法律规制文章插图
三、责任落实之配套机制
通过上文分析可知 , 除了设计缺陷致损及自主行为致损两种特殊情形外 , 我国现行侵权法体系基本可以调整人工智能致人损害的大部分情形 。 换言之 , 对于人工智能致人损害的规制 , 关键问题不在于法律规范的缺位 , 而在于事故原因鉴定、产品缺陷标准、审批及监管等配套机制不完善 。 对此 , 笔者认为可以考虑以下思路 。
成立人工智能发展委员会 , 且委员会应由法律人、人工智能相关技术研究人员、人工智能产品研发制造企业等主体多元构成 。 人工智能的技术复杂性和专业性要求立法、司法乃至执法人员具有更高的综合素质 。 不论是设计环节中设计缺陷的认定 , 还是生产环节制造缺陷的认定 , 抑或是具体事故原因的认定均非普通的法律职业者所能完成的 。 换言之 , 对于人工智能致人损害的法律责任的设计和落实 , 需要法律与算法的融合 , 也即法律人与人工智能技术人员的合作 。 而多元构成的人工智能发展委员会无疑将为此提供一个平台 。 另外 , 其也会对相关标准的制定创造条件 。 其在他国也不无先例 , 美国白宫科技政策办公室副主任迈克尔·克拉希欧斯(Michael Kratsios)于2018年5月10日即宣布将组建人工智能特别委员会 。
建立健全人工智能产品授权审批及登记备案制度 。 人工智能产品具有极强的精密性和专业性 , “在人工智能的代码编写和算法建模中 ,更容易看到一些微小的疏漏以让人无法预料的序列连续发生 , 就有可能变成更大的、更具有破坏性的大事故” 。 故而对人工智能的程序编码及构造进行审批和登记不仅能够发挥事前预防把关的功能 , 还可以为事后追责奠定基础 。 当然 , 此种审批和登记与普通的行政许可与登记不同 , 需由专业技术人员来完成 。
成立专门的监管及事故责任认定机构 。 人工智能是一个科技黑箱 , 人工智能的研发具有秘密性、分散性、不连续性及不透明性 。 非专业技术人士根本无法对其进行解释 , 更无从对人工智能致人损害时的事故原因进行鉴别认定 , 普通的被侵权人更无从举证 。 这就需要由对人工智能的伦理价值、算法逻辑等领域有着清晰理解的专业团队来完成这些工作 。
相应的配套机制是不可能列举穷尽的 , 笔者在此只是做一个启发式的思考 , 而具体的体系构建仍需随着人工智能的发展情况进行调整和补充 , 而此条道路可谓任重而道远 。 结语针对人工智能致人损害这一问题 , 现行侵权法体系不可否认地为该类纠纷中部分情形提供了解决途径 , 但也主要集中在人工智能的产品缺陷致损这一情形中 , 但其中关于设计者的责任仍需要进一步明确 。 此外 , 随着AI技术的不断进步与深入应用 , 人工智能脱离控制的自主侵权行为将不断涌现 , 此时我们便不得不意识到现行侵权法体系在这一问题上的缺位 。 当然 , 这不意味着必须对现有法律体系进行重建式的变动 , 而是在现有基础上辅以相应的配套机制以及调整式的补充即可 , 以达到既维护法的安定性又不阻碍创新的良好效果 。


推荐阅读