人工智能|娄雪洋:论人工智能致人损害的法律规制( 三 )


1.设计者责任
设计者需要保证其设计的自动驾驶汽车不存在不合理危险 , 即能够在可预测的所有情境之下都能够保持安全行驶 ,比如必须具备包括但不限于:“限速信息识别及响应、 跟车行驶(包括停车和起步)、车辆碰撞自动紧急制动、前方车辆变更车道检测及响应、障碍检测及响应、并道行驶、超车、靠路边停车、交通信号灯识别及响应、行人和非机动车识别及避让、交叉路口通行、环形路口通行、道路弱势群体碰撞自动紧急制动、车道保持控制、探测并避让对向来车、停车场通行、网联通信、碰撞前的数据捕获等功能 。 ”然而问题的关键主要在于:相较于制造缺陷 , 设计缺陷在实践中往往很难认定 。 因为制造缺陷通常可依是否符合设计方案来判定 , 而设计缺陷则是指设计方案本身欠缺某些科学合理的考虑 , 其没有可供参照的评判标准 。 而我国《产品质量法》仅对产品缺陷进行了笼统的界定 , 即以存在不合理的危险以及不符合国家标准、行业标准来认定产品缺陷 , 这对设计缺陷的认定几乎不具可操作性 , 因为国家标准、行业标准往往是针对制造环节的 , 且通常以设计方案为参考 。 此外 , 与制造缺陷主要关注产品自身性能相比,设计缺陷需要结合多种因素综合判断 , 比如自动驾驶技术的社会效益和成本,替代设计的技术可得性及其成本等 。
需要注意的是 , 在归责原则方面 , 设计缺陷与制造缺陷不同 , 不宜适用无过错责任 。 首先 , 设计者的程序设计往往以其设计当时的科技水平和应用环境为基础 , 而科技水平与应用环境总是不断地变化发展的 , 从上帝视角要求存在于有限时间和空间的设计者 , 对其依据既有最新科技水平得出的设计方案承担其所不能预知的风险和责任 , 显然是不合理和不公平的;其次 , 如若对设计者苛以严格责任 , 就意味着即便其于设计当时已经穷尽了最新的技术水平和专业知识但仍需要为其注意义务和能力范围之外的风险负责 , 从而促使其以牺牲产品效用为代价来避免任何可能的风险即便这种风险相对于效用而言只是细微的 ,这种做法的宏观效应就是可能阻碍技术创新和产业进步 , 从而违背了立法的初衷 。 笔者认为 , 对设计者的设计责任应当采用过失责任原则 , 而对其过失的判断可采用“风险——效用”标准 , 即设计者“修改设计以消除危险”的边际收益大于边际成本,那么修改设计以消除危险就是一个谨慎合理的设计者所应当做的 , 若其未采取这种理应修改的设计方法就是有过错的 , 应当对其设计缺陷承担责任 。 否则 , 其设计就应该被认为没有缺陷 , 设计者无需担责 。 当然 , 关于设计缺陷的认定并非法律所能单独解决的问题 , 还需相关专业人群从技术层面展开细致的商讨和确定 。
此外 , 自动驾驶汽车作为具有一定自主决策和行为能力的智能机器人,其驾驶行为基于算法而产生 。 算法的内部设计和形成逻辑决定了自动驾驶汽车决策过程及最终的外部行为 , 然而算法在设计之初就融入了设计者的技术考量、行为模式和价值伦理选择 , 且算法自动化决策存在着信息茧房、引发隐私泄露、算法歧视等风险 , 这就意味着对算法的规制便成为必要 。 那么如何对自动驾驶汽车的自动化决策系统———算法进行规制呢?在现有的学术研究成果中 , 公开源代码增强算法透明和增设算法解释权成为众多国内外政策制定者和学者所提倡的主要监管思路 。 然而 , 公开源代码似乎并不能有效解决算法规制难题 , 即便算法透明可知 , 也并不意味着算法问题能够被发现 , 因为在算法生成后的运行过程中 , 就算是设计者也难以保证能够预测到算法在与其具体运行情景进行交互的过程中会产生何种结果 。 此外 ,公开源代码还与个人隐私、商业秘密、专利保护等问题存在潜在冲突 。 而增设算法解释权方案也面临着诸多问题 , 比如算法模型所采用的高度复杂和精密的运算方式难以用一般的语言表达方式阐明 , 也就是说欠缺可解释性 。 退一步讲 , 即便算法可以准确解释 , 但受害者作为非专业人士也很难理解 , 而若委托专业人士代为解读则增加了受害人的成本负担 。 故此 , 公开源代码增强算法透明和增设算法解释权两种方案均难以切实有效地规制算法风险 。 笔者认为 , 可以考虑在设计算法时通过法律强制或者行业标准等方式将特定的政策和价值标准嵌入设计者的编程 , 以代码规制代码 , 例如拟定人工智能设计的伦理准则、算法治理原则等等 , 比如阿西莫夫就提出了著名的“机器人三大定律” 。 该等准则、原则的确定需要计算机科学家、伦理学家、法学家等各界学者的协同努力 , 鉴于自身研究能力及专业领域十分有限 , 笔者对此不加妄议 。


推荐阅读