行政|张凌寒:算法自动化决策与行政正当程序制度的冲突与调和( 十 )


五 基于说明理由规则创设算法解释权
由于数据来源的不透明、算法黑箱等因素 , 算法自动化决策的结果是如何得出的却难以为个体所知晓 。 算法治理时代应在适用算法自动化决策时坚持并修正行政行为说明理由的制度 。
(一)发展算法解释权说明具体行政行为的理由
各国的立法者与学界达成共识 , 即自动化决策的算法应当具备可解释性 , 使得用户有权知晓决策的原因 。 如法国数字事务部长表示:“如果政府不能解释其决定 , 政府就不应该使用算法 。 ”如果对于相对人不利的行政活动缺乏理由的说明 , 不仅会造成严重的程序性权利损害 , 更会使得行政相对人并不知晓理由而无法获得行政法上的救济 。
如果将算法自动化决策看作是专家论证 , 行政决策的科学性也必然要求建立行政决策专家咨询的说明理由制度 。 算法自动化决策经常以“专家决策辅助系统”的形式参与行政决策 , 行政部门应以其理性解释回应公众疑问 , 这既是对行政决策理性内涵的解释 , 也是对公众的一种负责任的回应 。 无法提供理由说明的专家意见直接影响行政决策的效力 。 司法实践中 , 以专家咨询结论说理不充分为由否定行政决策的个案并不鲜见 。
算法解释权已经从理论逐步发展为各国的具体制度 , 但其面目一直模糊难辨 。 以最早提出算法解释概念的GDPR为例 , 其第13条、15条提出的应使数据主体了解“有意义的信息”“参与决策的逻辑”等规则 , 可以被法官宽泛或限制性解释 , 也可能由于算法决策并非“完全基于自动化处理的决策”而被规避 。
法国2017年颁布实施的《数字共和国法案》则规定了较为具体的针对公共部门的算法解释权 。 第一 , 针对的算法自动化决策范围扩大 , 不再要求是“完全基于自动化处理的决策” , 而涵盖了行政机关的决策支持算法系统 。 第二 , 法国的算法解释权仅适用于行政决定 , 因公共部门披露算法决策更具有理论正当性 , 并且没有商业算法决策的商业秘密障碍 。 第三 , 披露的内容具体、范围明确 。 要求提供的具体解释内容包括算法在行政决策中所起的作用与模式 , 算法处理的数据及来源 , 以及算法做出决策的权重 , 以及其如何适用于个体 。 无独有偶 , 加拿大公共部门算法的《自动化决策指令》在2020年4月生效 , 要求使用算法决策的公共部门 , 应就其决策向受影响的个人提供有意义的解释 , 甚至包括决策中使用的变量 。 可见 , 针对向行政相对人个体提供具体的算法解释具有不可替代的制度价值并逐渐成为各国实践 。 算法影响评估制度并不能代替算法解释权制度 , 因为其旨在事前风险的规避 , 而非事后的个体救济 。
(二)行政行为算法解释的内容和标准
理由说明的目的不仅限于知情 , 更在于提供救济路径 。 换句话说 , 理由说明不仅要使相对人知晓决定是如何作出的 , 同时还应提供相对人可修正自动化决策的方法 。 具体的自动化决策算法解释的理由说明包括:具体决策的理由 , 原因 , 产生决策结果的个人数据 。 例如每种指标的功能权重 , 机器定义的特定案例决策规则 , 起参考辅助作用的信息等 。 在决策涉及相对人实体权利、程序权利及救济权利 , 涉及“最低限度的公正”时应就自动化决策系统的运营过程、运营结果、做出行为的推理 , 给出理由说明 。 政府部门提供的算法解释应遵循以下标准:
第一 , 解释的客体完整 。 自动化决策的算法解释应由监管部门统一提供格式解释文本 , 保证算法设计者和使用者提供的解释客体完整且无遗漏 , 否则应视为无效的解释 。 第二 , 政府具体行政行为的理由说明 , 如不能提供理由则应视为没有理由 , 可能直接导致政府算法自动化决策的行为失效 。 第三 , 解释语言清晰平实 , 以书面形式作出 。 自动化决策算法解释本质是由信息占有优势一方作出的“信号发送”行为 。 由于政府与行政相对人权力与技术力量的差距 , 应要求自动化决策算法解释必须以清晰平实的语言作出 , 否则会导致解释徒具形式而无法被理解 。 行政机关的算法解释应遵循具体行政行为说明理由的要求 , 或以书面形式作出 , 或在做出行政行为时必须说明 , 方便为日后行政诉讼与算法问责均留存证据 。


推荐阅读