行政|张凌寒:算法自动化决策与行政正当程序制度的冲突与调和( 五 )


第二种是“算法黑箱”造成的公开不能 。 “算法黑箱”是指在算法决策数据输入、计算和输出的三个环节中 , 分别面临着三个难题:数据收集由于公共利益豁免知情同意规则而不透明、算法决策过程由于商业秘密保护而不公开、数据分析结果与决策之间转换不公布 。
算法不透明可由于政府严重的技术依赖关系形成一个恶性循环 。 政府不仅需要购买算法系统 , 还需要私营公司提供长期技术支持以便对算法系统运行进行维护和改造 。 私营公司为了垄断相关技术领域 , 会更加排斥将算法软件技术开源或公布 。 这进一步导致了某个专门的算法系统长期垄断某行政部门的行政活动技术支持 , 更加缺乏来自社会公众的监督 。 2014年美国一项针对政府工作人员的调查显示:“联邦政府工作人员没有足够的数据分析技能将复杂的数据集转化为决策者所需要的信息……高达96%的受访者认为他们所在部门存在数据技能短板 。 ”因此 , 调和算法自动化决策与行政信息公开的原则需平衡的三组利益:要求企业披露算法的相关信息 , 同时又不损害商业秘密和竞争优势 , 同时又能够确保公众监督 。
(三)技术垄断架空公众参与原则
行政正当程序中的公众参与原则极为重要 , “某种形式的听证”被认为是程序正当性过程最基本的要求 , 是行政机关提供正当程序的最低限度 。 然而 , 算法自动化决策系统由私营公司“技术垄断” , 公众的参与权难以得到保障 。
公众参与原则的核心理念是“听取公众意见” 。 具体而言 , 包括两个层面:第一 , 公众应有权利参与行政活动 , 这体现了正当程序的公共意志形成功能;第二 , 在具体行政行为中 , 应充分听取当事人的陈述和申辩 。 在公众参与的过程中 , 要设置专门的程序如听证保证公众能够参与 , 并要保证参与各方信息的对称性 。 公民的有效参与 , 意在通过自己的行为影响某种结果的形成 , 而不是作为一个消极的客体被动地接受某一结果 。 在算法广泛嵌入行政活动的背景下 , 公众参与原则面临多重障碍 。
第一 , 公众参与行政活动面临私营企业技术垄断的障碍 。 算法自动化决策本质是对于行政资源的分配 , 但这一过程改变了政府资源分配和监督行政相对人的一贯做法 , 转而由私营企业承担核心角色 。 在此次疫情防控期间 , 各地政府依靠私营公司的技术力量进行健康码的设计和运行工作 , 并大有将健康码运用于社区、企业、群体评价等社会公共活动中的趋势 。 “智慧城市”也极好地体现了“公共权力私有化”这一趋势 。 政府部门的数据、权力和私营公司的技术力量结合 , 发展出了主宰城市运行的智能系统 。 技术公司垄断了硬件与算法系统的开发、设计和使用 , 却拒绝对公众公布算法收集处理数据的权限和过程 。 如迈阿密市政府与照明技术公司签订为期30年的合同 , 使该公司可以免费安装装有摄像头和牌照读取器的灯杆 , 为迈阿密警察局收集和处理信息 , 而该公司可以使用这些数据 。 政府大多数情况下需要以技术服务合同的方式向私营企业购买算法系统的设计和运营服务 , 因此算法自动化决策(例如专家系统、自动行政)的采购和设计处于完全不透明的状态 , 缺乏公众参与的听证环节 。 公众没有机会在行政活动中融入自身的价值判断和权利主张 , 更无法实现对行政权力滥用的程序性控制 。
第二 , 自动化(半自动)行政行为根据算法设定的规则运行 , 这一过程由行政机关与技术公司垄断 , 没有为行政相对人提供陈述与申辩的机会 。 由于缺乏有意义的通知 , 并且政府倾向于预设算法结论是正确的 , 这共同造成了相对人陈述与申辩环节的缺失 。 当反应型算法应用于行政处罚等可能产生不利于行政相对人法律后果的行政行为时 , 缺乏陈述与申辩环节是严重的程序瑕疵 。
由此可见 , 算法自动化决策既回避了行政决策的公众参与和听证 , 也消解了具体行政行为层面的当事人陈述和申辩的程序 , 造成了公众参与原则的缺失 。 如果一项技术是服务于社会中的大多数群体 , 政府的作用就不可替代 , 无论作为社会系统的设计者还是行业领域技术创新的监管者 , 政府都应承担起责任 , 打破技术中心主义的局限 。


推荐阅读