|人工智能 何去何从?如何保护数据不被无限制的使用( 二 )
离开不受监管,社会风险这些AI-generated分析被执法、雇主、房东、医生、保险公司和其他私人的,商业和政府企业可以收集或购买它——做出预测的决定,他们准确与否,影响我们的生活和罢工的打击最基本的自由民主的观念 。
人工智能在就业环境中继续发挥着越来越大的作用 , 决定谁应该接受面试、聘用、晋升和解雇 。
在刑事司法中 , 它被用来决定监禁谁和施加何种刑罚 。
在其他情况下 , 人工智能限制人们呆在家里 , 限制在医院接受某些治疗 , 拒绝贷款 , 并惩罚那些不遵守社交距离规定的人 。
那些回避任何类型的人工智能监管的人 , 往往试图将这些担忧视为假设和危言耸听而不予理会 。
但就在几周前 , 密歇根居民、黑人罗伯特·威廉姆斯(Robert Williams)因伪造人脸识别匹配而被错误地逮捕 。
根据新闻报道和美国公民自由联盟的新闻稿 , 底特律警方在威廉姆斯的妻子和两个吓坏了的女孩(一个两岁 , 一个五岁)面前 , 将他铐在屋前的草坪上 。
警察把他带到大约40分钟路程外的一个拘留所 , 他在那里被关了一夜 。
在第二天下午的审讯中 , 一名官员承认“电脑肯定弄错了” , 威廉姆斯最终被释放——在他被捕近30小时后 。
虽然人们普遍认为这是人工智能错误面部识别导致无辜公民被捕的第一起被证实的案件 , 但显然这不会是最后一起 。
在这里 , 人工智能成为了一项重要决定的主要依据 , 这一决定影响到公民个人——被执法部门逮捕 。
但我们不能只关注人工智能的失败 , 因为它认错了人 , 剥夺了他的自由 。
我们必须识别并禁止那些人工智能不应被用作特定关键决策基础的情况——即使它做得“正确” 。
作为一个民主社会 , 我们不应该因为一项我们考虑但没有犯的罪行而被逮捕 , 或者因为一种随着时间的推移无疑会导致死亡的疾病而被拒绝治疗而感到更舒服 , 就像我们对威廉姆斯先生的错误逮捕所感到的那样 。我们必须建立一个人工智能“禁飞区” , 以保护我们的个人自由 。
我们不能允许某些关键决策完全由人工智能算法的预测输出决定 。
明确地说 , 这意味着 , 即使在每个专家都同意进出数据完全公正、透明和准确的情况下 , 也必须有一项法律禁止将其用于任何类型的预测性或实质性决策 。
诚然 , 在一个我们渴望数学确定性的世界里 , 这是违反直觉的 , 但却是必要的 。
《人工智能数据保护法》第102(b)节在人工智能产生正确和/或不正确结果的两种情况下合理地实现了这一点 。
它通过两种关键方式做到这一点 。
首先 , 第102(b)条明确指出了人工智能永远不能全部或部分作出的决定 。
例如 , 它列举了人工智能的具体误用 , 这将禁止覆盖实体完全依赖人工智能做出某些决定 。
这包括个人的招聘、雇用和纪律 , 拒绝或限制医疗 , 或医疗保险发行人就医疗承保范围作出决定 。
鉴于社会最近所看到的情况 , 可能应扩大禁止区域 , 以进一步减少人工智能被用作种族歧视和骚扰受保护少数民族工具的风险 。
其次 , 对于基于人工智能分析的某些未被完全禁止的其他特定决策 , 第102(b)节定义了那些必须由人类参与决策过程的实例 。
【|人工智能 何去何从?如何保护数据不被无限制的使用】通过毫不拖延地颁布第102(b)条 , 立法者可以维护个人的尊严 , 不允许将影响个人的最关键决策完全留给人工智能算法的预测输出 。
推荐阅读
- 模型|REVIT技巧!如何创建能量模型,实现能量优化
- 青年|汕头华侨试验区探索以人工智能、5G赋能产业转型升级
- 技术编程|如何利用数据库进行世界史研究
- 行业互联网,AI人工智能|城市教育大脑以“ AI+ 大数据”为核心 , 引领教育变革
- 行业互联网|眼控科技聚焦航空气象报文,人工智能助推编发自动化
- 人工智能|哈工智能布局“AI+ROBOT”生态圈
- 人工智能|马斯克宣布,脑机接口公司将在下月重磅更新,赛博格将成为现实?
- 人工智能|敏捷开发框架的开发运用之智能办公管理系统的开发
- 人工智能|人工智能上车就是聊天唱歌?TA还能给你有温度有情感的陪伴
- 区块链|欧科云链任煜男做客西安广电电台节目,解读区块链如何赋能实体产业