健康界|| 深度,AI不能“取代”医生给我们看病,这并不是因为AI不够强大( 二 )


文章图片
作者和希维尔德森在他的实验室
然而 , 人们需要对机器能做什么、不能做什么有清晰的认识 。 目前AI的主要成就 , 是给人类医生的判断打底子 , 而不是自行下达判断 。 比如希维尔德森所做的工作之一 , 是利用机器来学习高精度图片的特征 , 然后据此把低清图片“算”成高清图片——换言之 , 就是去马赛克 。 有些时候医生手头的设备不够先进 , 另一些时候医生需要实时观察图像 , 这些时候的低分辨率图片都可以在机器学习帮助下变得高清 。
的确 , 图像识别是目前的AI最擅长的事情之一 。 大概从2013年开始 , AI在这一个领域的能力就开始飞速发展;2015年 , 在谷歌ImageNet数据库训练下的机器 , 人脸识别能力已经超过了人类 。 这得益于机器能够在相对短的时间内吃进海量的影像数据 , 并通过深度神经网络各个层级进行分析、学习 , 成为阅“片”无数、经验丰富的“老医生” 。 希维尔德森和特拉雅诺娃所做的事情 , 都是利用AI的这方面长处 , 给予医生以诊断辅助 , 让医生“看”得更清楚、判断更准确 。 可这并不是我们平时想象的“AI看病” 。
AI是否能对疑难杂症做出独立的诊断?对于有的疾病 , 让AI看到影像就做出相应判断其实不那么难 。 比如眼科教授尼尔·布莱斯勒(NeilBressler)正在做的项目 , 是使用AI技术诊断糖尿病人的眼底病变 。 由于这种疾病十分常见 , 数据积累丰富 , 再加上对于病变的判定相对简单 , 目前这个技术已经有了相对成熟的应用场景 。 然而 , 触及到更难的领域 , 例如癌症、肿瘤等等 , 图像模式十分复杂 , 很难用一种或者几种机械的模式概括 , 机器往往会卡在这种人脑依靠模拟(analogy)判断的地方 。 而有的病变本身也十分罕见 , 根本无法形成值得信赖的数据库 。 换句话说 , 现在还无法像训练一个真正的医生一样训练AI 。 而更根本的矛盾还在后面:就算数据够多、计算能力够强 , AI能够取代人类判断吗?
人并不相信机器?
2011年12月 , 在美国马萨诸塞州的一家医院 , 急救车送来了一个晕倒的老年男性 。 他立即被安置在了急救病房 , 安插上体征了监控设备——如果他的生命体征出现危险的波动 , 设备就会发出警告 , 召唤护士 。 这样一来 , 护士就不必时时过来查看他的情况了 。
然而 , 第二天 , 这个老人却死在了病床上 。 死之前监控设备的红灯闪了一夜 , 但却被路过的护士一遍接一遍地摁掉 。 疏于料理的护士当然难辞其咎 , 然而在深入的调查之后 , 另外一个问题浮出水面:包括这套系统在内 , 许多医院用于自动化监控的装置所发出的警报 , 很多是误报 。
通常此类自动化系统 , 会把极其微小的波动当做风险来处理 , 毕竟 , 万一错过了一个风险 , 责任就大了 , 所以厂商都倾向于把机器调得“过度灵敏” , 并产生一系列大惊小怪的误报;反过来 , 医护人员则在接连不断的误报冲击下产生了疲劳 , 忽略了真正的危险 。 这是一个现代版的“狼来了” 。
“狼来了”问题本身看似是可以解决的:把自动化系统的敏感度调低就行(厂商无疑会不愿这样做 , 因为这样意味着他们自己要直接担负更多责任 , 不过这至少原则上是可解的) 。 但这是本质的问题吗?人类同样常常过度敏感 , 每一个医生都无数次经历过家属大呼小叫、护士匆忙跑来报告异常但最后平安无事的场景 , 但却无法想象有多少合格的医生会因为假警报太多而从此对它们彻底无动于衷、像对待自动系统那样一遍遍按掉 。
问题在哪里?在于人并不信任机器 。 科幻小说常常把人对机器的猜疑描述成没来由的非理性行为甚至是灾祸的根源 , 但现实中这样的不信任其实是有理由的:人和机器的决策方式并不相同 。 譬如一个简单的自动化系统也许会监控病人的心率 , 低于一定数值就报警 , 但不同病人静息心率原本就不同 , 对一个普通人而言危险的低心率 , 对职业运动员而言也许只是稍微异常 。 传统的自动化系统只能在事先设好的规则内行事 , 超出规则就无能为力了 。


推荐阅读