科学|批评者称谷歌乳腺癌预测AI研究如果不透明就没有用处
早在1月份 , 谷歌旗下专注于健康相关研究、临床工具和医疗服务合作的分支Google Health就发布了一个在9万多张乳房X光照片上训练的人工智能模型 , 该公司称其取得了比人类放射科医生更好的效果 。 谷歌宣称 , 与之前的工作相比 , 该算法可以识别出更多的假阴性 , 即那种看起来正常但含有乳腺癌的图像 , 但一些临床医生、数据科学家和工程师对这一说法表示质疑 。
在今天发表在《自然》杂志上的一篇反驳文章中 , 隶属于麦吉尔大学、纽约市立大学(CUNY)、哈佛大学和斯坦福大学的超过19位共同作者表示 , 谷歌的研究缺乏详细的方法和代码 , 损害了其科学价值 。 一般来说 , 科学都存在可重复性问题 , 2016年对1500名科学家进行的一项调查报告显示 , 其中70%的科学家至少尝试过复制其他科学家的实验 , 但失败了 。
在人工智能领域 , 这个问题尤为严重 。 在2019年的ICML大会上 , 有30%的作者未能在会议开始前将自己的代码与论文一起提交 。 研究经常提供基准结果来代替源代码 , 当基准的彻底性受到质疑时 , 就会出现问题 。 最近的一份报告发现 , 自然语言处理模型给出的60%到70%的答案都嵌入了基准训练集的某个地方 , 这表明模型往往只是在记忆答案 。
他们表示 , 谷歌的乳腺癌模型研究缺乏细节 , 包括对模型开发以及所使用的数据处理和训练管道的描述 。 谷歌省略了模型架构的几个超参数的定义 , 也没有披露用于增强模型训练的数据集的变量 。 这可能会显著影响其性能 , Nature的共同作者声称 , 例如 , 谷歌使用的其中一个数据增强有可能导致同一患者的多个实例 , 从而使最终结果出现偏差 。
谷歌方面表示 , 用于训练该模型的代码对内部工具、基础设施和硬件有许多依赖性 , 使其发布不可行 。 该公司在决定不发布这两个训练数据集时 , 还提到了这两个训练数据集的专有性和患者健康数据的敏感性 。 但Nature的共同作者指出 , 原始数据的共享在生物医学文献中已经变得越来越普遍 , 从2000年代初的不足1%增加到现在的20% , 而且模型预测和数据标签本来可以在不泄露个人信息的情况下发布 。
本文插图
【科学|批评者称谷歌乳腺癌预测AI研究如果不透明就没有用处】
推荐阅读
- 科学|金属所在极细多晶体铜中发现一种新型亚稳固态-受限晶体结构
- 科学,Spacex|美“太空班车”正式启航!SpaceX载人“龙”飞船顺利升空
- 行业互联网|1.5亿元重奖50位青年科学家!可做科研也可还房贷
- 科学,Spacex|【SpaceX今日首次正式发射载人飞船,送四名宇航员进空间站】
- 科学|中科院和代尔夫特理工大学开发新方法 预测钠离子电池原子结构
- 白石崖|我国科学家研究揭示 丹尼索瓦人曾长期生活在青藏高原
- 科学|科学奇闻,有生之年,人类有可能会经历的宇宙大事件
- 科学|澳洲母牛开始吃蛇,专家称缺乏营养,是真的吗?这预示着什么?
- 科学|3亿年前的文明地图,中国一直可以走到澳洲,世界是一片大陆
- 科学|惊天骗局?科学家发现即便没有人类,也无法阻止全球变暖