人工智能技术含量降级,算法工程师从主人沦为保姆?是喜是忧?

现在人们常常把2016年称为“人工智能元年” , 因为在这一年里 , 人工智能的发展迎来一波又一波的高潮 。重要的标志性事件包括:
2016年3月 , 谷歌主导开发的人工智能程序AlphaGo以4:1大胜围棋世界冠军李世石 。
2016年9月 , 谷歌、IBM、脸书、亚马逊和微软五家科技巨头宣布组成人工智能联盟“Partnership on AI” , 致力于在人工智能的科研领域建立良性的竞争与合作关系 。
2016年10月 , 美国白宫发布了题为《为人工智能的未来做好准备》和《国家人工智能研究与发展策略规划》两份重要报告 。
不过2016年的一系列人工智能的热点事件 , 基本都是由科技巨头企业以及被科技巨头企业影响的政府部门主导的 , 而人工智能真正给整个信息产业带来冲击 , 实际是从2017年开始的 。
2017年3月 , NEC公司的人脸识别技术在美国国家标准与技术研究院(NIST)组织的视频人脸评估测试中获得了最高的性能评估 , 其人脸识别技术以99.2%的匹配精度获得第一名 , 0.8%的错误率比第二名错误率的四分之一还要低 。
对于这一事件 , 可能公众的认知不多 , 但对业界的震动却非常大 , 这不仅仅是因为NEC公司的测试成绩一骑绝尘 , 直接把竞争对手甩下了几个身位 , 而更关键的是 , 其超过99%的正确识别率 , 直接把这项技术推到了可以进行规模化实用推广的地步 。这里面蕴含了大量中小科技企业都可以染指的巨大市场商机 , 所以意义非常深远 。
随后 , 竞争对手们了解到NEC公司之所以能够取得这么大的进步 , 正是因为引入了以“深度学习”为基础的人工智能技术后 , 整个业界的研发重点就迅速转到了相同的方向 。各种模式识别技术(例如人脸、图像、语音等)几乎全都抛弃了之前一直坚持的自上而下的“专家系统” , 放弃了传统的人工智能算法研究 , 而直接切换到了深度学习的平台上 。
由于基于深度学习的人工智能技术并不神秘 , 有大量的且仍在不断丰富的开源技术可供使用 , 所以在随后的一两年时间里 , 各家公司的人工智能平台就都搭建了起来 。而经过深度学习的训练 , 在两年后的NIST竞赛中 , 各家公司的算法精度虽然还没有赶上有先发优势的NEC公司 , 但成绩已经非常接近了 , 这似乎也说明 , 基于深度学习的人工智能 , 已经成为了人工智能领域事实上的“标准技术” 。
不过 , 基于深度学习的人工智能技术能够在短时间内被大量公司迅速掌握 , 这一现象同时也说明了 , 从技术上来说 , 其并不是一个特别新颖 , 特别高深 , 有较高壁垒的技术 。事实上 , 基于深度学习的人工智能技术的出现 , 可以追溯到50年代的“感知机” , 不过在2016年之前 , 算力不足、数据缺失以及技术惯性 , 严重制约着依赖于此的深度学习技术的实用化 。而经过互联网多年的积累 , 算力和数据都已经到位了 , 且谷歌的AlphaGo又做了一次成功无比的示范 , 因此“尘封”多年的深度学习技术终于“枯木逢春”了 。

人工智能技术含量降级,算法工程师从主人沦为保姆?是喜是忧?

文章插图
 
基于深度学习的人工智能也需要算法 , 但相比传统的数学算法 , 从对算法工程师脑力的挑战来说 , 其精巧度和复杂度要降级不少 。不少以前的算法工程师都觉得“深度学习”好“傻” , 好“暴力” 。一种常见的套路是:设置框架 , 喂数据训练 , 调参数 , 喂数据训练 , 调参数… , 如此循环往复 。对于很多算法工程师来说 , 提高质量精度的方法 , 几乎等同于给机器“更多的数据”和让机器进行“更长时间的训练” , 而重点似乎并不在于算法本身的提高 。
人工智能技术含量的降级直接导致了两个后果:
第一:以深度学习为基础的人工智能技术 , 在使计算机变“聪明”的同时 , 却使算法工程师变得更“傻” 。这种傻有三个纬度 , 一个是算法工程师的工作难度在降低 , 对其智力极限的挑战在降低;二是算法工程师实际上并不知道机器到底学会了什么 , 他们只能看到“机器越来越聪明”这个结果 , 却并不知道详细的细节;三是大量的算法工程师的知识水平和技术能力都处于同一层级上 , 有极强的可替代性 , 甚至非计算机、数学、统计相关专业的毕业生 , 都能在较短的时间内成为一名“合格”的“算法工程师” 。原来 , 算法工程师需要通过数学理论去精确控制机器的行为 , 是机器的“主人”;可现在 , 算法工程师在某种程度上已经沦为了机器的“保姆” , 只需要为机器提供一些层次较低的保障性服务就够了 。


推荐阅读