AI人工智能,融资并购|AI公司融了1500万美元,却引来LeCun「嘲讽三连」,还要出书调侃CEO?( 三 )


文章图片

文章图片

他的意思是说:
LeCun你先等等 , 我这个Gary有话说 。我认为深度学习是革命性的进步 , 也是一个实用的工具 。
大家现在都在用微分方法做模型渲染和模拟 , 这点很重要 , 因为大家都把这些要素作为变量加进Pytorch中 。
一段代码稍加修改就可微 , 这使得使用Pytorch的深度学习进展迅速 。
深度学习部分证明了通用人工智能的可行 , 但问题是结果的解释和归因标准缺失 , 却少有人质疑 。
祝公司办好!祝你们永远有清晰可用的梯度 。
Gary Bradski委婉得多 , 承认了深度学习当下的重要性 , 但又说模型解释不了不行 。
他一语道出了目前深度学习的现状和隐忧 , 这是马库斯长期炮轰深度学习 , 和各江湖大佬结下恩怨的症结 , 也是未来人工智能发展路径的争论焦点 。
深度学习“错”在哪里?
关于马库斯对AI的批评 , 最具代表性的是其2018年写下的长文 , 将自己的对深度学习的看法全面、系统地阐述了一遍 。
这篇文章可以总结为深度学习的十大缺陷 。1、深度学习对数据很高度依赖
抽象的关系 , 人类依靠明确的定义 , 很容易就能学会 。
但深度学习不具备这种通过语言描述的清晰定义来学习抽象概念的能力 , 动辄需要数以亿计的数据训练 。
Geoff Hinton也表达了对深度学习系统依赖于大量标注数据这个问题的担忧 。
AI人工智能,融资并购|AI公司融了1500万美元,却引来LeCun「嘲讽三连」,还要出书调侃CEO?
文章图片

文章图片

2、深度学习迁移能力有限
“深度学习”中的“深” , 指的是技术上、架构上的性质 , 也就是堆叠了很多隐藏层 。这种“深” , 并不是说它对抽象的概念有深刻的理解 。
一旦任务场景改变 , 就需要重新找数据训练 。3、深度学习还不能自然处理层级结构
当前大多数基于深度学习的语言模型都将句子视为词的序列 。
在遇到陌生的句子结构时 , 循环神经网络(RNN)无法系统地展示、扩展句子的递归结构 。
这是因为深度学习学到的各组特征之间的关联是平面的 。4、深度学习还不能搞定开放式推理
在斯坦福问答数据集SQuAD上 , 如果问题的答案包含在题面文本里 , 现在的机器阅读阅读理解系统能够很好地回答出来 , 但如果文本中没有 , 系统表现就会差很多 。
也就是说 , 现在的系统还没有像人类那样的推理能力 。
AI人工智能,融资并购|AI公司融了1500万美元,却引来LeCun「嘲讽三连」,还要出书调侃CEO?
文章图片

文章图片

5、深度学习还不够透明
神经网络的“黑箱”性质一直很受关注 。但是这个透明性的问题 , 至今没有解决 。6、深度学习还未与先验知识结合
因为缺少先验知识 , 深度学习很难解决那些开放性问题 , 比如怎样修理一辆绳子缠住辐条的自行车?
看似简单的问题 , 涉及到现实世界中大量不同的知识 , 没有哪个数据集适用于它们 。7、深度学习不能区分因果和相关关系
深度学习系统 , 学习的是输入和输出之间复杂的相关性 , 但是学习不到其间的因果关系 。
AI人工智能,融资并购|AI公司融了1500万美元,却引来LeCun「嘲讽三连」,还要出书调侃CEO?
文章图片

文章图片

8、深度学习需要在严格稳定的环境下工作
深度学习的这套逻辑 , 在高度稳定的环境下表现最佳 , 例如下棋这种博弈 , 其中的规则不会改变 , 但在政治和经济生活中 , 不变的只有改变 。9、深度学习只是一种近似
深度学习在一些特定领域表现出色 , 但也很容易被愚弄 。10、深度学习难以工程化


推荐阅读