新智元华人博士提出原型对比学习,非监督学习效果远超MoCo和SimCLR
本文插图
新智元报道
来源:einstein.ai
编辑:白峰
【新智元导读】继MoCo和SimCLR之后非监督学习的又一里程碑!Salesforce的华人科学家(Junnan Li)介绍了一种新的非监督式神经网络学习方法 , 这种方法能够从数百万个未标记的图像中训练深层神经网络 , 让我们离机器智能又进了一步 。
本文提出的原型对比学习(PCL), 统一了非监督式学习的两个学派: 聚类学习和对比学习 。 PCL 推动了机器学习和人工智能的圣杯--非监督式学习技术的进步 , 并向无需人类指导的机器智能迈出了重要的一步 。
本文插图
为什么是非监督学习
深层神经网络在许多方面取得了前所未有的进展 , 比如图像分类和目标检测 。 大部分的进步都是由监督式学习 / 标签模式驱动的 , 得到这么好的性能很大程度上依赖于大量带有人工注释的标签(例如 ImageNet) 。
然而 , 手工标注的成本是十分昂贵的 , 很难扩大规模 。 另一方面 , 互联网上存在着几乎无限量的未标记图片 。 非监督式学习是唯一适合开发未标记数据这个大金矿的方法 。
首先 , 让我们来谈谈两个流行的非监督式学习算法学派: 聚类和对比学习 。
聚类:机器学习中最常见的非监督式学习任务之一 。
它是将数据集划分为若干个组的过程 , 聚类算法将相似的数据点组合在一起 , 而不同的数据点组合在不同的组中 。
在所有的聚类方法中 , K 均值是最简单和最流行的方法之一 。 它是一个迭代算法 , 目的是将数据集划分为 k 组(聚类), 其中每个数据点只属于一类 , 聚类中每个数据点和聚类质心(属于该聚类的所有数据点的算术平均值)平方距离之和最小 。
本文插图
对比学习: 非监督式学习的一个新兴学派
随着深层神经网络的出现 , 对比非监督式学习已经成为一个流行的方法学派 , 它训练深层神经网络而不用标签 。 经过训练的网络能够从图像中提取有意义的特征(表示), 这将提高其他下游任务的性能 。
对比非监督式学习主要是从数据本身学习有用的表征 , 所以也称为对比自我监督学习 。
许多最先进的对比学习方法(例如 MoCo 和 SimCLR )都是基于实例辨别的任务 。
实例鉴别训练一个网络来分类两个图像是否来自同一个源图像 , 如图 1(a)所示 。 该网络(例如 CNN 编码器)将每个图像裁剪投影到一个嵌入中 , 并将同源的嵌入彼此拉近 , 同时将不同源的嵌入分开 。 通过解决实例识别任务 , 期望网络学习到一个有用的图像表示 。
本文插图
实例鉴别在无监督表征学习中表现出了良好的性能 。 然而 , 它有两个局限性 。
首先 , 利用低层线索就可以区分不同的实例 , 因此网络不一定学习到有用的语义知识 。
其次 , 如图 1(b)所示 , 来自同一个类(cat)的图像被视为不同的实例 , 它们的嵌入被推开 。 这是不可取的 , 因为具有相似语义的图像应该具有相似的嵌入 。 为了解决上述缺点 , 我们提出了一种无监督表征学习的新方法: 原型对比学习(PCL) 。
原型对比学习: 统一对比学习和聚类学习
原型对比学习是无监督表征学习的一种新方法 , 它综合了对比学习和聚类学习的优点 。
在 PCL 中 , 我们引入了一个「原型」作为由相似图像形成的簇的质心 。 我们将每个图像分配给不同粒度的多个原型 。 训练的目标是使每个图像嵌入更接近其相关原型 , 这是通过最小化一个 ProtoNCE 损失函数来实现的 。
推荐阅读
- 新智元|B站上线!DeepMind加UCL强强联手推出深度学习与强化学习进阶课程(附视频)
- 韩博士装机大师|玩游戏卡顿?只要简单2步,开启电脑最大性能,速度提升10倍!
- 新智元|人工智能领域很多引人注目的进展并不真实
- 新智元|机器学习团队常用工具总结,人生苦短,我用Python!
- 新智元|Science | 人工智能领域很多引人注目的进展并不真实
- 粤看粤精彩|中国通信工业协会IPFS专委会邀请曲博士莅临会员单位中云科技开展调研工作
- |微软前副总裁沈向洋加盟美国版“今日头条”,创始团队为华人
- 南康|甘博士:南康家具产业一定要坚持走“智能化”路线
- #牌照#喵博士资讯 | 中国广电河北雄安分公司开通首个5G基站;2020年第17批CDN牌照下发
- 喵博士资讯 | 全球已有80家运营商推出5G商用服务;第16批CDN牌照名单出炉