「图像处理」李沐团队提出最强ResNet改进版,多项任务达到SOTA | 已开源( 二 )
本文插图
这就表明 , 如果一个模型由更多的Split-Attention模块组成 , 那么它的效果会更好 。
语义分割 在语义分割下游任务的转移学习中 , 使用DeepLabV3的GluonCV实现作为基准方法 。
从下表中不难看出 , ResNeSt将DeepLabV3模型实现的mIoU提升了约1% , 同时保持了类似的整体模型复杂度 。
本文插图
【「图像处理」李沐团队提出最强ResNet改进版,多项任务达到SOTA | 已开源】值得注意的是 , 使用ResNeSt-50的DeepLabV3模型的性能 , 比使用更大的ResNet-101的DeepLabV3更好 。
ResNeSt:注意力分割网络 性能如此卓越 , 到底是对ResNet做了怎样的改良呢?
接下来 , 我们就来揭开ResNeSt的神秘面纱 。
正如刚才我们提到的 , ResNeSt是基于ResNet , 引入了Split-Attention块 , 可以跨不同的feature-map组实现feature-map注意力 。
Split-Attention块是一个计算单元 , 由feature-map组和分割注意力操作组成 。 下2张图便描述了一个Split-Attention块 , 以及cardinal group中的split-Attention 。
本文插图
本文插图
从上面的2张图中不难看出 , 都有split的影子 。 比如 K(k) 和 R(r) 都是超参数 , 也就是共计 G = K*R 组 。
除此之外 , 也可以与SE-Net和SK-Net对比着来看 。
其中 , SE-Net引入了通道注意力(channel-attention)机制;SK-Net则通过两个网络分支引入特征图注意力(feature-map attention) 。
ResNeSt和SE-Net、SK-Net的对应图示如下:
本文插图
研究人员介绍
本文插图
李沐 , 亚马逊首席科学家 , 加州大学伯克利分校客座助理教授 , 美国卡内基梅隆大学计算机系博士 。
专注于分布式系统和机器学习算法的研究 。 他是深度学习框架MXNet的作者之一 。
曾任机器学习创业公司Marianas Labs的CTO和百度深度学习研究院的主任研发架构师 。
李沐有着丰富的研究成果 , 曾先后在国内外主流期刊上发表多篇学术论文 , 其中《DiFacto — Distributed Factorization Machines 》在ACM国际网络搜索和数据挖掘(WSDM)大会上被评为最佳论文奖 。
传送门 论文地址:https://hangzhang.org/files/resnest.pdf
GitHub项目地址:https://github.com/zhanghang1989/ResNeSt
— 完 —
量子位 QbitAI · ***签约
关注我们 , 第一时间获知前沿科技动态
推荐阅读
- 「水稻」浙大研究团队全球调查显示:栽培水稻“返祖”现象普遍存在
- 「亚马逊」亚马逊工人团队呼吁员工集体请病假向公司抗议
- [Python]战“疫”期,阿里云云效团队在家高效开发实录
- 『』Palmer Luckey等AR/VR大咖加盟Holoride顾问团队
- 【】在线教育逆势招聘 , 阿卡索持续提升国际外教团队质量
- 『』何川团队发布新型单链DNA测序方法,快速、灵敏检测瞬时转录变化
- ##支付宝那个“疯起来连自己都打”的团队向你发出入伙邀请
- 「蓝鲸TMT网」QQ 安全团队:已对进行“儿童送养”违法活动相关账号进行封停处理
- 『技术』张杭君团队关于“NiOu002Fg-C3N4复合催化剂制备及其光催化还原二恶英机制”研究成果在J. Hazar. Mater. 上发表
- 机器人■伯克利团队提出一种更“聪明”的机器人导航系统