智能家居科技|谷歌大改Transformer注意力,自己挖坑自己填( 三 )
应用示例:蛋白质建模
蛋白质具有复杂的3D结构 , 是生命必不可少的拥有特定功能的大分子 。 和单词一样 , 蛋白质可以被看做线性序列 , 每个字符代表一种氨基酸 。 将Transformers应用于大型未标记的蛋白质序列语料库 , 生成的模型可用于精确预测折叠功能大分子 。 正如该研究理论结果所预测的那样 , Performer-ReLU在蛋白质序列数据建模方面表现良好 , 而Performer-Softmax与Transformer性能相媲美 。
文章图片
Performer在蛋白质序列建模时的性能 。
下面可视化一个蛋白质Performer模型 , 该模型使用基于ReLU的近似注意力机制进行训练 。 研究者发现 , Performer的密集注意力近似有可能捕捉到跨多个蛋白质序列的全局相互作用 。 作为概念的证明 , 研究者在串联蛋白长序列上训练模型 , 这使得常规的Transformer模型内存过载 。 但由于具有良好的空间利用效率 , Performer不会出现这一问题 。
文章图片
左:从注意力权重估计氨基酸相似性矩阵 。 该模型可以识别高度相似的氨基酸对 , 例如(D,E)和(F,Y) 。
文章图片
Performer和Transformer在长度为8192的蛋白质序列上的性能 。
随着Transformer的频繁跨界 , 越来越多的研究者开始关注其内存占用和计算效率的问题 , 比如机器之心前段时间介绍的《抛弃注意力 , 比EfficientNet快3.5倍 , 类Transformer新模型跨界视觉任务实现新SOTA》 。 在那篇文章中 , 研究者提出了一种名为「lambda」的层 , 这些层提供了一种捕获输入和一组结构化上下文元素之间长程交互的通用框架 。 类似的改进还在不断涌现 , 我们也将持续关注 。
【智能家居科技|谷歌大改Transformer注意力,自己挖坑自己填】参考链接:http://ai.googleblog.com/2020/10/rethinking-attention-with-performers.html
推荐阅读
- 三星公司发布2021款数字座舱 集成诸多高科技
- 刚有望“出人头地”就被三大科技巨头围剿,“挺川者”新阵地下线
- 谷歌浏览器拟禁用第三方Cookies 遭英国反垄断调查
- 谷歌建立新AI系统 可开发甜品配方
- 鸿蒙获欧企力挺!华为的大时代将到来,谷歌身上重现诺基亚的影子
- 柔性电子市场广阔,领头羊柔宇科技获更多关注
- 曝LG也将推出卷轴屏手机 你怎么看?
- AI战疫、真5G来了,十大最热门科技应用演绎速度与温度
- 又爆炸!联电科技传来一声巨响,或把8 英寸晶圆市场"炸"了
- 唐山四维智能科技有限公司:双臂机器人引领人机协作新纪元