0610 每日文献阅读 打卡
2021/6/10 18:27:43
本文主要是介绍0610 每日文献阅读 打卡,对大家解决编程问题具有一定的参考价值,需要的程序猿们随着小编来一起学习吧!
Read Data: 0610 |
Publication: CVPR 2021 |
||
Title: LambdaNetworks: Modeling long-range Interactions without Attention Participants: Irwan Bello |
|||
Aim: 为了捕获输入信息和结构化上下文信息(例如,被其他像素包围的像素)之间的长距离交互。 |
Research Question: 1、 为了长距离交互作用,自注意力机制需要大量内存,阻碍了其在长序列和多数据等大内存方面的应用。 2、 线性注意力为高内存使用提供一个可伸缩的改进方案,但不能对内部数据结构建模,如像素之间的相对距离或图中节点之间的边缘关系。 |
||
Method:
|
|||
Results: 在使用额外的130M伪标记图像进行大规模半监督训练时,LambdaResNets可实现高达86.7%的ImageNet精度,同时比EfficientNet NoisyStudent快9.5倍,比Vision Transformer快9倍。 |
Discussion: |
||
Conclusion: 我们提出了一类新的层,称为lambda层,它提供了一个可伸缩的框架,用于捕获输入及其上下文之间的结构化交互。Lambda层将可用上下文概括为固定大小的线性函数(称为lambdas),这些函数直接应用于其关联的查询。由此产生的神经网络LambdaNetworks在计算上是高效的,能够以较小的内存成本捕获长期依赖关系,使其应用于大型结构化输入,如高分辨率图像。大量关于计算机视觉任务的实验显示了它们的多功能性和优于卷积和注意网络。我们介绍了LambdaResNets,一个混合LambdaNetworks系列,可以达到优秀的ImageNet精度,并在流行的EfficientNets和Vision transformer上实现高达9.5倍的加速,显著提高了图像分类模型的速度和精度的折衷。 |
Further: |
||
Ref: 本文提出新层:Lambda Layers!由其衍生出的LambdaResNets,极大地改善了图像分类模型的速度与准确性权衡。在ImageNet上表现SOTA,同时比EfficientNets快约4.5倍!并在检测和分割任务中性能提升明显,代码开源。 |
这篇关于0610 每日文献阅读 打卡的文章就介绍到这儿,希望我们推荐的文章对大家有所帮助,也希望大家多多支持为之网!
- 2024-11-23Springboot应用的多环境打包入门
- 2024-11-23Springboot应用的生产发布入门教程
- 2024-11-23Python编程入门指南
- 2024-11-23Java创业入门:从零开始的编程之旅
- 2024-11-23Java创业入门:新手必读的Java编程与创业指南
- 2024-11-23Java对接阿里云智能语音服务入门详解
- 2024-11-23Java对接阿里云智能语音服务入门教程
- 2024-11-23JAVA对接阿里云智能语音服务入门教程
- 2024-11-23Java副业入门:初学者的简单教程
- 2024-11-23JAVA副业入门:初学者的实战指南