当前位置:网站首页>NLP和CV中的Local和Global建模
NLP和CV中的Local和Global建模
2022-08-08 10:26:00 【51CTO】
CNN的感受野受卷积核大小的限制,导致了CNN实际上是一种Local的信息建模;而Self-Attention(SA)是将每个位置和所有位置计算attention weight,考虑了每个点之间的联系,因此SA是一种Global的建模。
起初,CNN大多用在CV领域中,而SA大多用在NLP领域中。但是随着SA和CNN各自优缺点的显现(如下表所示),越来越多的文章对这两个结构进行了混合的应用,使得模型不仅能够捕获全局的信息,还能建模局部信息来建模更加细粒度的信息。
1)Conv的卷积核是静态的,是与输入的特征无关的;Self-Attention的权重是根据QKV动态计算得到的,所以Self-Attention的动态自适应加权的。
2)对卷积来说,它只关心每个位置周围的特征,因此卷积具有平移不变性。但是Self-Attention不具备这个性质。
3)Conv的感知范围受卷积核大小的限制,而大范围的感知能力有利于模型获得更多的上下文信息。Self-Attention是对特征进行全局感知。
CNN和SA在NLP中的联合应用: MUSE:Parallel Multi-Scale Attention for Sequence to Sequence Learning CV中CNN和SA的联合应用: CoAtNet: Marrying Convolution and Attention for All Data Sizes
边栏推荐
- 一个用来装逼的利器
- 《STM32MP1 M4裸机CubeIDE开发指南》第二十四章 DAC实验
- Detailed Explanation of Gradient Vanishing and Gradient Explosion Problems
- 机器学习模型太慢?来看看英特尔(R) 扩展加速
- 新款“廉价”SUV曝光,安全、舒适一个不落
- 以技术御风险,护航云原生 | 同创永益 X 博云举办产品联合发布会
- Postman使用简单演示
- 英文token预处理,用于将英文句子处理成单词
- 重载与重写有什么区别?
- Apple developer account application process full version
猜你喜欢
随机推荐
机器学习模型太慢?来看看英特尔(R) 扩展加速
五、业务数据分析
市面上有哪些经典的文档数据库呀?
经开安监App技术服务支持
People's Congress Jincang database login, view database
Mobile/Embedded-CV Model-2017: MobelNets-v1
英文token预处理,用于将英文句子处理成单词
Solutions and ideas for the problem that Loadrunner's recording event is 0
"Weekly Translate Go" This time we have something different!-- "How to Code in Go" series launched
移动端/嵌入式-CV模型-2019:MobelNets-v3
Code implementation of various kinds of attention
NoSQL有哪些特点呢?
CentOS MySQL体系管理
xgboost 加速
d实验新异常
snmptrapd+snmptt接收告警并用py脚本发送
我用开天平台做了一个城市防疫政策查询系统【开天aPaaS大作战】
在.net core中,利用C#实现fastdfs多文件批量上传
LeetCode每日一题--有序队列(整理最小表示法)
PWA 应用 Service Worker 缓存的一些可选策略和使用场景