当前位置:网站首页>NLP和CV中的Local和Global建模
NLP和CV中的Local和Global建模
2022-08-08 10:26:00 【51CTO】
CNN的感受野受卷积核大小的限制,导致了CNN实际上是一种Local的信息建模;而Self-Attention(SA)是将每个位置和所有位置计算attention weight,考虑了每个点之间的联系,因此SA是一种Global的建模。
起初,CNN大多用在CV领域中,而SA大多用在NLP领域中。但是随着SA和CNN各自优缺点的显现(如下表所示),越来越多的文章对这两个结构进行了混合的应用,使得模型不仅能够捕获全局的信息,还能建模局部信息来建模更加细粒度的信息。
1)Conv的卷积核是静态的,是与输入的特征无关的;Self-Attention的权重是根据QKV动态计算得到的,所以Self-Attention的动态自适应加权的。
2)对卷积来说,它只关心每个位置周围的特征,因此卷积具有平移不变性。但是Self-Attention不具备这个性质。
3)Conv的感知范围受卷积核大小的限制,而大范围的感知能力有利于模型获得更多的上下文信息。Self-Attention是对特征进行全局感知。
CNN和SA在NLP中的联合应用: MUSE:Parallel Multi-Scale Attention for Sequence to Sequence Learning CV中CNN和SA的联合应用: CoAtNet: Marrying Convolution and Attention for All Data Sizes
边栏推荐
- 机器学习(十六)推荐系统
- go调度原理
- 梯度消失和梯度爆炸问题详解
- 使用.NET简单实现一个Redis的高性能克隆版(三)
- SVN基本操作--文字解析版
- Solutions and ideas for the problem that Loadrunner's recording event is 0
- STM32F103ZE+SHT30检测环境温度与湿度(IIC模拟时序)
- Flutter Game Tutorial Recreate the famous T-Rex game with Flutter and Flame
- VMWare Esxi 虚拟系统数据存储扩容(增加容量)的简明教程
- "Weekly Translate Go" This time we have something different!-- "How to Code in Go" series launched
猜你喜欢
随机推荐
Detailed Explanation of Gradient Vanishing and Gradient Explosion Problems
Loadrunner的录制event为0的问题解决方法与思路
在.net core中,利用C#实现fastdfs多文件批量上传
以技术御风险,护航云原生 | 同创永益 X 博云举办产品联合发布会
语音聊天app开发——对用户更具吸引力的设计
Simple Mixed Operations Calculator
文档数据库是怎么定位一个文档的呀?
关于振弦采集模块及采集仪振弦频率值准确率的问题
左益豪:用代码创造一个新世界|OneFlow U
"Inversion of Control" and "Dependency Inversion", can't you tell the difference?
有哪些典型的列存储数据库呢?
软考证书含金量
简单混合运算计算器
NoSQL的意思就是就是不使用SQL吗?
牛客收藏上万的神作!这份阿里P8手写的MySQL主从原理手册真的牛
Redis 定长队列的探索和实践
code inspection tool
xgboost 加速
ASP.NET Core 2.0中,解决大文件上传配置问题
Postman使用简单演示