当前位置:网站首页>torch.stack()的官方解释,详解以及例子
torch.stack()的官方解释,详解以及例子
2022-08-09 10:42:00 【模糊包】
可以直接看最下面的【3.例子】,再回头看前面的解释
在pytorch
中,常见的拼接函数主要是两个,分别是:
stack()
cat()
实际使用中,这两个函数互相辅助,使用场景不同:关于cat()
参考torch.cat(),但是本文主要说stack()
。
函数的意义:使用stack
可以保留两个信息:[1. 序列] 和 [2. 张量矩阵] 信息,属于【扩张再拼接】的函数。
形象的理解:假如数据都是二维矩阵(平面),它可以把这些一个个平面按第三维(例如:时间序列)压成一个三维的立方体,而立方体的长度就是时间序列长度。
该函数常出现在自然语言处理(NLP
)和图像卷积神经网络(CV
)中。
1. stack()
官方解释:沿着一个新维度对输入张量序列进行连接。 序列中所有的张量都应该为相同形状。
浅显说法:把多个2维的张量凑成一个3维的张量;多个3维的凑成一个4维的张量…以此类推,也就是在增加新的维度进行堆叠。
outputs = torch.stack(inputs, dim=?) → Tensor
参数
inputs : 待连接的张量序列。
注:python
的序列数据只有list
和tuple
。dim : 新的维度, 必须在
0
到len(outputs)
之间。
注:len(outputs)
是生成数据的维度大小,也就是outputs
的维度值。
2. 重点
- 函数中的输入
inputs
只允许是序列;且序列内部的张量元素,必须shape
相等
----举例:[tensor_1, tensor_2,..]
或者(tensor_1, tensor_2,..)
,且必须tensor_1.shape == tensor_2.shape
dim
是选择生成的维度,必须满足0<=dim<len(outputs)
;len(outputs)
是输出后的tensor
的维度大小
不懂的看例子,再回过头看就懂了。
3. 例子
1.准备2个tensor
数据,每个的shape
都是[3,3]
# 假设是时间步T1的输出
T1 = torch.tensor([[1, 2, 3],
[4, 5, 6],
[7, 8, 9]])
# 假设是时间步T2的输出
T2 = torch.tensor([[10, 20, 30],
[40, 50, 60],
[70, 80, 90]])
2.测试stack函数
print(torch.stack((T1,T2),dim=0).shape)
print(torch.stack((T1,T2),dim=1).shape)
print(torch.stack((T1,T2),dim=2).shape)
print(torch.stack((T1,T2),dim=3).shape)
# outputs:
torch.Size([2, 3, 3])
torch.Size([3, 2, 3])
torch.Size([3, 3, 2])
'选择的dim>len(outputs),所以报错'
IndexError: Dimension out of range (expected to be in range of [-3, 2], but got 3)
可以复制代码运行试试:拼接后的tensor
形状,会根据不同的dim
发生变化。
dim | shape |
---|---|
0 | [2, 3, 3] |
1 | [3, 2, 3] |
2 | [3, 3, 2] |
3 | 溢出报错 |
4. 总结
函数作用:
函数stack()
对序列数据内部的张量进行扩维拼接,指定维度由程序员选择、大小是生成后数据的维度区间。存在意义:
在自然语言处理和卷及神经网络中, 通常为了保留–[序列(先后)信息] 和 [张量的矩阵信息] 才会使用stack
。
函数存在意义?》》》
手写过RNN的同学,知道在循环神经网络中输出数据是:一个list
,该列表插入了seq_len
个形状是[batch_size, output_size]
的tensor
,不利于计算,需要使用stack
进行拼接,保留–[1.seq_len这个时间步]和–[2.张量属性[batch_size, output_size]
]。
边栏推荐
- BERT预训练模型(Bidirectional Encoder Representations from Transformers)-原理详解
- Oracle数据库:for update 和for update nowait的区别
- 爬虫实例,获取豆瓣上某部电影的评论
- How tall is the B+ tree of the MySQL index?
- libavcodec.dll导致游戏不能运行及explorer关闭
- 非科班毕业生,五面阿里:四轮技术面+HR一面已拿offer
- 编程技术提升
- Shell script combat (2nd edition) / People's Posts and Telecommunications Press Script 2 Validate input: letters and numbers only
- Database connection operations for MySQL and MyEclipse
- Electron application development best practices
猜你喜欢
上传张最近做的E2用的xmms的界面的截图
shell脚本实战(第2版)/人民邮电出版社 脚本2 验证输入:仅限字母和数字
Dialogue with the DPO of a multinational consumer brand: How to start with data security compliance?See you on 8.11 Live!
pytorch widedeep文档
Probably 95% of the people are still making PyTorch mistakes
程序员的专属浪漫——用3D Engine 5分钟实现烟花绽放效果
强化学习 (Reinforcement Learning)
可能95%的人还在犯的PyTorch错误
使用.NET简单实现一个Redis的高性能克隆版(四、五)
多行省略和选择器
随机推荐
Unix System Programming Chapter 15 15.2 Pipes
SQL Server查询优化
分类预测 | MATLAB实现CNN-LSTM(卷积长短期记忆神经网络)多特征分类预测
xmms已经发布到v1.3了,好久没写博客了
jvm-类加载系统
一键完成物联网产品注册,快速体验在线调试设备
Transformer+Embedding+Self-Attention原理详解
工作--今天的学习
面试官:MySQL 中 update 更新,数据与原数据相同时会执行吗?大部分人答不上来!
编解码(seq2seq)+注意机制(attention) 详细讲解
深度学习--生成对抗网络(Generative Adversarial Nets)
史上最小白之《Word2vec》详解
2022强网杯WP
百度云大文件网页直接下载
情感分析SowNLP词库
AQS同步组件-FutureTask解析和用例
深度学习--神经网络(基础讲解)
15.10 the POSIX semaphore Unix environment programming chapter 15
[相机配置] 海康相机丢包配置环境
The common problems in laptops, continuously updated