torch.nn.Conv1d的原理以及实际应用

2021/4/24 10:26:42

本文主要是介绍torch.nn.Conv1d的原理以及实际应用,对大家解决编程问题具有一定的参考价值,需要的程序猿们随着小编来一起学习吧!

torch.nn.Conv1d的原理以及实际应用
![在这里插入图片描述
图片来源:https://zhuanlan.zhihu.com/p/29201491
所谓一维卷积,就是卷积时只看列,不看行。初始:7乘5 卷积核:三种大小,分别为25、35、45,每种两个。重点是卷积时,只在列一个方向上滑动。这里stride默认为1,所以输出(n+2p-f)/s+1,padding为0,以最后一个卷积核为例,{(7-2)/1 +1=6乘(5-5)/1+1=1},得到一个(61)的列向量,就是结果。其他卷积也是如此,所以一共得到(41),(51),(61)的列向量各两个,共计6个。经过max_pooling,每个列向量变成1个值。最后获得6个值,两两进行拼接,得到三个(21)向量这三个向量再次拼接,在经过一个全连接层,输出2个类别的概率。

代码
conv1 = nn.Conv1d(in_channels=256, out_channels=100, kernel_size=3, stride=1, padding=0) input = torch.randn(3, 7,5) # [batch_size, max_len, embedding_dim] input = input.permute(0, 2, 1) # 交换维度:[batch_size, embedding_dim, max_len] out = conv1(input) # [batch_size, out_channels, n+2p-f/s+1] print(out.shape) # torch.Size([32, 100, 33])输入375 代表输入3个句子,每个句子7个词,每个词最大长度5
为什么要交换维度?个人理解,由于卷积实在每个词上进行,而不是字母上



这篇关于torch.nn.Conv1d的原理以及实际应用的文章就介绍到这儿,希望我们推荐的文章对大家有所帮助,也希望大家多多支持为之网!


扫一扫关注最新编程教程