print(out.size())
# 输出结果的size查看一下
此时输出结果为
torch.Size([1, 3, 28, 28])
当打补丁后,输出的size与原图片的size一致
若取不同步长时...print(out.size())
# 输出结果的size查看一下
此时步长取2的输出为
torch.Size([1, 3, 14, 14])
这种大跨越幅度的读取数据接收的信息量有所减少,进而达到一种降维的目的...size为3
# 步长这里为2
x = torch.rand(1, 1, 28, 28)
# 随机代入数据到x
out = layer.forward(x)
# 进行一次卷积的前向运算
# 输出层间的参数的...size查看一下
print(layer.weight.size())
输出为
torch.Size([3, 1, 3, 3])
这里第一个3代表3个通道,input channel数量为之前的1,3...3 代表了所取的kernel的size。