腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
2
回答
了解
卷积
层
中
的
特征
映射
(
PyTorch
)
、
我在MNIST
的
鉴别器网络中有这段代码: nn.Conv2d(1, 64, 4, 2, 1), 据我所知,有1个输入通道( MNIST图像),然后我们以2为步长对图像应用4x4内核,以生成64个
特征
映射
这是否意味着我们在这一
层
实际上有64个内核?因为为了得到64个不同
的
特征
图,我们需要64个独立
的
内核来
卷积
图像?然后在一些ReLu之后,我们有了另一个
卷积
: nn.Conv2d(64, 128, 4, 2, 1), 我们如何从64到12
浏览 86
提问于2019-02-27
得票数 1
回答已采纳
2
回答
卷积
神经网络
中
特征
映射
的
滤波器
、
、
、
、
在
卷积
神经网络
中
,我应该使用什么样
的
滤波器来提取
特征
图?我最近读到了关于
卷积
神经网络
的
文章,我
了解
到我们使用(一组滤波器)在每个
卷积
层
生成一组
特征
映射
,通过对前一
层
输出
的
滤波器进行
卷积
,生成一组
特征
映射
。谢谢。
浏览 1
提问于2015-12-05
得票数 0
回答已采纳
1
回答
用参数分担法计算
卷积
神经网络
中
的
权值
、
在阅读迈克·奥尼尔( Mike‘’Neill)
的
一本书“和”时,我遇到了一些关于
卷积
神经网络
中
权重数
的
计算,这是我想要理解
的
。网络
的
架构如下:以下是上述文章
的
解释: 第二
层
也是一个
卷积
层
,但有50个
特征
映射
。每个
特征
映射
为5x5,
特征
映射
中
的
每个单元都是前
层
所有
浏览 0
提问于2019-02-14
得票数 0
3
回答
CNN每个
卷积
层
后生成
的
特征
映射
数
、
、
、
、
我
的
问题是关于每个
卷积
层
之后
的
特征
映射
的
数目。根据我
的
研究,在每个
卷积
层
,基于我们想要
的
滤波器,我们得到
特征
映射
的确切数目。但在一些教程
中
,我遇到了一些不遵循此原则
的
体系结构。例如,在本例
中
:池后第一
卷积
层
的
输出为6个
特征
图(红
浏览 2
提问于2018-05-16
得票数 7
回答已采纳
1
回答
卷积
自动编码器:黑色
特征
映射
、
、
、
我正在使用
卷积
自动编码器。我
的
自动编码器配置有一个
卷积
层
,具有stride (2,2)或avg-pooling和relu激活,以及一个解
卷积
层
,具有stride (2,2)或avg-unpooling和relu激活。当我查看第一个
卷积
层
(20个滤波器,滤波器大小为3)之后
的
特征
图时,我得到了一些黑色
的
特征
图,而学习到
的
滤波器不是黑色
的
。如果我更改
浏览 6
提问于2017-03-27
得票数 0
1
回答
神经网络
层
激活
的
可视化
、
张量流或角
的
特征
可视化很容易,可以在这里找到。或我使用
PyTorch
和预先训练
的
resnet18模型。我只需要输入图像并为特定
的
层
(例如Layer2.0.
卷积
2)获得激活。在预训练模型中指定了Layer2.0
卷积
2。 简单地说,如何将一个代码链接到
PyTorch
?如何获取resnet18
PyTorch
中
的
特定
层
以及如何获得输入图像<em
浏览 2
提问于2019-11-24
得票数 3
回答已采纳
1
回答
卷积
生成对抗网络
的
鉴别器
的
输出是如何工作
的
,它可以有一个完全连接
的
层
吗?
、
、
、
、
我正在构建一个DCGAN,我遇到了输出形状
的
问题,当我尝试计算BCELoss时,它与标签
的
形状不匹配。为了生成鉴别器输出,我是否必须一直使用
卷积
,或者我是否可以在某个点添加一个线性
层
来匹配我想要
的
形状? 我
的
意思是,我是必须通过添加更多
的
卷积
层
来减少形状,还是可以添加一个完全连接
的
卷积
层
?我认为它应该有一个完全连接
的
层
,但在每个教程
中</
浏览 17
提问于2021-03-09
得票数 1
回答已采纳
1
回答
这是在普通
卷积
神经网络中进行
的
基本
卷积
吗?
、
、
、
这就是公式:以下是他们
的
解释: 如图4.2所示,基于多个局部滤波器(I×J)、O_i {ij} (i =1、···、I),所有输入
特征
映射
都
映射
到
卷积
层
的
多个
特征
映射
(总J= 1,···,i该
映射
可表示为信号处理
中
著名
的
卷积
运算.假设输入
特征
映射
都是一维
的
,那么
卷积
层</e
浏览 3
提问于2017-08-11
得票数 6
回答已采纳
1
回答
是否可以在Keras中看到Conv2D
层
之后
的
输出?
、
、
、
我正在努力理解每一
层
的
Keras,同时实现CNN。可以看到应用于输入图像
的
不同
特征
映射
矩阵,以得到
卷积
层
,可以看到在Conv2D步骤完成后生成
的
矩阵
的
值。 提前感谢
浏览 5
提问于2020-01-01
得票数 1
回答已采纳
1
回答
为什么
卷积
网络需要多个
特征
映射
?
我是一个深度学习
的
初学者。对于
卷积
网络,例如lenet-5,在C1
层
中有6个
特征
映射
。每个
特征
映射
都与一个唯一
的
卷积
核(5x5矩阵)相关联。我猜,最初,这6个
卷积
核是随机生成
的
浏览 0
提问于2016-01-21
得票数 0
2
回答
为什么我不能用
卷积
层
1x1训练超常网络?
、
、
、
我
的
第一个网络是 trunc_normal = lambda stddev: tf.truncated_normal_initializernum_classes, is_training=phase_train,我用
的
是带tf.nn.sparse_softmax_cross_entropy_with_lo
浏览 3
提问于2016-12-22
得票数 1
回答已采纳
1
回答
如何在CNN
中
获得输入和输出通道?
、
、
、
、
我在这里特别介绍了AlexNet架构:谁能解释一下输入和输出通道是什么?
浏览 32
提问于2018-07-05
得票数 3
回答已采纳
1
回答
为什么1x1conv与完全连接
的
层
相同?
、
我目前正在阅读“网络
中
的
网络”论文。“交叉信道参数池
层
也等价于具有1x1
卷积
核
的
卷积
层
。”如果你用数学和例子来回答的话,那将是非常感谢
的
。 请帮我~
浏览 0
提问于2021-01-28
得票数 2
回答已采纳
1
回答
4D张量形状
、
我读了一本机器学习书,在CNN
的
章节中看到了这个。
卷积
层
的
权值表示为fh,fw,fn‘,fn形状
的
4D张量。
卷积
层
的
偏置项简单地表示为fn形
的
一维张量。其中,fh是接收场
的
高度,fw是接收场
的
宽度。fn‘是前一
层
中
的
特征
映射
数,fn是当前
层
中
的
特征
浏览 3
提问于2020-08-17
得票数 0
回答已采纳
1
回答
无法理解如何计算Conv网
中
的
过滤器
、
、
、
我已经学习机器学习4个月了,我理解MLP背后
的
概念。当我开始阅读关于
卷积
神经网络
的
文章时,问题就出现了。让我告诉你我知道什么,然后问我有什么问题。CNN
的
核心部分是: 子抽样
层
:用于“生成”表示更抽象概念
的</e
浏览 1
提问于2016-11-05
得票数 4
回答已采纳
1
回答
传统
卷积
神经网络能在不同
的
训练图像大小和比例下正确训练吗?
、
例如,在转换任务
中
,模型只包含
卷积
层
和池
层
,输入图像,输出
特征
图(丢失MSE,试图生成与标签
中
特征
映射
完全匹配
的
特征
映射
)。向前传递可以获取任意图像大小,并输出大小= w/(n )_最大值_联营*2),h/(N)_最大值_联营*2)
的
特性。因此,当批量大小为1时,当我们输入不同
的
图像大小、不同
的
比例时,不存在“尺寸失配误差”。
浏览 0
提问于2019-12-01
得票数 1
1
回答
利用3通道
PyTorch
模型对4通道图像进行分类
、
、
我想使用预先训练
的
分类模型(使用
pytorch
和ResNet50作为模型)。所有的
pytorch
模型
的
3个渠道,尽管。那么,问题是:如何使用3通道预训练模型来处理4通道数据?
浏览 1
提问于2021-06-03
得票数 0
回答已采纳
1
回答
如何在CNN中计算第二conv
层
的
卷积
,是否需要对所有
特征
图进行平均处理?
、
、
、
据我所知,对于第一
层
(假设我们有一幅灰度图像),我们计算出3*3接收场
的
卷积
作为接收权与像素
的
加权和。. + xn · wn 但是对于第二
层
,在最后一个
卷积
层
中
已经有了N
特征
映射
,我们如何计算
卷积
(对于特定
的
像素/单元)?我们应该从
特征
映射
中取一个N加权和
的
平均值吗?如果问题还不清楚,我已经尝试从著名
的</e
浏览 0
提问于2021-04-08
得票数 0
回答已采纳
1
回答
对于更深层次
的
CNN学习更复杂
的
功能,有没有理论上
的
解释/量化?
、
、
我看到过这样
的
说法,即CNN
的
深层学习识别更复杂
的
特征
。这通常带有一张图片,早期
的
过滤器识别直线/简单
的
曲线,而后者
的
过滤器识别更复杂
的
模式。这很直观:你离数据越远,你对数据
的
理解就越抽象。然而,对此有理论上
的
解释吗?
浏览 6
提问于2019-12-15
得票数 0
2
回答
PyTorch
CNN线性
层
在conv2d后
的
形状
、
、
我试着学习
PyTorch
,并遇到了一个教程,其中CNN
的
定义如下, def __init__(self): x = self.linear_layers(x)我明白cnn_layers是如何制造
的
。我不明白为什么线性特性
的
数量是4*7*7。我知道4是最后一个Conv2d
层
的
输出维。 7*7
浏览 1
提问于2021-01-31
得票数 1
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
一文读懂CNN中卷积层与转置卷积层的关系
深入学习卷积神经网络中卷积层和池化层的意义
深入学习卷积神经网络中卷积层和池化层的意义(一)
卷积神经网络中PET/CT图像的纹理特征提取
图像分类中全连接层对卷积神经网络性能的影响
热门
标签
更多标签
云服务器
ICP备案
腾讯会议
云直播
对象存储
活动推荐
运营活动
广告
关闭
领券