腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
连接
具有
不同
激活
的
高密度
层
、
、
、
在
连接
来自两个完全
连接
的
层
的
输出时,如果两个密集
层
中
的
激活
是
不同
的
,这真的有意义吗?
浏览 11
提问于2019-04-15
得票数 0
1
回答
可以在Keras中创建断开
连接
的
隐藏
层
吗?
、
是否可以使用Keras创建
具有
不同
激活
函数
的
隐藏
层
,它们都
连接
到输入
层
,而不是彼此
连接
? 例如,有10个神经元
的
隐
层
,其中5个神经元
具有
ReLU
激活
,5个神经元
具有
Sigmoid
激活
功能。
浏览 5
提问于2017-09-11
得票数 0
回答已采纳
1
回答
手写签名验证
、
、
、
我使用了ICDAR 2011签名数据集(是对原始图像和伪造图像
的
编码进行配对以获得一个培训样本(标记为0)。编码来自预先训练
的
VGG-16卷积神经网络(除去完全
连接
的
层
)。然后,我修改了
具有
以下体系结构
的
完全
连接
层
: 第二隐藏
层
:500个单位(
浏览 1
提问于2019-01-21
得票数 4
2
回答
如何使用线性
激活
函数
、
在Keras中,我可以创建任何
具有
线性
激活
函数
的
网络
层
,如下所示(例如,采用完全
连接
的
层
):但我在PyTorch文档中找不到线性
激活
函数。ReLU不合适,因为我
的
样本中有负值。如何在PyTorch中创建
具有
线性
激活
函数
的
浏览 3
提问于2021-02-20
得票数 0
1
回答
卷积神经网络是一个模型,多输出
层
。
我正在为Toxici评论分类Kaggle竞赛撰写一份大学报告,比较
不同
模型
的
不同
尝试,我想知道卷积神经网络是否是一个模型,多输出
层
模型。ONMO也称为多任务学习,这种方法将有一个输入
层
、一组隐藏
层
和每个标签
的
一个输出
层
。 另一方面,CNN是几层
具有
非线性
激活
函数(如ReLU或tanh )
的
卷积。它使用输入
层
上
的
卷积来计算输出,而不是完全
连接
<em
浏览 0
提问于2018-03-12
得票数 0
1
回答
密集
的
最后一
层
与另一个rnn
层
、
、
通常在递归神经网络(
具有
一个或多个
层
)
的
顶部添加一个密集
的
全
连接
层
作为最后一
层
,以便了解到最终输出维度
的
降维。假设我需要一个范围为-1到1
的
输出,在这种情况下,我将使用
具有
tanh
激活
函数
的
密集
层
。 我
的
问题是:为什么不添加另一个内部大小为1
的
递归
层
呢?它将是
不同
的
(在随时间
浏览 0
提问于2017-03-17
得票数 2
2
回答
如何传播/激发递归神经网络(RNN)?
、
、
我正在学习人工神经网络,并且已经实现了一个
具有
几个隐藏
层
的
标准前馈网络。现在,我正在尝试了解递归神经网络(RNN)在实践中是如何工作
的
,并且在
激活
/传播如何在网络中流动方面遇到了问题。在我
的
前馈中,
激活
是简单
的
一
层
一
层
地
激活
神经元。在递归网络中,神经元
连接
回以前
的
层
,有时
连接
到自己,因此传播网络
的
方式
浏览 0
提问于2012-10-14
得票数 10
回答已采纳
1
回答
使用Keras合并两个
不同
网络
的
特征表示
、
一个简单
的
提示是值得欣赏
的
。我们如何使用Keras融合来自2个
不同
网络
的
特征表示输出? 更多解释:该模型由CNN和门控RNN组成。,并馈送到标准softmax回归分类器。
浏览 10
提问于2017-02-07
得票数 2
1
回答
设置多个隐藏
层
的
sklearn for分类器
激活
参数
、
、
、
、
我设计了一个神经网络,它有两个隐藏
层
,
具有
不同
的
激活
函数。如何使用sklearn.neural_network.MLPClassifier库为每一
层
设置
不同
于其他
层
的
激活
函数?错误是:错误是:“rai
浏览 58
提问于2021-05-29
得票数 1
2
回答
Keras致密
层
与
激活
层
的
区别
、
、
、
、
我想知道Keras
的
激活
层
和致密
层
有什么
不同
。 由于
激活
层
似乎是一个完全
连接
的
层
,并且Dense有一个参数来传递
激活
函数,那么最佳实践是什么?让我们想象这样一个虚构
的
网络: Input -> Dense -> Dropout -> Final Layer最后一
层
应该是: Dense(activation=softmax)或Activation什么
浏览 3
提问于2016-11-29
得票数 30
回答已采纳
2
回答
Keras神经网络
的
输入节点
、
、
、
我试图建立一个基于虹膜数据集
的
神经网络。我有一个四维
的
输入。X = dataset[:,0:4].astype(float)。然后,我创建了一个四个节点
的
神经网络。model.compile(loss='categorical_crossentropy', optimizer='adam', metrics=['accuracy']) 据我所知,我将每个维度传递给单独
的
节点当我创建一个有8个输入节点
的
神经网络时,它是如何工作
的
?
浏览 0
提问于2018-08-20
得票数 2
回答已采纳
1
回答
神经网络同一
层
中
不同
的
激活
函数
、
、
、
、
我
的
问题是,如果我将
不同
的
激活
函数安排在一个神经网络
的
同一
层
中,并对其他隐藏
层
保持相同
的
趋势,将会发生什么。假设启动时有3个relu单元,在此之后有3个tanh,其它
激活
函数I是相同
的
隐
层
,对于其他隐
层
,我是在缩放所有
具有
相同尺度(递减/增加)
的
节点,并且
激活
函数
的
排列和顺序不变。
浏览 0
提问于2020-04-19
得票数 2
回答已采纳
1
回答
为什么神经网络中
的
激活
函数
具有
如此小
的
值?
、
、
事实上,即使
激活
函数
的
值在-10到10之间,这也会使网络更加灵活,就像我所看到
的
那样。毕竟,问题不可能只有在没有适当
的
公式
的
情况下才能解决。请解释一下我错过了什么。
浏览 4
提问于2020-02-12
得票数 1
回答已采纳
1
回答
深度学习中注意
层
与完全
连接
层
的
差异
、
、
、
当我查看一些代码示例时,比如这个一,添加一个注意
层
是有意义
的
,并且似乎提高了LSTM模型
的
性能。然而,它看起来非常像一个规则
的
,完全
连接
的
层
。在该链接中(并稍加修改符号),注意
层
输出。相反,一个规则
的
完全
连接
的
层
: 对于一些
激活
函数\sigma(.)。我对上面的注意实现
浏览 0
提问于2022-08-11
得票数 3
1
回答
误认某人
作为Tensorflow学习
的
一部分,我编写了一个代码,通过面部图片识别我和其他人。然而,它错误地识别了作为我
的
其他人
的
3张照片中
的
1张。你怎么解决这个问题?我尝试了
不同
的
东西,但仍然得到了相同
的
结果。 2致密
层
具有
relu和乙状结肠
激活
功能,2致密
层
具有
relu和softmax
激活
函数,3
层
具有
relu和sigmoid
浏览 7
提问于2020-05-16
得票数 1
1
回答
用tensorflow求解函数方程
、
让我们考虑一下函数方程从数学上讲,我们知道如何以封闭
的
形式求解该方程,但如果我们寻找
具有
relu
激活
函数
的
完全
连接
的
1
层
或2
层
神经网络形式
的
近似解f呢?在Tensorflow中进行梯度下降
的
最佳方法是什么对于在-10,10中随机抽取
的
小批量x's?我
的
问题源于这样一个事实,即等式中既有f(x)又有f(x+1),这与经典
的
监督学习<
浏览 0
提问于2018-09-02
得票数 1
1
回答
在Keras中可变长度序列上
的
Softmax
、
其中a随样本
的
变化而变化。我正在使用batch size = 1进行训练,以避免可变批量大小
的
问题。我创建了以下LSTM网络。现在
的
问题是,我
的
目标是形状[1,a,1]
的
概率向量。对于每个样本,概率向量
的
和是1。 我想在最后一
层
应用softmax
激活
,这样我就可以将其与目标进行比较。我该怎么办?================================================================================
浏览 2
提问于2018-05-29
得票数 0
2
回答
神经网络
的
层数有限制吗?
虽然使用了ReLU
激活
函数,但我听说神经网络存在消失梯度问题。我们是否有可能找到一个不限制层数
的
新
的
激活
函数?(也许我们需要彻底
的
搜索.在200~500
层
神经网络中检验列车
浏览 0
提问于2020-05-06
得票数 0
回答已采纳
1
回答
如何将输入
层
与Tensorflow中
的
额外层
连接
起来
、
、
、
、
我想知道是否有可能创建一个自定义
的
网络结构,其中输入
层
通过使用tensorflow与与输入
层
不相邻
的
隐藏
层
有额外
的
连接
。举个例子,假设我有一个简单
的
网络结构,如下所示。learning_rate=0.001))是否有一种方法可以使
具有
输入值
的
第一
层
浏览 4
提问于2021-12-01
得票数 0
回答已采纳
1
回答
使用MXnet保持卷积神经网络
的
训练精度不变
、
、
我完全是NN
的
新手,我想对属于
不同
游戏
的
近6000张图像进行分类(由IR收集)。我使用了以下链接中介绍
的
步骤,但我在每一轮中都获得了相同
的
训练精度。关于NN架构
的
一些信息:2个传统
层
、
激活
层
和池化
层
。
激活
类型: relu,第一
层
过滤器数量为30,第二
层
过滤器数量为70。2个完全
连接
的
层
,分别有500
层<
浏览 1
提问于2017-06-25
得票数 0
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
高端多层线路板中的高密度互连技术:提升层间连接与电气稳定性
FPC多层线路板中的高密度互连技术:如何提升层间连接质量与稳定性
10层PCB的层间连接与布线密度优化
通信模组:连接物联网感知层与传输层的关键
10层PCB线路板的高密度设计与多层互连技术
热门
标签
更多标签
云服务器
ICP备案
对象存储
腾讯会议
云直播
活动推荐
运营活动
广告
关闭
领券