腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(9999+)
视频
沙龙
1
回答
向
嵌入
层
添加
正则
化时
的
警告
、
、
当我将l2
正则
化
添加
到分类数据
的
嵌入
中时,如下所示: emb_layer = [] emb_layer = Flatten(name = 'embedding')(emb_layer) 我收到以下
警告
浏览 37
提问于2021-01-29
得票数 0
1
回答
理解Keras中
的
正则
化
、
我试图理解为什么Keras中
的
正则
化语法看起来是这样
的
。然而,在Keras中,
正则
化是在每个
层
的
基础上定义
的
。mymodel.compile(optimizer = 'ad
浏览 71
提问于2018-06-02
得票数 18
回答已采纳
2
回答
用于二元分类
的
CNN模型
、
、
、
我们是数据科学(和编程)方面的新手学生,我们正在尝试建立一个用于二元分类
的
cnn模型(男-女)。我们
的
精度是良好
的
enouch,0.97,但验证精度为0.56 (我们认为存在过度拟合)。loss='binary_crossentropy', metrics=['accuracy']) 如何提高验证
的
准确性
浏览 5
提问于2020-08-26
得票数 0
回答已采纳
1
回答
Layer.add_loss()
的
目的和直觉是什么?它怎麽工作?它只计算当前
层
的
损耗吗?
、
、
、
、
我看了tensorflow关于
的
教程,发现了一个代码,如下所示:class ActivityRegularizationLayerself, inputs): return inputs def call(self, i
浏览 0
提问于2020-07-04
得票数 2
1
回答
Tensorflow dynamic_rnn降级
、
、
、
、
tf.nn.dynamic_rnn似乎遭到了反对: 我已经签出了keras.layers.RNN(单元格),它说它可以使用掩蔽,我假设它可以替代dynamic_rnn
的
sequence_length该
层
支持用可变
的
时间步骤对输入数据进行掩蔽。若要将掩码引入数据,请使用
嵌入
层
,将mask_zero参数设置为True。但是,
浏览 2
提问于2019-03-20
得票数 3
回答已采纳
1
回答
如何在单张中使用overlayadd或overlayremove访问覆盖名称
、
当我使用这个代码( )时,我需要知道覆盖图(标记)
的
名称: console.log(e);map.on('overlayremove',function(e) {}); 我在控制台
的
结果中没有看到name param。
浏览 2
提问于2014-05-17
得票数 2
1
回答
为什么model.losses会返回
正则
化损失?
、
、
、
、
我见过tensorflow 2.0
的
代码片段,它用于计算损失。总损失由两部分组成: 1)
正则
化损失;2)预测损失。我
的
问题是为什么model.losses是
正则
化
的
损失?model这里是tf.keras.Model
的
一个实例。我对tensorflow官方API文档感到有点困惑。,上面说 与此
层
相关
的
损失。当访问该属性时,会创建变量
正则
化张量,因此它非常安全:在tf.GradientTape下访问损失会将梯度传播回相应
的</e
浏览 1
提问于2019-06-20
得票数 9
1
回答
在TensorFlow中增加
正则
化成本
的
自定义损失函数
、
、
我编写了一个自定义丢失函数,将
正则
化损失
添加
到总损失中,我只在内核中
添加
了L2
正则
化程序,但是当我调用model.fit()时出现了一个
警告
,该
警告
声明这些偏差不存在梯度,并且不更新偏差,如果从其中一个
层
的
内核中删除
正则
化损失,则该内核
的
梯度也不存在。我试图在每一
层
中
添加
偏置
正则
化器,所有的东西都正常工作,但我不想将偏见
正则
化,那么我该怎么办呢?
浏览 1
提问于2021-06-09
得票数 0
回答已采纳
2
回答
二值分类神经网络体系结构
的
建立
、
我正在阅读关于神经网络
的
tensorflow教程,我看到了体系结构部分,这有点让人困惑。有人能解释一下他为什么在这段代码中使用以下设置吗?
嵌入
值为16?对于单元
的
选择,我得到了在最后一个密集
层
后面的直觉,因为它是二进制分类(1),但是为什么第二
层
有16个单元呢?16个
嵌入
单元与第一个致密
层
中
的
16个单元相关吗?好像他们应该是平等
的
?如果有人也能解释这段话 第一
层
是
嵌入
层
。该<em
浏览 1
提问于2018-08-07
得票数 0
回答已采纳
2
回答
在kernel_regularizer中将l2_regularizer设置为l2_regularizer意味着什么?
、
在其他问题中,我发现在卷积网络中使用tensorflow进行L2
正则
化
的
标准方法如下。对于每个conv2d
层
,将参数kernel_regularizer设置为l2_regularizer,如下所示 通过为单个
层
设置kernel_regularizer,您正在告诉网络将该
层
<em
浏览 2
提问于2018-08-04
得票数 2
回答已采纳
3
回答
如何将新
的
参数动态
添加
到Pytorch中
的
优化器中?
、
、
、
最初
的
帖子删除并增加了
层
,但我认为我
的
情况并没有那么不同。我还想
添加
层
或更多
的
过滤器或字
嵌入
。我
的
主要动机是AI代理不知道整个词汇表/字典,因为它很大。我强烈地(暂时)不做字符
的
RNN。因此,当代理启动前
向
传递时,它可能会发现它从未见过
的
新单词,并需要将它们
添加
到
嵌入
表中(或者在开始向前传递之前
添加
新
的
过滤器)。所以我
浏览 1
提问于2019-04-11
得票数 16
1
回答
使用多个GPU运行LSTM将获得“输入和隐藏
的
张量不在同一设备上”。
、
、
、
我正在努力训练一个LSTM
层
在火把。我正在使用4个GPU。初始
化时
,我
添加
了.cuda()函数,将隐藏
层
移动到GPU。但是,当我使用多个GPU运行代码时,我得到
的
是运行时错误:我试图在前
向
函数中使用type(torch.FloatTensor).cuda(), self.hidden[1].type(torch.FloatTensor).cuda())
浏览 3
提问于2019-02-04
得票数 17
1
回答
从预先训练
的
模型中得到128模糊特征向量,而不需要在Pytorch中进行微调。
、
、
、
、
我需要从一组图像
的
视觉特征,以便有一种
嵌入
的
输入图像。我需要
的
维数是128。我考虑删除预先训练过
的
模型(如ResNet50 )
的
最后一
层
,而不是用平坦层替换最后一个完全连接
的
层
,并对每幅图像进行前
向
传递。问题是,在扁平
层
之后,ResNet50给出了一个512个模糊
的
特征向量。如果我
添加
另一个输出dim为128
的
完全连接
层
,我需要
浏览 1
提问于2021-10-03
得票数 0
回答已采纳
1
回答
Keras和Pytorch编解码模型
的
差异
、
、
、
在编码器-译码器模型
的
构造之间,似乎存在着显著
的
、根本性
的
差异.这是,这是。 Pytorch使用在编码器中没有激活
的
嵌入
层
,但对解码器中
的
嵌入
层
使用relu激活。鉴于这些意见,我
的
浏览 9
提问于2020-06-09
得票数 0
回答已采纳
1
回答
制作一个按钮,其背景和内容仅在指定
的
内部矩形内绘制(而不是在其所有框架内)。
、
、
、
、
我正在寻找一种简单
的
方法,如何创建一个按钮(或UIView
的
其他子类),该按钮不是在其所有框架中绘制,而是仅在指定
的
内嵌矩形中绘制。内(内嵌)矩形将有一些自定义半径
的
圆角。下图说明了这一点:概括如下: 内矩形及其角半径
的
大小必须是可定制
的
。子类是一个选项,但是有更简单
的
解决方案,我将继续这样做。
浏览 1
提问于2014-10-22
得票数 0
回答已采纳
2
回答
如何在对imagenet提取
的
模型进行微调时应用
正则
化
、
微调
的
一种方法是提取一个模型(比如在Imagenet上训练
的
VGG16 ),
添加
一
层
左右,然后训练模型。 是否可以使用Tensorflow.Keras将
正则
化应用于模型
层
,而不是
添加
的
层
。我不认为将
正则
化仅
添加
到一
层
会对结果产生太大影响。我知道我们可以对
添加
的
层
应用
正则
化,如下所示: x = Dense(cla
浏览 45
提问于2020-07-22
得票数 1
回答已采纳
1
回答
关闭Konvajs
警告
、
当有五个以上
的
层
时,Konva按照以下方式
向
控制台输出
警告
: 有没有办法阻止Konva库输出某些
警告
?
浏览 1
提问于2019-03-28
得票数 2
回答已采纳
1
回答
单个词具有多个范畴特征
的
词
嵌入
、
、
、
我正在寻找一种方法来实现在Pytorch中使用LSTM
层
实现word
嵌入
网络,这样nn.Embedding
层
的
输入与单词I
的
向量具有不同
的
形式。在我
的
例子中,每个单词都有一个对应
的
向量,因此,我
的
语料库中
的
句子是一个向量向量。例如,我可能有"King“和向量500,3,18,其中500是单词ID,3是单词颜色,18是字体大小等等。
嵌入
层
的
作用是进行一些自
浏览 3
提问于2019-10-08
得票数 0
回答已采纳
1
回答
Keras
正则
化与自定义损失
、
、
我已经构建了一个定制
的
Keras模型,它由不同
的
层
组成。由于我希望向这些
层
添加
L2
正则
化,所以我传递了一个keras.regularizers.l2实例作为这些
层
的
kernel_regularizer参数
的
参数(作为示例,请参见
的
构造函数)。,而是必须: 用model.trainable_variables计算损失相对于模型权重(即tf.G
浏览 1
提问于2020-09-18
得票数 3
回答已采纳
1
回答
嵌入
式类中
的
JDO - HashMap
、
、
、
您能够在App上
的
嵌入
式类中存储HashMap吗?> requests; requests = new HashMap<String, Integer>();}指定
的
类com.google.appengine.api.datastore.Blob不是可持久
的
我知道您可以在“普通”类中成功地使用Hash
浏览 1
提问于2011-05-24
得票数 1
点击加载更多
相关
资讯
Transformer也能生成图像,新型ViTGAN性能比肩基于CNN的GAN
手把手教你数据不足时如何做深度学习NLP
机器学习-特征选择
避免神经网络过拟合的5种技术
LiRank: LinkedIn在2月新发布的大规模在线排名模型
热门
标签
更多标签
云服务器
ICP备案
实时音视频
即时通信 IM
对象存储
活动推荐
运营活动
广告
关闭
领券