腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
2
回答
tensorflow
rnn_decoder
在
每个
decoder_output
上
执行
softmax
、
、
、
那么我可能会因为以下原因而丢失: outputs[0],loss = tf.reduce_mean( logits=logits, labels=labels) 是否适合为输出中的
每个
项目生成损失值,然后将这些都传递给tf.reduce_mean?这感觉效率很低,特别是对于长序列--有没有其他方法可以更有效地计算序列每一步的
softmax</
浏览 10
提问于2017-08-16
得票数 1
回答已采纳
2
回答
如何获取
Tensorflow
seq2seq嵌入输出
、
我正在尝试使用
tensorflow
训练序列到序列模型,并一直
在
查看他们的示例代码。然而,我真的不清楚这是怎么回事。
在
单词的向量表示示例中,他们谈了很多关于这些嵌入的用途,然后似乎没有提供访问它们的简单方法,除非我错了。 任何帮助弄清楚如何访问它们的人都会非常感激。
浏览 0
提问于2016-06-06
得票数 4
1
回答
TensorFlow
2.0中的spatial_
softmax
层
、
、
、
Tensorflow
1.X曾经有一个层
tensorflow
.contrib.layers.spatial_
softmax
。该层基本
上
在
每个
通道上
执行
softmax
,并返回最大点的坐标。但是,
在
TF 2.0中似乎缺少此功能。这是不是还没有移植,或者我错过了什么?还有别的选择吗?
浏览 25
提问于2020-03-08
得票数 0
2
回答
在
Tensorflow
和Keras的双通道上产生一个软件
、
、
、
我想将
softmax
函数分别应用于
每个
频道。例如,如果U=2和C=3以及该层生成[ [1 2 3], [10 20 30] ],我希望输出对通道0
执行
softmax
(1, 2, 3),对通道1
执行
softmax
(10, 20, 30)。我使用
TensorFlow
作为后端。还请解释如何确保损失是两个交叉熵之和,我如何才能证实?(也就是说,我不希望优化器只
在
一个
softmax
上
对损失进行训练,而是希望
每个
浏览 0
提问于2018-11-23
得票数 0
回答已采纳
1
回答
序列到序列模型TypeError
上
的Keras注意层:不能迭代第一维未知的张量
、
、
、
、
我正在使用
Tensorflow
2.1.1,并试图建立一个序列序列模型。attn_out]) decoder_dense = tf.keras.layers.TimeDistributed(Dense(y_voc, activation='
softmax
the model 当我运行该程序时,
在
创建注意层我检查了encoder_output
浏览 8
提问于2020-08-06
得票数 3
回答已采纳
1
回答
TensorFlow
:为什么在运行GradientDescentOptimizer列车步长时参数不更新?
import
tensorflow
as tf import csvwith open('wine_data.csv', 'rb'= tf.matmul(x, W_fc1)+b_fc1 b_fc2 = bias_variable([3]) cross_entropy = tf.re
浏览 1
提问于2017-04-19
得票数 0
1
回答
sampled_
softmax
_loss
在
Tensorflow
中的应用
、
、
、
、
= tf.get_variable("
softmax
_w", [lstm_size, vocab_size]) #outputs, states =
rnn_decoder
我
在
调试方面已经做了很大的努力
浏览 3
提问于2016-11-12
得票数 1
回答已采纳
1
回答
ConvNet :验证损失没有大幅度下降,但准确性正在提高。
、
、
使用
TensorFlow
,我构建了一个简单的分类CNN。32,32,1 Grayscale ImageRelu Activated128 FC1在这个
上
可以找到完整的代码3.234, validation accuracy 57.63%除非我误解了,或者
在
某个地方有错误
浏览 3
提问于2016-12-16
得票数 1
回答已采纳
1
回答
理解
Tensorflow
MNIST教程-输入x是列矩阵还是列矩阵数组?
、
、
、
实际
上
,
在
描述
softmax
时,x显示为列矩阵:但是,
在
tensorflow
中声明的x如下所示:我读取了一个x,它是一个可变长度的数组( None ),该数组的
每个
元素都是大小为784的列矩阵。尽管x被声明为列矩阵的数组,但它被用作仅仅是列矩阵:
在
本例中,W和b被直观地声明
浏览 1
提问于2016-12-06
得票数 3
回答已采纳
1
回答
tensorflow
将
softmax
op放在cpu
上
而不是gpu
上
、
、
、
我有一个有多个输入和几个层的
tensorflow
模型,还有一个最终的
softmax
层。该模型使用Python (使用Keras框架)进行培训,然后使用C++程序进行保存和推理,该程序可以方便
TensorFlow
的CMake构建(基本
上
遵循以下说明:)。
在
python (
tensorflow
- GPU )中,所有操作系统都使用GPU(使用log_device_placement): out/MatMul: (MatMul): /job:localhost进一步调查发现:
浏览 3
提问于2017-12-04
得票数 2
1
回答
中频平衡与sparse_
softmax
_cross_entropy_with_logits的结合
、
、
我目前正在使用
tensorflow
来解决
上
的多类分割问题。reshaped_logits = tf.reshape(logits, [-1, nClass])loss = tf.nn.sparse_
softmax
_cross_entropy_with_logits(resha
浏览 1
提问于2016-09-12
得票数 3
1
回答
keras LSTM中的条件输出
、
、
也许这是一个虚假的问题,但我想知道我是否可以让我的输出向量满足特定的要求。
浏览 3
提问于2018-04-19
得票数 0
1
回答
Keras CTC损失输入
、
在
该示例中,CTC Lambda层的输入是
softmax
层(y_pred)的输出。Lambda层调用内部调用
Tensorflow
的ctc_loss的ctc_batch_cost,但是说ctc_loss函数在内部
执行
softmax
,所以您不需要首先使用
softmax
。我认为正确的用法是将inner传递给Lambda层,所以您只
在
ctc_loss函数内部应用一次
softmax
。我已经试过这个例子了,效果很好。我应该学习这个例子还是
Tensorflo
浏览 2
提问于2017-04-18
得票数 10
回答已采纳
2
回答
tensorflow
.nn.
softmax
做什么?
、
、
activation=tf.nn.relu), 我想知道tf.nn.
softmax
在
课程描述中有什么内容,但我不清楚。顺序:
在
神经网络中定义一个层序列。 扁平化:还记得早些时候我们的图像是正方形的吗,当你打印出来的时候?扁平化就是把这个正方形变成一个一维的集合。Relu实际
上
是指“如果X>0返回X,否则返回0" --所
浏览 0
提问于2019-05-07
得票数 1
回答已采纳
1
回答
在
tensorflow
急切模式下使用NotFoundError时OpKernel
上
的tf.nn.embedding_lookup
、
在
tensorflow
1.7rc1中,我试图
在
急切模式下使用GPU加速,但是
在
各种tf函数中我总是遇到NotFoundError。以下是我的简单测试:import
tensorflow
.contrib.eager as tfeimport numpy as(weights=
softmax
_weights, biases=
softmax
_biases, inputs=embed
浏览 1
提问于2018-03-29
得票数 1
回答已采纳
1
回答
基于软件最大输出层预测的二值分类神经网络
、
、
、
、
当我
在
输出层和
softmax
_cross_entropy_with_logits_v2损失函数一起尝试
softmax
时,我所有的预测都是相同的0、1或1,0。较长版本: 我有以下模型,它尝试使用维度2的输出节点
执行
二进制分类。当我运行它时,它的输出层
上
没有激活函数,并且使用
softmax
_cross_entropy_with_logits_v2损失函数。此外,我看了一下这个,关于使用
softmax
函数的正确方法,我认为使用
soft
浏览 0
提问于2019-01-16
得票数 0
3
回答
Tensorflow
tf.nn.
softmax
()函数比手写的
softmax
函数性能好得多。
、
、
我用
tensorflow
写了一个简单的logistic回归。我发现,当使用tf.nn.
softmax
时,该算法收敛速度更快,最终精度更高。:#
Tensorflow
softmax
: Training accuracy: 79.4%Test
浏览 0
提问于2018-03-25
得票数 3
回答已采纳
1
回答
Tensorflow
:具有交叉熵的缩放逻辑
、
、
在
Tensorflow
中,我有一个分类器网络和不平衡的训练班。由于各种原因,我不能使用重采样来补偿不平衡的数据。因此,我不得不用其他方法来弥补这种不平衡,特别是根据
每个
类中的例子数将逻辑乘以权重。我的训练损失是tf.nn.
softmax
_cross_entropy_with_logits (我也可以尝试tf.nn.sparse_
softmax
_cross_entropy_with_logits)
Tensorflow
文档在对这些操作的描述中包括以下内容: 警告:此操作期望不缩放的日志,因
浏览 4
提问于2016-09-30
得票数 4
回答已采纳
3
回答
TensorFlow
中交叉熵的计算
、
、
、
我很难
在
tensorflow
中计算交叉熵。具体来说,我使用的是函数:使用看似简单的代码,我只能让它返回一个零sess.run(tf.global_variables_initializer()) c = tf.nn.
softmax
_cross_entropy_with_logits我
浏览 0
提问于2017-03-01
得票数 9
回答已采纳
1
回答
输出层
在
自定义估计器中没有激活函数
、
、
在
中,输出层没有激活。logits = tf.layers.dense(net, params['n_classes'], activation=None)问题 一般来说,输出层也应该有激活功能吗sparse_
softmax
_cross_entropy是指在计算损耗时,采用
浏览 1
提问于2018-03-26
得票数 1
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
独家:一文读懂机器学习之TensorFlow基础
深度学习系列教程(九)利用TensorFlow搭建手写数字识别系统(上)
TensorFlow基础入门
一步步提高手写数字的识别率(1)
TensorFlow 建立网络模型
热门
标签
更多标签
云服务器
ICP备案
云直播
对象存储
腾讯会议
活动推荐
运营活动
广告
关闭
领券