腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
在
TF
2.x
中
打印
每个
时期
的
损失
值
、
我
在
TF
2.3
中
编写了自定义
损失
函数,其中
损失
由几个子
损失
组成,因为我想跟踪子
损失
,所以我使用
tf
.print
打印
了它们 def custom_loss_envelop(model_inputs,
tf
.print("l1:",
tf
.math.round(l1 * 100)/100,", l2:",
tf
.math.round(l2
浏览 27
提问于2021-01-31
得票数 0
2
回答
Tensorflow纪元如何获取信息
、
、
、
如何才能“获取或访问”该信息(最好是在其运行时),以便将字符串放入文本字段
中
。model.fit(......)我正在为我
的
图形用户界面使用pyqt5,并希望将文本字段
的
文本设置为model.fit显示
的
内容(最好是
在
它运行时),这样命令行和我
的
文本字段
的
输出就是相同
的
。
浏览 27
提问于2020-02-11
得票数 0
回答已采纳
1
回答
停止CNN模型
在
高精度和低
损失
率?
、
我用大量
的
历次训练我
的
CNN模型,每次我
打印
训练
损失
和准确性,但是在这两个指标中有很多高和低,我想提前停止,例如,
损失
0.2,准确率
在
%95或更高,因为我
在
不止一个
时期
得到了这个
值
,我
的
问题是: 1-列车组或验证组是否提前停车2-如果在验证集上,我是否应该为每一个具有火车组丢失和准确性
的
时代
打印
验证
损失
和准确性?3-你能给出一个想法,用一段代码来做早期停止,而不是
浏览 0
提问于2019-01-25
得票数 2
回答已采纳
1
回答
如何在TensorFlow 2.0
中
控制冗长
、
、
、
在
TensorFlow 1.x
中
,我可以很自由地选择
在
训练期间
打印
准确性/
损失
分数
的
方式和时间。例如,如果我想每100个
时期
打印
一次训练
损失
,
在
tf
.Session()
中
我会这样写: if epoch % 100 == 0: print(str(epoch) + '.Training Loss: ' + str(loss))
在</em
浏览 16
提问于2019-03-14
得票数 3
回答已采纳
2
回答
Keras
损失
值
显著跳跃
、
、
、
、
我正在用Tensorflow
在
Keras开发一个简单
的
神经网络。
损失
值
从上一批小批次
的
L-1显著上升到第一批小型
的
历元L。 我知道
损失
应该会随着迭代次数
的
增加而减少,但是
在
每个
时期
之后
损失
的
大幅增加确实看起来很奇怪。另外,我
在
某个地方发现,计算移动平均
的
数组
在
每一个时代之后都会被重置,这就是为什么我们<em
浏览 7
提问于2022-05-04
得票数 0
回答已采纳
1
回答
来自
tf
.get_collection(
tf
.GraphKeys.REGULARIZATION_LOSSES))
的
NaN
、
、
、
、
这是模型结构, 对于
损失
函数,我使用dice_coefficient和IOU公式,并将两者相加计算总
损失
。除了总
损失
外,我还从网络
中
添加了REGULARIZATION_LOSSES。)) 训练开始,
在
第一阶段,总
损失
在
0.4左右,而在第二阶段,总
损失
显示为nan it。
在
解码丢失
值
之后,
tf
.get_collection(
tf
.GraphKeys.REGULARIZATION
浏览 10
提问于2022-11-06
得票数 0
回答已采纳
1
回答
tensorflow.compat.v1.disable_v2_behavior()应该对使用Keras API
的
训练有什么影响?
、
、
、
、
我有一个CNN,它训练几十万个例子,
在
一个
时期
后验证准确率达到95%左右。这是简单
的
代码,使用Keras定义使用Sequential API
的
网络。最初,我
在
TF
1.3上准备并使用了这个模型。当我将它移植到
TF
2.1,用tensorflow.keras替换keras调用时,它很快就达到了~60%,并停留在那里(似乎有很多
时期
),训练
损失
似乎总是收敛到相同
的
值
。如果我
在
脚本
浏览 240
提问于2020-05-14
得票数 2
1
回答
如何计算输出层
中
多个神经元
的
均方误差
损失
、
、
、
我有一个前馈回归网络(
在
具有TensorFlow后端
的
Keras
中
),具有单个隐藏层(30个神经元)和具有2个神经元(对于复信号
的
虚部和实部)
的
输出层。...My问题是如何准确计算均方误差
损失
?因为对于
每个
时期
,我
在
"history object“
中
只得到一个数字。最终,我想在
每个
时期
提取
每个
输出神经元
的
单独
损失
数,<
浏览 5
提问于2021-07-07
得票数 0
1
回答
在
某些
时期
后训练时,参数会射向无穷远
、
、
、
我第一次
在
Tensorflow
中
实现线性回归。最初,我尝试使用线性模型,但经过几次迭代训练后,我
的
参数迅速上升到无穷大。因此,
tf
.summary.histogram('Weights', W0)
中
的
参数接收inf作为参数,W1和b1
的
情况与此类似。我想在tensorboard
中
查看我
的
参数(因为我从未使用过它),但得到了这个错误。我之前问过这个问题,但稍微有些不同
的
是,我使用
的
浏览 0
提问于2018-07-24
得票数 7
1
回答
计算多个张量
的
损失
值
、
、
在
我
的
CNN深度学习网络
的
计算过程
中
,训练阶段
的
损失
是用交叉熵函数计算
的
:
tf
.nn.weighted_cross_entropy_with_logits(targets = labels_flat然后,我可以
在
地面实况
的
两边各裁剪2个像素。预测也被裁剪
在
不同
的
位置,模拟预测和地面事实之间
的
“转变”。下一步,我必须计算这个“转移”预测和基本事实之间
的</
浏览 44
提问于2019-10-15
得票数 2
回答已采纳
3
回答
将
每个
批次或
时期
的
验证精度
打印
到控制台(Keras)
、
、
、
默认情况下,仅输出训练数据集
的
精度。似乎没有一个选项可以将验证准确性输出到终端。以下是我
的
代码
的
相关部分: validation_steps=total_validation//batch_size,shuffle= Tru
浏览 18
提问于2017-12-22
得票数 9
1
回答
tensorflow
每个
n纪元
的
完全连接控制流摘要
、
、
当我不使用队列时,我喜欢统计训练期间
的
损失
、准确率、ppv等,并在
每个
时期
结束时提交
tf
.summary。典型
的
设置如下:...#build graph#...summariesfin
浏览 0
提问于2016-07-07
得票数 0
1
回答
在
TensorFlow
中
完成训练过程后使用predict()方法
、
、
、
、
当我
的
损失
低于某个
值
时,我使用回调来停止训练。一旦训练结束,我
在
训练输入上调用predict()方法,然而,当我手动计算
损失
函数时,我得到了一个非常糟糕
的
结果。使用predict()是错误
的
吗?([
tf
.keras.layers.Dense(8, activation=, batch_size=1, verbo
浏览 0
提问于2021-10-25
得票数 2
1
回答
使用mlflow.tensorflow.autolog()时
在
MLFlow UI
中
自定义指标可视化
、
我正在尝试将MLFlow集成到我
的
项目中。因为我使用
tf
.keras.fit_generator()进行训练,所以我利用mlflow.tensorflow.autolog()(这里是docs)来启用度量和参数
的
自动日志记录: model= Unet() metrics = [IOUScore(threshold=(只是一个来自docs
的
演示): ? 然而,
在</e
浏览 20
提问于2020-07-03
得票数 2
回答已采纳
1
回答
为什么
tf
模型
的
训练过程
中
的
二元交叉熵
损失
与sklearn计算
的
结果不同?
、
、
、
、
我正在使用tensorflow构建一个神经协同过滤推荐模型,使用二进制交叉熵作为
损失
函数。当然,要预测
的
标签是二进制
的
。
在
训练
每个
时期
时,
打印
损失
函数。我有一个for循环,它逐个
时期
地训练模型
时期
,然后在当前状态下使用模型来预测测试标签,并使用sci-kit学习
的
log_loss函数再次计算
损失
。我注意到tensorflow计算
的
损失
(由los
浏览 38
提问于2021-10-08
得票数 0
回答已采纳
1
回答
在
PyTorch
中
打印
每个
时期
的
验证
损失
、
我想
打印
模型
的
验证
损失
在
每一个时代,什么是正确
的
方式获得和
打印
验证
损失
? 是这样吗?
浏览 2
提问于2021-05-18
得票数 4
回答已采纳
2
回答
为什么训练
损失
在
每个
时代开始时都会增加?
、
、
我使用
tf
.contrib.data来准备数据集,对其进行混洗,然后分批提供: datasetNone])) x_inputs, y_ = iterator.get_next()非常奇怪
的
是,
在
每个
时期
(i
浏览 0
提问于2017-10-25
得票数 8
1
回答
Keras save_weights与ModelCheckpoint
的
差异
、
"save_weights”训练后模型 但是当使用"load_weights“和"predict”加载训练模型时,这两种方法
的
性能是不同
的
。我
的
代码如下 训练和保存模型 model_checkpoint = ModelCheckpoint("Model_weights.hdf5", verbose=1, save_best_only=True
浏览 63
提问于2020-06-15
得票数 1
回答已采纳
1
回答
sampled_softmax_loss没有减少,而sequence_loss_by_example减少了
、
我正在训练一个LSTM,并使用sampled_softmax_loss来计算
每个
时代之后
的
损失
(这么多文档)。我还计算了与sequence_loss_by_example同时保持
的
集合上
的
困惑.
损失
在前几个
时期
减少--从1到2急剧下降.然后,它只是挂在相同
的
值
附近(有时更少;有时更多)。另一方面,困惑确实在不断地减少。 为什么
在
困惑继续下降
的
同时,
损失
会停止减少?我预计两人都会持续
浏览 1
提问于2016-12-13
得票数 0
1
回答
使用不同
的
损失
函数训练预训练
的
自定义模型
、
、
、
、
在
TF
2 keras
中
,我使用tensorflow.keras.losses.MeanSquaredError作为
损失
函数训练了一个自动编码器。这本身并不是转移学习,因为没有新
的
层添加到模型
中
,只是
损失
函数改变了,模型继续训练。P和Q之间
的
KL
损失
。分布
在
回调函数中计算,而不是
在
模型train_step中计算,因为我需要访问当前
时期
(P每5个
时期
更新一次,而不是<
浏览 28
提问于2021-02-01
得票数 0
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
从 2.x 到 3.x,TDengine 在 3D 打印技术中的应用实践
小菜与老鸟之机器学习07
深度学习入门实战二:用TensorFlow训练线性回归
令人困惑的TensorFlow!
Tensorflow笔记 tensorflow做线性回归
热门
标签
更多标签
云服务器
ICP备案
对象存储
腾讯会议
云直播
活动推荐
运营活动
广告
关闭
领券