腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(4612)
视频
沙龙
2
回答
Tensorflow
-
相同
模型
的
第一个
时期
的
损失
停滞不前
,
在
较早
的
运行时
显示出
更好
的
结果
、
、
、
、
我
在
Colab上为我
的
光通信项目训练一个
模型
,然后发生了一件奇怪
的
事情。我首先训练
的
模型
显示了接近99%
的
训练和97%
的
验证准确率,但
运行时
在
晚上
的
某个时候到期了。现在,对于
相同
的
模型
,我尝试
在
重新连接到
运行时
后重新训练。但现在,准确率从
第一个
时期
起保持不变,为25%。令人惊
浏览 31
提问于2021-11-03
得票数 0
2
回答
有两个
模型
具有
相同
的
最小验证
损失
值,但在不同
的
时期
具有该值。哪一个
更好
?
、
、
有两个
模型
具有
相同
的
结构和学习
相同
的
数据集。差别如下所示。正如我在
浏览 5
提问于2020-10-20
得票数 1
回答已采纳
1
回答
Tensorflow
给出错误
的
结果
、
、
这是我用来测试tf准确性
的
最简单
的
问题。但是,它没有给我带来令人满意
的
结果
。我有自己
的
模型
,对于这样
的
问题,它们甚至不需要训练,因为误差已经是零了。我
的
理解/代码等有问题吗?它应该给出准确
的
答案,即.11, .06 (我
的
.net
模型
可以)model.add(tf.layers.dense({units: 1,
浏览 0
提问于2018-09-11
得票数 0
2
回答
发布从keras到tf.keras
的
移植代码
、
、
、
我正在将一个基本
的
MNIST
模型
训练程序从使用keras2.3.1移植到tf.keras (
TensorFlow
2.0),并且看到了一些奇怪
的
行为。我
的
初始代码训练得很好,但是
在
更新我
的
导入之后,
模型
训练就陷入了困境。Model
在
训练
的
第一个
时期
之后-旧
浏览 3
提问于2019-11-19
得票数 0
1
回答
在
训练用于自动语音识别的
模型
时降低单词错误率
、
、
、
我正在训练一个speech to text
模型
。
在
第一个
时期
,WER为0.33,第二个
时期
的
WER仍然
相同
,但是训练
损失
增加了,而验证
损失
减少了。除了降低学习率之外,还能做些什么来使
模型
学习,至少是过拟合?
浏览 5
提问于2020-04-25
得票数 1
2
回答
时间序列数据
的
趋势
、
、
、
我使用带有LSTM层
的
Keras序列
模型
和时间序列数据来预测未来
的
值。为此,我
在
某个时间点将我
的
数据划分为训练数据和验证数据。时间序列数据具有积极
的
趋势,因此我
的
训练数据中
的
平均值低于我
的
验证数据中
的
平均值,因为我使用较新
的
数据作为验证。 初始
模型
每次预测0.5次,这是一个糟糕
的
模型
。在下一个
时期
,
模型
将通过训
浏览 30
提问于2021-04-21
得票数 0
回答已采纳
1
回答
划时代末端Keras
损失
的
变化
、
、
我正在使用imagedatagenerator类对Keras (
tensorflow
2后端)中
的
模型
进行批量培训。我注意到,当第二个
时期
开始时,
损失
值实际上比
第一个
时期
结束时
的
值要小。我
的
意思是: 有人知道为什么会这样吗? 当处理所有批次时,keras是否再次更新权重?
浏览 16
提问于2020-05-03
得票数 1
回答已采纳
1
回答
Keras:根据ModelCheckpoint
的
最佳
模型
-回调在训练集上产生
的
损失
不同于训练时显示
的
最佳
时期
损失
、
、
、
、
我正在尝试用Python语言训练一个非常简单
的
TensorFlow
后端
的
Keras
模型
。 我知道
在
训练时
在
控制台中显示
的
时期
损失
是为了效率而‘即时’计算
的
,因此不一定是中间
模型
的
真实
损失
。但据我所知,如果每个
时期
只有一批就是整个训练集,那么它们实际上应该是。这种期望
的
原因是,在这种情况下,
模型
的</em
浏览 0
提问于2018-12-28
得票数 0
1
回答
在
tensorflow
中重新初始化迭代器后对数据集进行混洗
、
、
、
我使用
tensorflow
dataset api将数据提供给
模型
。据我所知,我应该对数据集进行混洗,以从
模型
中获得最佳性能。然而,由于我训练了一个
时期
,然后测试了一个
时期
,以此类推。我不太确定我是否
在
以不同
的
方式执行洗牌。为了
更好
地说明,下面是我
的
代码: train_dataset = tf.data.TFRecordDataset(filename_train).map(_parse_function).filter(我问是因为<
浏览 31
提问于2019-02-22
得票数 0
回答已采纳
2
回答
无法
在
tensorflow
中多次重复LSTM
模型
的
相同
结果
、
、
我
在
tensorflow
训练一个LSTM网络。我
的
模型
有以下配置: 输入特性
的
数量x= 512。我
的
tensorflow
版本是1.8。此外,我还通过tf.set_random_seed(mseed)设置了随机种子,并为每个可训练变量
的
初始化器设置了随机种子,以便在多次运行后能够重现
相同
的
结果
。经过多次训练,每次20次,我发现前几个<
浏览 1
提问于2019-01-21
得票数 0
2
回答
使用
Tensorflow
保存检查点
、
、
、
我有3个文件夹为我
的
CNN
模型
,这是train_data, val_data, test_data. 当我训练我
的
模型
时,我发现准确性可能会有所不同,有时最后一个
时期
并没有
显示出
最好
的
准确性。例如,最后一个
时期
的
准确率是71%,但我
在
较早
的
时期
发现了
更好
的
准确性。我想保存该纪元
的
检查点,它具有更高
的</
浏览 3
提问于2018-05-04
得票数 2
3
回答
你能解释一下每次迭代时角角
的
输出吗?
、
、
、
当我使用fit_generator,方法训练带有keras
的
顺序
模型
时,我看到了这个输出。.- ETA xxxx
损失
: yyyy 为什么会这样呢?我认为每一步
的
时间和步数都是任意值,例如,使用1000步
的
10个历元
浏览 0
提问于2018-12-13
得票数 2
回答已采纳
1
回答
在
将它们合并用于多任务学习之前,我是否应该消除它们
的
损失
?
、
、
、
、
我有一个多任务网络,需要一个输入,并试图实现两个任务(有几个共享层,然后是单独
的
层)。 一项任务是利用CrossEntropy
损失
进行多类分类,另一项任务是利用CTC
损失
进行序列识别。我想使用这两个
损失
的
组合作为标准,类似于损耗=λCE + (1-λ)CTC。事情是,我
的
CE
损失
开始
在
2左右,而CTC
损失
在
400秒。如果用最大( L₁)/L₁因子来重新计算每个
时期
的
<em
浏览 0
提问于2018-10-25
得票数 4
回答已采纳
1
回答
Tensorflow
在
机器之间
损失
方面的主要差异
、
、
、
、
我使用
Tensorflow
作为后端,用Keras编写了一个变分自动编码器。我使用Adam作为优化器,学习率为1e-4,批处理大小为16。当我
在
Macbook
的
中央处理器(英特尔核心i7)上训练网络时,一个
时期
(~5000个迷你批次)后
的
损失
值比运行Ubuntu
的
不同机器上
的
第一个
时期
后
的
损失
值小2倍。对于另一台机器,我
在
中央处理器和图形处理器(英特尔至强E5-16
浏览 0
提问于2017-06-12
得票数 2
1
回答
两个张量之差
的
损失
函数
、
、
、
我正在用所谓
的
“知识蒸馏(KD)”
的
方法训练一个卷积神经网络(使用
Tensorflow
),简而言之,就是训练一个关于你想要完成
的
任务
的
大
模型
(老师),然后训练一个小
模型
(学生),它可以模拟老师
的
结果
,但使用更少
的
参数,因此
在
测试时更快。我面临
的
问题是如何以有效
的
方式
在
相同
输入下建立学生
模型
和教师
模型</
浏览 6
提问于2020-12-16
得票数 0
1
回答
Colab Pro
在
使用TPU Runtime训练深度学习
模型
12小时后自动断开连接
、
我用了几天
的
CoLab专业版。我试图
在
CoLab专业版中使用TPU
运行时
来训练一个深度学习
模型
。但是Runtime
在
12小时
的
训练后会自动断开。我已经配置了70个
时期
用于训练,它在大约43 - 52个
时期
停止。我使用Keras/
Tensorflow
来开发我
的
模型
。在过去
的
三天里,我正在训练
相同
的
模型
,但我无法完成训练过
浏览 0
提问于2021-06-17
得票数 1
2
回答
Tensorflow
model.evaluate给出了与训练
结果
不同
的
结果
、
、
、
我正在使用
tensorflow
进行多类分类train_ds = tf.keras.preprocessing.image_dataset_from_directoryTrue, image_size=(img_height, img_width),然后,当我使用model.fit()训练
模型
时但是当我加载
相同
的
验证集并使用model.evaluate()
浏览 0
提问于2020-09-24
得票数 1
1
回答
通过ImageDataGenerator将数据导入
tensorflow
自动编码器
、
、
、
、
当我试图通过导入图像作为numpy数组来训练自动编码器时,训练进行得很快,
第一个
时期
的
训练
损失
<0,
结果
也不错。但是当我通过ImageDataGenerator导入
相同
的
数据时,开始
的
损失
大约是32000,随着训练
的
进行,它下降得非常慢,
在
50个
时期
之后,它饱和在31000左右。我使用mse作为Adam Optimiser
的
损失
函数。我尝试
浏览 7
提问于2020-10-07
得票数 0
1
回答
TensorFlow
PoolAllocator请求数量巨大
、
使用
Tensorflow
r0.9/r.10我得到以下消息,这让我担心我以错误
的
方式设置了我
的
神经网络
模型
。I
tensorflow
/core/common_runtime/gpu/pool_allocator.cc:244] PoolAllocator: After 6206792 get requests6206802 evicted_count=5000 eviction_rate=0.000805568 and unsatisfied alloca
浏览 11
提问于2016-08-16
得票数 0
回答已采纳
1
回答
tensorflow
.compat.v1.disable_v2_behavior()应该对使用Keras API
的
训练有什么影响?
、
、
、
、
我有一个CNN,它训练几十万个例子,
在
一个
时期
后验证准确率达到95%左右。这是简单
的
代码,使用Keras定义使用Sequential API
的
网络。最初,我
在
TF 1.3上准备并使用了这个
模型
。当我将它移植到TF2.1,用
tensorflow
.keras替换keras调用时,它很快就达到了~60%,并停留在那里(似乎有很多
时期
),训练
损失
似乎总是收敛到
相同
的
值。如果我
在
脚本
浏览 240
提问于2020-05-14
得票数 2
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
你用iPhone打游戏,有人却用iPhone来训练神经网络
Tensorflow教程-线性模型
使用多种工具组合进行分布式超参数优化
IBM:我 POWER 服务器比 TensorFlow 快 46 倍
IBM称旗下Snap机器学习库比TensorFlow快46倍
热门
标签
更多标签
云服务器
ICP备案
云直播
对象存储
腾讯会议
活动推荐
运营活动
广告
关闭
领券