腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(1270)
视频
沙龙
1
回答
Tensorflow
2中
的
分层
批次
、
我从一个sqlite数据库中获得了一些小批处理,其中包含整数和浮点类型
的
数据x,以及0和1中
的
二进制标签y。,其中一个关键字可以将数据
分层
(即相同数量
的
0类和1类实例)。在
Tensorflow
2中,
分层
似乎不是直接可能
的
。我
的
非常复杂
的
解决方案对我有效,但由于所有的重塑和转置,需要花费大量时间: def stratify(x, y): # number of positive instances (the smaller、更
浏览 11
提问于2019-09-05
得票数 3
1
回答
采用
分层
抽样
的
tensorflow
数据集
给定
tensorflow
数据集 Train_dataset = tf.data.Dataset.from_tensor_slices((Train_Image_Filenames,Train_Image_Labels我想把我
的
批次
分层
,以解决阶级不平衡
的
问题。dataset
的
性能优势,因为我可能必须通过Train_Stratified_Images和Train_Stratified_Labels通过feed_dict传递?stratified_sample', list(ten
浏览 1
提问于2018-11-27
得票数 4
回答已采纳
6
回答
如何使用累积
的
梯度更新模型参数?
、
、
我正在使用
TensorFlow
构建一个深度学习模型。也是
TensorFlow
的
新手。 由于某些原因,我
的
模型具有有限
的
批量大小,那么这种有限
的
批量大小将使模型具有较高
的
方差。我
的
想法是存储每个小
批次
的
梯度,例如64个小
批次
,然后将梯度求和在一起,使用这64个小
批次
训练数据
的
平均梯度来更新模型
的
参数。这意味着对于前63个小
批次
,不
浏览 1
提问于2017-02-10
得票数 18
1
回答
tensorflow
打印
的
损失是批量/样本损失还是运行平均损失?
、
、
、
当我训练
tensorflow
模型时,它通常会在每次迭代中输出类似于下面一行
的
信息 INFO:
tensorflow
:loss = 1.9433185, step = 11 (0.300 sec) 打印
的
损失是模型当前看到
的
批次
的
损失,还是所有先前训练
批次
的
运行平均损失?如果我使用
批次
大小为1
的
批次
,即每批只有一个训练样本,那么打印
的
损失将是每个样本单独
的</
浏览 57
提问于2021-08-23
得票数 1
1
回答
tensorflow
是否可以单独优化每个元素
的
损失,而不是优化整个平均损失?
、
、
tensorflow
如何单独优化
批次
的
元素损失,而不是优化
批次
损失? 在对每个
批次
的
损失进行优化时,常用
的
方法是对所有
批次
的
元素损失进行求和或取其平均值作为
批次
损失,然后对该
批次
损失进行优化。在我
的
例子中,我想单独优化每个元素
的
损失,而不是将它们一起减少为批量损失。 例如,在以下代码中。(通过这种方式,小批量实际上减少到批大小为1
的
情况。)那么在
浏览 17
提问于2019-04-19
得票数 0
1
回答
如何从numpy数组创建混洗批处理列表以提供
tensorflow
字典
、
我正在与
Tensorflow
合作开发一个分类器。我
的
输入和输出是numpy数组,其中以示例为行,以参数为列。到目前为止,我
的
代码工作正常,我可以通过直接提供100%
的
输入和输出数组来训练我
的
网络。现在,我想创建一个为
tensorflow
提供
的
混洗
批次
列表,但这一步对我来说不是很清楚。 下面的代码会创建张量列表(我
的
批次
)吗?batch_size=100,capacity=50,min_after_dequeue=10
浏览 0
提问于2017-02-06
得票数 2
3
回答
如何在Keras中对大批处理进行梯度累积
、
、
、
我正在用一个非常需要CNN模型
的
记忆来完成分类任务。这对我在训练中可以使用
的
批次
大小提出了一个很大
的
限制。我正在使用
Tensorflow
后端Keras,并且我非常肯定Keras没有现成
的
函数&
浏览 1
提问于2019-03-20
得票数 19
回答已采纳
1
回答
tensorflow
中
的
不规则/变批量?
、
、
、
、
我有一个
tensorflow
数据集,并且希望对它进行分批处理,这样批处理就不会有相同
的
大小--类似于将示例分组成批,其大小是由值向量而不是固定值定义
的
。有没有办法在
tensorflow
内做到这一点?提前感谢!
浏览 1
提问于2020-11-23
得票数 2
回答已采纳
2
回答
如何减少神经网络中
的
过度拟合?
、
、
= 30 %我上一次发布
的
神经网络
的
最终性能如下:正如你所看到
的
,训练
的
准确性和验证
的
准确性仍然有很大
的
差别我
的
问题是如何继续提高我
的
验证准确性?我
的
神经网络代码:from
tensorflow</em
浏览 5
提问于2020-04-15
得票数 0
1
回答
在Keras模型可视化中,这些(None,x)值是什么?
、
、
、
model = Sequential() model.add(LSTM(256, return_sequences=True, dropout=0.5, recurrent_dropout=0.5))model.add(Dense(4, activation='softmax')) plot_model(model, to_file='
浏览 0
提问于2018-04-07
得票数 3
回答已采纳
1
回答
convnet InvalidArgumentError:输入整形是一个张量,值为28800000,但所请求
的
形状有57600
、
、
、
、
我试着从孩子们
的
挑战中分割出图像。我在这两个存储库
的
组合中使用U-net: 这是形状
批次
x:(50
浏览 0
提问于2018-05-27
得票数 0
回答已采纳
1
回答
不同序列长度
批次
的
多头自关注输出尺寸
、
我有一个关于变压器自我注意层
的
问题。在处理小批中不同长度
的
序列时,我们使用pad序列,使批处理中
的
所有序列都具有相同
的
长度。假设数据集中
的
大多数序列都是<500个元素长,但是有一些非常长
的
序列可以是1000s
的
元素长。如果我想在不截断
的
情况下处理那些非常长
的
序列,那么即使输入
批次
不包含任何长序列,多头自我关注层
的
大小也必须根据最长
的
序列量身定做吗?
浏览 0
提问于2022-09-08
得票数 0
回答已采纳
1
回答
在
TensorFlow
中用批处理实现zigzag展平NxN张量
、
、
然而,我想知道是否有
TensorFlow
建议
的
通过使用类似tf.tensor_scatter_nd_update
的
东西来实现
的
TensorFlow
版本。 BxNxN张量,其中B表示
批次
。
浏览 18
提问于2021-04-15
得票数 0
1
回答
Keras中GPU上VGG-16
的
细化:内存消耗
、
、
、
、
我正在微调VGG-16以完成我
的
任务。我
的
想法是加载预先训练过
的
权重,删除最后一层(这是带有1000个输出
的
softmax ),并用几个输出替换为softmax。下面是构建原始模型并加载权重
的
代码。,Keras使用
Tensorflow
作为后端。
Tensorflow
是用来使用GPU
的
(使用CUDA)。我现在有一张相当旧的卡: GTX 760和2Gb内存。 在我的卡上,由于内存不足,我甚至无法加载整个模型(上面的代码)。问题是:用Keras+TF来完成VG
浏览 0
提问于2018-06-17
得票数 0
1
回答
我是否应该将我
的
两个GPU与SLI连接起来?(用于Keras +
TensorFlow
)
、
、
、
对于在
TensorFlow
后端使用Keras,我是否应该将它们与SLI连接起来?如果没有,那么他们将被单独对待,一个模型将被训练在一张卡片上。这是我到目前为止所理解
的
两个选择。谢谢。
浏览 0
提问于2019-03-08
得票数 2
回答已采纳
1
回答
分层
列车-测试拆分一个
Tensorflow
数据集
、
、
、
、
我目前正在处理一个相当大
的
图像数据集,我使用python中
的
ImageDataGenerator从
tensorflow
.keras加载它。由于我
的
数据分类非常不平衡,我想做一个
分层
的
列车测试分割,以可能达到更高
的
精度。我知道如何使用ImageDataGenerator进行简单
的
随机列车测试分割,但我找不到与sklearn中
的
分层
train_test_split相当
的
东西。有什么方法可以对
te
浏览 2
提问于2022-03-07
得票数 3
1
回答
小批量梯度下降是否消除了
分层
对训练数据集
的
影响?
、
、
在数据预处理中,使用
分层
洗牌确保原始数据集
的
分布反映在培训、测试和验证数据集中。 小型批处理梯度下降使用随机洗牌来确保小批中
的
随机性.我
的
疑问是-为什么我们应该在我们
的
数据集上执行
分层
洗牌,如果它要在训练期间以随机
的
方式被洗牌?
浏览 0
提问于2020-08-08
得票数 2
回答已采纳
1
回答
如何最好地从磁盘读取大型数据集
、
、
、
我想使用keras和
tensorflow
中
的
ResNet来解决一个任务。我
的
数据集很大,现在我正在考虑我
的
数据加载选项,并试图确定哪一个最适合这个任务。加上可能
的
额外预处理范围从0..1到-1.1hdf文件也更适合于结构化/
分层
数据。我也希望<#>take考虑
的
事情: 我是按原样保存数据,还是需要保存被洗牌
的
批次</em
浏览 0
提问于2020-08-05
得票数 1
回答已采纳
1
回答
在Keras中自定义减少每个
批次
的
损失
、
、
、
我在Python中为
tensorflow
使用keras。我有一个自定义
的
损失函数,它为
批次
中
的
每个样本返回一个数字(因此,长度=
批次
大小
的
向量)。我如何还可以指定自定义
的
减少方法,以将这些样本损失聚合为整个
批次
的
单个损失?在自定义损失函数中包含此减少,并让此函数仅返回单个标量而不是损失向量,这是可以接受
的
吗?
浏览 28
提问于2021-10-14
得票数 0
1
回答
使
TensorFlow
使用自定义CUDA例程动态生成
的
训练数据
、
、
假设我们生成自己
的
训练数据(例如,通过从一些扩散过程中采样并计算其上
的
一些兴趣量),并且我们有自己
的
CUDA例程,称为generate_data,它在GPU内存中为给定
的
一组输入生成标签。因此,我们处于一个特殊
的
设置中,我们可以以“在线”
的
方式生成任意数量
的
训练数据
批次
(在每次
批次
迭代时,我们调用generate_data例程来生成新
批次
并丢弃旧
批次
)。由于数据是在GPU上生成
的
,
浏览 0
提问于2019-06-27
得票数 11
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
批次管理中批次确定常见问题的分析方法
MES系统中的批次管理
wms系统的批次管理介绍
关于软件分层设计的思考
SAP 物料主分类视图维护的批次分类特性值不能在批次里被覆盖
热门
标签
更多标签
云服务器
ICP备案
云直播
对象存储
腾讯会议
活动推荐
运营活动
广告
关闭
领券