腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
用colocate_gradients_with_ops=True在
Keras
中定制优化器的正确方法是什么?
、
、
我在两个
GPU
上对工作负载进行了分区(也称为模型分区)。默认情况下,TF/
Keras
在
GPU
0上分配所有的渐变,但我想使用colocate_gradients_with_ops将分配分散到两个
GPU
上。 我正在寻找一种在
Keras
中做到这一点的简单方法。我正在寻找一种比
Keras
中的方法更短、更直接的方法。
浏览 0
提问于2018-09-22
得票数 0
1
回答
多
GPU
训练
Keras
、
我是
Keras
的新手,想要在4个
Gpu
上
训练
我的模型。不幸的是,我得到了一个内存不足的错误,批量大小为4。(输入形状256x265x32)。现在我在想,是否有可能在所有4个
GPU
上进行
训练
,尽管批量大小为2? 提前谢谢你, 致以亲切的问候, 迈克尔
浏览 6
提问于2019-06-19
得票数 0
回答已采纳
0
回答
具有多个工人的ML engine上的
Keras
模型
训练
我已经构建了一个语义分割
Keras
(tensorflow后端)模型,并试图在google cloud ml引擎上对其进行
训练
。我有大约200,000 (256x256)个图像可以在小批量(10)上
训练
大约100个时期。当我只使用complex_model_m_
gpu
类型的主设备时,1个纪元几乎要花25个小时。我不确定
Keras
模型如何适应
多
GPU
训练
设备(例如,complex_model_m_
gpu
)。没有关于这方面的文档,只有关于
浏览 11
提问于2018-07-18
得票数 2
2
回答
SageMaker与
keras
.utils.multi_
gpu
_model一起使用
多
GPU
时失败
、
、
使用自定义模型运行AWS SageMaker,在
多
gpu
配置中使用
Keras
加上Tensorflow后端时,TrainingJob在算法错误中失败: from
keras
.utils import multi_
gpu
_model根据SageMaker文档和,当
Keras
后端为MXNet时,multi_
gpu
_model实用程序将正常工作,但是当后端是Tensorflow时,我没有发现任何提到,后者具有相同的
多
gpu
配置。都是可见的,并
浏览 1
提问于2018-11-26
得票数 0
回答已采纳
2
回答
如何在
keras
中使用特定的
GPU
进行
多
GPU
训练
?
、
我有一台有4个
GPU
的服务器。我想使用其中的2个来进行
多
GPU
训练
。 提供的
Keras
文档提供了一些关于如何使用多个图形处理器的见解,但我想选择特定的图形处理器。有没有办法实现这一点?
浏览 66
提问于2019-05-27
得票数 0
3
回答
我如何让
Keras
在特定的
GPU
上
训练
一个模型?
、
、
、
在我的机构中有一个有2个
GPU
的共享服务器。假设有两个团队成员希望同时
训练
一个模型,那么他们如何让
Keras
在特定的
GPU
上
训练
他们的模型,以避免资源冲突?理想情况下,
Keras
应该知道哪个
GPU
目前正忙于
训练
一个模型,然后使用其他
GPU
来
训练
另一个模型。然而,情况似乎并非如此。默认情况下,
Keras
似乎只使用第一个
GPU
(因为第二个
GPU
的Volatile <
浏览 0
提问于2018-11-29
得票数 4
回答已采纳
3
回答
如何知道
Keras
是在使用
GPU
还是CPU
、
、
、
是否有任何方法来检查
Keras
框架是否使用
GPU
或CPU来
训练
模型? 我正在用
keras
在
GPU
上
训练
我的模型,但是速度太慢了,我不确定它是用CPU还是
GPU
来
训练
。
浏览 13
提问于2020-08-14
得票数 1
回答已采纳
2
回答
TensorFlow MirroredStrategy()不适用于
多
gpu
训练
、
、
、
、
该代码经过验证可以在1个
GPU
上运行。我的操作系统是Red Hat Enterprise Linux8 (RHEL8)。错误出现在model.fit()上。我已经安装了适当的NCCL Nvidia驱动程序,并使用tensorflow.org中的一个示例验证了我可以将
训练
数据解析到两个
GPU
上。427 model.save('unet_seg_final_3d_test.model') ~/anaconda3/envs/gputest/lib/python3.7/
浏览 41
提问于2020-01-31
得票数 0
回答已采纳
2
回答
在张量流模型
训练
中使混合精度降低而不是提高速度
、
、
当我启用混合精度
训练
时,每步时间增加而不是减少。我搞不懂为什么会发生这种事,我真的很感激任何人提出解决方案。我花了这么
多
钱买这个
gpu
,如果我不能让它更快地
训练
模型,那是没有用的。代码:def create_model():
keras
.layers.Flatten(input_shape=(32,32,3)),
keras
.l
浏览 8
提问于2021-02-25
得票数 0
3
回答
如何使用
Keras
进行
多
GPU
训练
?
、
、
我希望我的模型在多个
GPU
共享参数上运行,但具有不同的数据批处理。 我能用model.fit()做类似的事情吗?还有没有别的选择?
浏览 4
提问于2017-07-18
得票数 11
1
回答
了解
训练
后的神经网络内存使用情况
、
、
、
、
背景问题 有什么方法可以让我大致理解RNN结构与
GPU
内存的映射吗
浏览 1
提问于2017-05-23
得票数 2
回答已采纳
1
回答
是否可以为混合精度NN设置
GPU
亲和性,将FP32和FP16连接到不同的
GPU
?
、
、
我想使用两者来
训练
,但是由于RTX可以处理两倍于FP16的速度,所以我想设置它,以便
训练
是
多
GPU
的,并且RTX处理FP16层,GTX处理FP32层。这在tensorflow、pytorch或
keras
下是可能的吗?
浏览 24
提问于2019-02-15
得票数 1
回答已采纳
1
回答
在
GPU
上
训练
RNN -我应该使用哪个tf.
keras
层?
、
、
、
我正在
训练
RNN,这是我使用tf.
keras
.layers.GRU层构建的。他们需要很长时间来
训练
(>2个小时),所以我将把他们部署到
GPU
进行
训练
。我想知道一些关于
GPU
训练
的事情: tf.
keras
.layers.CuDNNGRU和tf.
keras
.layers.GRU (以及tf.
keras
.layers.LSTM和tf.
keras
.layers.CuDNNLSTM我从中了解到,Cu
浏览 1
提问于2019-08-05
得票数 1
回答已采纳
1
回答
为什么我的
keras
神经网络模型在不同的机器上输出不同的值?
、
、
我使用aws ec2来
训练
一个
多
标签分类任务的模型.经过
训练
,我在同一台机器上测试了模型,取得了很好的效果(90+%的准确性)。但是,当我将保存的模型导入我的本地机器(没有
GPU
)后,它给出了不同的结果(准确率小于5%)。对为什么会发生这种事有什么建议吗?谢谢。TL;DR:
Keras
/tensorflow模型在将从
GPU
机器转换到CPU时产生不同的结果。
浏览 1
提问于2017-02-24
得票数 5
回答已采纳
2
回答
MirroredStrategy不使用
GPU
、
我想在我的
多
图形处理器系统上使用tf.contrib.distribute.MirroredStrategy(),但它没有使用
GPU
进行
训练
(参见下面的输出)。另外,我正在运行tensorflow-
gpu
1.12。 我确实尝试在MirroredStrategy中直接指定
GPU
,但同样的问题也出现了。tf.contrib.distribute.MirroredStrategy(num_gpus=NUM_GPUS) config = tf.estimator.RunConfig(train_distribu
浏览 49
提问于2019-02-19
得票数 9
1
回答
如何使用
Keras
将数据均匀地分配到多个
GPU
、
、
、
我使用的是Tensorflow-
gpu
=2.0.0后端的
Keras
=2.3.1。当我在两个RTX 2080 ti 11G
gpu
上
训练
模型时,它将所有的数据分配给'/
gpu
:0',没有任何变化与'/
gpu
:1‘。当然,第二个
GPU
根本没有使用。但是,如果我只选择一个
GPU
,每个
GPU
都可以工作。 此外,这两个gpus可以并行运行,在毕道尔。按照一些实例,我尝试使用以下代码运行多个gpu
浏览 0
提问于2020-09-04
得票数 1
1
回答
TensorFlow和
Keras
GPU
使用问题
、
、
、
、
我正在使用现有的模型来
训练
一个基于Tensorflow和
Keras
的CRNN模型。我正在使用anaconda-navigator来
训练
模型。在
训练
模型时,它似乎没有使用
GPU
,因为我的
GPU
使用率为5-6%。我附加了顶级-i命令Nvidia Xserver的图像,而且我的
gpu
没有被Tensorflow拾取,因为tf.test.
gpu
_device_name()只显示CPU,如下面的tf.test.
gpu
_device_name()
浏览 20
提问于2021-01-08
得票数 1
2
回答
如何使用Tensorflow对象检测API启用
多
GPU
训练
、
我正在尝试使用TensorFlow对象检测应用编程接口执行
多
GPU
训练
。 我在我的NVIDIA-SMI中看到的是,实际上只有1个
GPU
被使用。提供的其他3个
GPU
加载了
GPU
进程,但内存使用率为300MB,利用率始终为0% 我使用在COCO上预先
训练
的基于固态硬盘MobileNetV1的网络,然后用我的自定义数据集对其进行
训练
。我希望当我为Tensorflow提供更多的
GPU
时,框架实际上会使用它们来加速
训练
。
浏览 49
提问于2019-10-09
得票数 3
1
回答
keras
multi_
gpu
_model saved_model未能在TF2代码中加载模型
、
、
我用tensorflow 1.13/1.14
训练
了一个multi_
gpu
_model,并用
keras
.model.save('<.hdf5>')保存了它们。现在,在迁移到tensorflow 2.4.1 (其中将
Keras
集成为tensorflow.
keras
)之后,由于以下错误,我不能像以前那样进行tensorflow.
keras
.models.load_model: AttributeError: module 'tensorfl
浏览 3
提问于2021-03-22
得票数 0
回答已采纳
1
回答
使用
GPU
而不是CPU对AWS进行培训
、
、
我刚刚启动了一个AWS P2实例,试图
训练
一个模型。然而,它似乎在使用CPU
训练
,而不是
GPU
。我怎么能强迫它使用
GPU
而不是CPU来
训练
呢?$ nano ~/.
keras
/
keras
.json says this { "image_dim_ordering": "th", "floatx然后我改变了 $ nano ~
浏览 3
提问于2017-10-01
得票数 0
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
Keras同时用多张显卡训练网络
在TensorFlow和PaddleFluid中使用多块GPU卡进行训练
Tensorflow入门教程——动手实现多GPU训练医学影像分割案例
用Keras预训练模型做图片识别
使用Java部署训练好的Keras深度学习模型
热门
标签
更多标签
云服务器
ICP备案
腾讯会议
云直播
对象存储
活动推荐
运营活动
广告
关闭
领券