腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(7276)
视频
沙龙
0
回答
Tensorflow
:
GPU
利用率
几乎
始终
为
0
%
、
、
、
、
我正在使用
tensorflow
和Titan-X
GPU
,我注意到,当我运行CIFAR10示例时,Volatile
GPU
-utilization相当稳定在30%左右,而当我训练自己的模型时,Volatile
GPU
-utilization远远不稳定,它
几乎
总是
0
%,在80/90%的峰值之前,一次又一次地回到
0
%。
浏览 9
提问于2016-07-11
得票数 7
回答已采纳
2
回答
如何使用
Tensorflow
对象检测API启用多
GPU
训练
、
我正在尝试使用
TensorFlow
对象检测应用编程接口执行多
GPU
训练。 我在我的NVIDIA-SMI中看到的是,实际上只有1个
GPU
被使用。提供的其他3个
GPU
加载了
GPU
进程,但内存使用率
为
300MB,
利用率
始终
为
0
% 我使用在COCO上预先训练的基于固态硬盘MobileNetV1的网络,然后用我的自定义数据集对其进行训练。我希望当我
为
Tensorflow
提供更多的
GP
浏览 49
提问于2019-10-09
得票数 3
2
回答
tensorflow
gpu
只在CPU上运行
、
、
当我运行一个模型(使用
tensorflow
.keras构建)时,我发现CPU
利用率
显著增加,
GPU
利用率
为
0
%,而模型就是没有训练。
0
%的
GPU
利用率
。为什么我的
tensorflow
-
gpu
安装只使用CPU?花了几个小时
几乎
没有进展。_
0
tensorflow
-
gpu
1.11.0
浏览 1
提问于2018-10-20
得票数 2
1
回答
为什么
Tensorflow
-
gpu
仍在使用cpu
、
、
、
我在后台使用带有
tensorflow
-
gpu
的Keras,我没有安装
tensorflow
(CPU - version),所有的输出都显示选择了
GPU
,但是tf正在使用CPU和系统内存。当我运行代码时,输出是:运行代码后,我尝试了nvidia-smi来查看
gpu
的使用情况,输出是:。
Tensorflow
-
gpu
= "1.12.0" CUDA toolkit = &
浏览 1
提问于2018-12-21
得票数 7
回答已采纳
1
回答
Tensorflow
/ keras multi_
gpu
_model不分裂
为
多个
gpu
、
、
、
如果使用来自multi_
gpu
_model的
tensorflow
.keras.utils,则
tensorflow
将在所有可用的
gpu
(例如2)上分配全部内存,但如果监视nvidia,则只使用第一个
gpu
正如预期的那样,数据由cpu加载,模型在
gpu
上运行,
gpu
利用率
为
97% - 100%: 创建multi_
gpu
模型 正如multi_
gpu
_model 的
tensorflow</em
浏览 0
提问于2019-03-06
得票数 0
1
回答
TF KMeansClustering不运行在
GPU
上
、
、
运行于Ubuntu16.04,最新(1.1.0)
tensorflow
(通过pip3 install
tensorflow
-
gpu
安装),CUDA8 + CUDNN5。/core/common_runtime/
gpu
/
gpu
_device.cc:908] DMA:
0
2017-06-15 10:24:41.564942: I
tensorflow
/core/common_runtime/
g
浏览 4
提问于2017-06-15
得票数 1
回答已采纳
1
回答
如何测量
TensorFlow
机型的图形处理器内存使用率
、
、
我的目标是弄清楚在推理过程中,保存为.pb文件的
TensorFlow
模型使用了多少
GPU
内存。通过将per_process_
gpu
_memory_fraction限制为值0.01并在输入图像上成功运行模型,我预计内存使用量
为
120MB (基于12,000MB
GPU
)。conf = tf.ConfigProto()session = tf.Session(con
浏览 59
提问于2020-01-07
得票数 2
1
回答
使用实例减慢ResNet50训练时间
、
、
、
、
我正在尝试使用带有
tensorflow
后端的keras来训练ResNet50模型。我使用的是一个sagemaker实例ml.p3.2xlarge,但是我的培训时间非常长。我使用的是conda_
tensorflow
_p36内核,我已经验证我安装了
tensorflow
-
gpu
。 训练时间截图。 虽然使用的是<
浏览 1
提问于2022-04-13
得票数 0
回答已采纳
2
回答
Keras不使用100%的cpu。
、
、
、
、
我用keras和
tensorflow
后端建立了顺序模型。正如你在图片上看到的,模型使用所有的核心,但没有一个100%。我想知道,如何使keras+tf 100%地利用每一个核心。我试着从头开始构建
tensorflow
并重新安装,但是没有帮助。
浏览 2
提问于2017-04-20
得票数 7
回答已采纳
1
回答
在训练keras模型时,
GPU
的性能应该是多少?
、
、
、
我安装了tensrflow-
gpu
。在其他环境中,它比仅在CPU上运行快近12倍。
GPU
环境: CPU =20%
GPU
= 10%训练时间=24秒我想知道
GPU
在10%上运行是否正常
浏览 3
提问于2020-05-05
得票数 2
1
回答
Pytorch:如何知道是否确实需要使用
GPU
内存,或者是否存在内存泄漏
、
、
、
、
我在批量大小
为
20的(512,512)图像上使用efficeint (6300万个参数)进行迁移学习。我的
GPU
内存
利用率
如下- 如你所见,它
几乎
填满了所有的3个
GPU
(
几乎
80%)。我的问题是,是否有任何理论上的方法来计算正在显示的
GPU
内存
利用率
是模型在特定图像和批处理大小下所需的,还是在我的
GPU
中存在内存泄漏?
浏览 2
提问于2020-05-26
得票数 1
1
回答
使用
tensorflow
时AWS g2.8x大性能和内存不足问题
、
、
、
我使用的是带有Ubuntu 14.04的AWS g2.8xlarge,以及最近的每晚构建的
tensorflow
(我于8月25日下载)。从表面上看,CPU和
GPU
的
利用率
都很低。以下是系统监视器和nvidia-smi (每2秒更新一次)在运行约20秒时的快照: 如您所见,
GPU
利用率
为
19%。当我使用nvprof时,我发现
GPU
的总处理时间大约是27秒左右。这些数字一直保持在这个水平左右,直到我在整个训练集上测量误差的时期结束,将
GPU</e
浏览 15
提问于2016-09-08
得票数 2
1
回答
最小化
GPU
在使用
TensorFlow
时的空闲时间
当使用
Tensorflow
训练网络时,我们如何减少
GPU
的空闲时间?要这样做:- 我使用多个Python线程对数据进行预处理,并将其提供给tf.RandomShuffleQueue,
TensorFlow
从那里获取数据。然而,在执行nvidia-smi时,我仍然发现我的
GPU
仍然从100%
利用率
转到
0
%
利用率
,并且经常返回到100%。注意:我正在使用一个12 GB的泰坦X
GPU
(Maxwell架构)
浏览 2
提问于2017-04-19
得票数 2
2
回答
如何使用tf.lite.Interpreter (python中的)来运行tflite模型(*.tflite)?
、
、
、
根据https://www.
tensorflow
.org/lite/convert的指示,我已经将
tensorflow
推理图转换为tflite模型文件(*.tflite)。我在我的
GPU
服务器上测试了tflite模型,它有4个Nvidia TITAN
GPU
。我使用tf.lite.Interpreter加载并运行了tflite模型文件。它像以前的
tensorflow
图一样工作,然而,问题是推理变得太慢了。当我检查原因时,我发现tf.lite.Interpreter运
浏览 45
提问于2019-09-05
得票数 3
1
回答
有没有办法在
GPU
上使用
tensorflow
map_fn?
、
、
我有一个张量A,形状
为
a,n,我需要用另一个b,n形的张量 b 来执行op my_op,使得由此产生的张量C具有a,b的形状。(在我的12核心机器上)当使用
GPU
运行时,我看到
GPU
利用率
很低(~15%),在我的一个CPU核心上是100%。当只在CPU上运行时,我看到所有CPU核都有100%的
利用率
。仅运行5个CPU的平均定时:11.33s上面的测试使用了官方的
Tensorflow
坞映像:
tensorflow
&
浏览 9
提问于2017-10-31
得票数 15
2
回答
为什么
Tensorflow
在
GPU
升级后没有提高速度?
、
我已经安装了
Tensorflow
1.4
GPU
版本。Cuda8也被安装了。 我用MNIST数据训练了我的简单的GAN网络。我有AMD FX 8320 CPU,16 FX系统内存和SSD硬盘驱动器。在具有1GB内存的GeForce 720
GPU
上,每小时大约需要17秒钟。训练使用了25%的
GPU
和99%的内存。CPU负载很高,接近100%。然后,我用GeForce1050、Ti、
GPU
和4Gb内存插入了其他视频板,而不是以前的。
GPU
加载时间
为
5-6%,内存
利
浏览 1
提问于2017-12-28
得票数 2
1
回答
深度学习CNN吃VRAM
、
、
、
我最近开始构建自己的小型深度学习设备,配备了ryzen 53600处理器、32
GPU
内存和8gp VRam的RTX2080Super 使用
tensorflow
处理CNN(这是我的大部分工作)时,我发现大部分VRam
几乎
立即被占用(7.8
GPU
中使用了7.8
GPU
),而
GPU
利用率
约为35% 为了与tesnofrflow v2兼容,我安装了最新的驱动程序并运行了CUDA v10.0。
浏览 33
提问于2020-01-31
得票数 0
回答已采纳
1
回答
tensorflow
将softmax op放在cpu上而不是
gpu
上
、
、
、
在python (
tensorflow
-
GPU
)中,所有操作系统都使用
GPU
(使用log_device_placement):out/BiasAdd: (BiasAdd): /job:localhost/replica:
0
/task:
0
/
浏览 3
提问于2017-12-04
得票数 2
1
回答
如何在
tensorflow
中实现快速增强?
、
、
、
我希望在三维数据集中使用
tensorflow
模型实现增强。使用此函数的
Tensorflow
代码如下:ds_validds_valid = ( .prefetch(buffer_size=AUTOTUNE) initial_epoch =
0
我计算repeat_count来创建1000批大小
为
batch
浏览 6
提问于2021-02-05
得票数 0
2
回答
流量
GPU
利用率
低于10 %
、
、
我正在尝试使用我的
gpu
NVIDIA GEFORCE GTX 1050,与
tensorflow
一起训练神经网络。我尝试了不同的代码例子不同的神经网络,其结果是
GPU
利用率
为
8%,计算比CPU慢得多。
浏览 0
提问于2018-09-04
得票数 1
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
地摊行业费用几乎为0,影响商铺吗?
这个技能伤害低到几乎为0
印度再现“神操作”,批量下架中国APP,自损1000杀敌几乎为0
微软实验数据中心沉海,维护成本几乎为0,大幅降低服务器成本
进击的Kubernetes调度系统(三):支持批任务的Binpack Scheduling
热门
标签
更多标签
云服务器
ICP备案
云直播
对象存储
腾讯会议
活动推荐
运营活动
广告
关闭
领券