腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
3
回答
Apache mod_wsgi django调用keras模型时,如何释放占用的
GPU
内存
?
、
、
、
我的
服务器
配置
如下: 谢谢!
浏览 17
提问于2017-05-12
得票数 15
回答已采纳
2
回答
使用Tensorflow的CPU/
GPU
内存
使用量
、
、
我想运行一个在
服务器
上也使用Tensorflow的Python脚本。当我在没有会话
配置
的情况下运行它时,进程会分配所有
GPU
内存
,从而阻止任何其他进程访问
GPU
。
服务器
规范如下:
浏览 9
提问于2017-05-16
得票数 1
1
回答
如何防止Tensorflow在使用紧急执行时分配整个
GPU
内存
?
我有几乎相同的问题已经回答了,但略有不同:config = tf.ConfigProto() config.
gpu
_options.allow_growth =急切执行的文档还指出,并不是所有适用于会话的
配置</
浏览 0
提问于2018-11-03
得票数 1
1
回答
双
GPU
中的
内存
使用(多
GPU
)
、
、
我正在使用两个
配置
相同的
GPU
作为我的高性能
GPU
计算使用OpenCL。其中一个卡是为显示目的连接的,两个程序compiz和x
服务器
总是使用大约200-300 MB的
内存
。我的问题是,当使用这些
GPU
进行计算时,我只能使用
GPU
中的部分
内存
,用于显示目的,而第二个
GPU
则可以使用整个全局
内存
。在我的例子中,我使用两个Nvidia Quadro 410,它有192个cuda核,512 MB作为
内存
,但
浏览 7
提问于2016-06-02
得票数 0
1
回答
如何在代码之外设置tensorflow
gpu
内存
分配?
、
、
、
我的tensorflow分配几乎所有
GPU
内存
(10
GPU
或12
GPU
)。只有‘导入tensorflow’获得所有的
内存
,我知道如何
配置
gpu
内存
分数在代码中。我知道的方法是添加下面提到的代码
gpu
_options = tf.GPUOptions(per_process_
gpu
_memory_fraction=0.2) sess = tf.Session(conf
浏览 4
提问于2017-11-15
得票数 0
回答已采纳
1
回答
Ubuntu能处理多少个最大
GPU
?
、
我总是听说一个系统上有8个gpus,但现在AMD推出了多达128 pci-e通道的EPYC,plx提供了一种将它乘以"N“的方法,我想知道,除了硬件限制之外,Ubuntu对一个系统中允许的图形卡的数量有什么限制吗?
浏览 0
提问于2017-06-01
得票数 3
2
回答
GPU
内存
在顺序模型初始化后直接满满,在训练过程中不会改变。
、
、
、
、
我正在使用Keras,在后端tensorflow上的windows 7与NVIDIA M2000M
GPU
。当我初始化包含5个GRU、5个Dropout和1个密集层的模型时,
GPU
的
内存
使用量跃升到4096 my的3800 my,并一直停留在那里直到我重新启动spyder会话。
内存
使用量保持在较高的水平。 这样一个模型分配这么多
GPU
内存
是正常的吗?我可以更改什么,以便
内存
使用可以很好地使用?我想提高训练速度,我认为这种高
内存
使用率阻碍了
GPU
浏览 3
提问于2017-07-03
得票数 3
回答已采纳
2
回答
当使用tensorflow分布式时,当sever.join ()
、
、
我在Ubuntu的一个四路GTX1070上运行了这个模型,但是当我启动运行该程序的终端时,当我输入python ...py --job_name = "ps“--task_index = 0,四个GPUs子层已满,而我没有打开新的终端来运行worker,问题出在哪里?
浏览 1
提问于2017-12-14
得票数 0
1
回答
使用Nvidia
GPU
节点在Kubernetes上运行一个例子
、
、
我正在尝试用Nvidia
GPU
节点/奴隶来设置Kubernetes。我遵循了的指南,并且能够让节点加入集群。我尝试了下面的kubeadm示例pod:kind: Pod name:
gpu
-pod containers: extendedResources: resources: nvid
浏览 3
提问于2018-08-07
得票数 1
回答已采纳
2
回答
TensorFlow服务和服务比
内存
所允许的更多的模型
TensorFlow服务可以通过
配置
--model_config_file命令行参数为多个模型服务。我在小实验中成功地使用了这个特性。然而,当这些模型所需的总
内存
大于可用的
GPU
内存
时,我不清楚会发生什么。谢谢。
浏览 2
提问于2018-10-02
得票数 3
回答已采纳
3
回答
在jetson tx1中尝试负载卷积预训练模型时tensorflow的消除误差
、
、
我有一个基于模型的人脸识别模型。我能做什么?我想是因为记忆问题!
浏览 8
提问于2018-01-16
得票数 3
回答已采纳
1
回答
Gunicorn工作者,用于
GPU
任务的线程,以增加并发/并行性。
、
、
、
、
我正在使用烧瓶与Gunicorn实现一个人工智能
服务器
。
服务器
接收HTTP请求并调用该算法(用py手电筒构建)。计算在nvidia
GPU
上运行。本机有8 vCPUs,20 GB
内存
,1
GPU
,12 GB
内存
。具体问题是 如何增加
浏览 5
提问于2021-02-09
得票数 0
1
回答
基于RDP的Windows
服务器
上的
GPU
加速
、
、
、
、
我试图找出是否有可能使用一个
GPU
运行Windows,该
GPU
在所有RDP客户端之间共享,这样人们就可以使用需要
GPU
加速的UI启动一些程序如果工作负载直接在物理Windows主机上运行,则不需要图形虚拟化;您的应用程序和服务已经可以访问Windows Server中本机支持的
GPU
功能和API
浏览 0
提问于2022-04-06
得票数 3
1
回答
统一变量的
内存
数据流?
例如代码:glTexImage2D():用于将纹理数据传输到
服务器
端。矩阵数据是否总是驻留在客户端/ CPU访问
内存
中,并逐个
服务器
获取每一帧?哪个步骤/函数调用上传数据?它的
内存
位置是如何指出的?
浏览 0
提问于2019-02-22
得票数 0
1
回答
Tensorflow分配所有
GPU
,尽管另有说法
、
SInce
服务器
是与其他同事共享的,我想限制我的脚本最多只能使用
服务器
内存
的1/3。为了实现这一点,我做了以下工作: with tf.Graph().as_default():
gpu
_options = tf.GPUOptions(allow_growth=True, per_process_
gpu
_memory_fraction=
gpu
_options) with tf.Session(conf=session_conf) as sess:
浏览 0
提问于2017-05-26
得票数 0
1
回答
cuda无效
配置
错误9
、
、
我有一个Cuda应用程序;在第一次为各种数组分配cuda
内存
之后,程序循环通过:将数据传输到
GPU
,在
GPU
上处理内核,从
GPU
传输数据。第一个数据集由
GPU
正确处理并返回。此后,后续数据集生成错误9:无效
配置
。 因为我没有重新分配
内存
,所以我不相信我已经没有记忆了。我已经对网格和块尺寸进行了三次检查,它们都在边界内:( 200,0,0)和(720,20,0)。我还应该看什么来理解
配置
的什么是无效的?
浏览 2
提问于2012-08-27
得票数 4
1
回答
Google cloud ml-engine定制硬件
我尝试使用BASIC_
GPU
scale层运行作业,但出现
内存
不足错误。因此,我尝试使用自定义
配置
运行它,但我找不到一种只使用1个Nvidia K80和额外
内存
的方法。所有的示例和预定义选项都使用了大量的
GPU
、CPU和workers,而我的代码并没有针对此进行优化。我只想要一个
GPU
和额外的
内存
。我该怎么做呢?
浏览 1
提问于2019-02-13
得票数 0
2
回答
tensorflow使用所有
GPU
内存
、
我在COCO2014(输入图像有形状256, 256, 3)上使用tf.data.Dataset运行网络,并将tensorflow会话
配置
为sess = tf.Session(config=sess_config)sess_config = tf.ConfigProto(intra_op_parallelism_th
浏览 0
提问于2019-07-06
得票数 1
回答已采纳
1
回答
如何解决Tensorflow和cuda兼容性问题?
、
执行部分:Conv2D conda install -c anaconda keras-
gpu
tf.test.is_
gpu
_available()返回True
浏览 0
提问于2020-01-24
得票数 1
1
回答
了解训练后的神经网络
内存
使用情况
、
、
、
、
理想情况下,我希望将这个RNN的多个实例部署到
GPU
上。然而,此时,当我用keras.models.load_model()加载模型时,它似乎在使用我可用的12
GPU
内存
中的11
GPU
。问题 我目前对我的网络应该使用多少
内存
的
浏览 1
提问于2017-05-23
得票数 2
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
2023年深度学习GPU服务器配置推荐参考(3)
最快最全深度学习训练/GPU服务器硬件配置推荐2019
Tomcat服务器配置内存和perm的操作方法
GPU事务性内存技术研究
服务器内存和普通内存有什么区别?普通电脑能用服务器内存吗?
热门
标签
更多标签
云服务器
ICP备案
对象存储
腾讯会议
云直播
活动推荐
运营活动
广告
关闭
领券