腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
如何
查看
slurm分区/队列中可用
GPU
的
内存
?
我想在提交作业之前
查看
GPU
的
内存
。我设法让slurm告诉我模型:但我想看看
内存
的
大小。我知道我可以使用<code>D1</code>登录到队列并使用<code>D2</code>
查看
资源,但是队列太满了,可能需要16小时才能给我提供资源。我
如何
告诉slurm告诉我这些队列
GPU
拥有的
GPU<
浏览 173
提问于2020-11-14
得票数 0
1
回答
如何
在两个
GPU
之间直接复制cudaArray?
、
、
假设我在
GPU
1中有一个
GPU
1,在
GPU
2中有另一个cudaArray。使用cudaMemcpyArrayToArray标志调用cudaMemcpyDeviceToDevice实际上会导致
GPU
1 cudaArray通过
查看
分析器复制到主机
内存
和复制到
GPU
2 cudaArray
的
主机
内存
。我尝试将
GPU
1 cudaArray复制到
GPU
1全局
内存
,并调用cudaMemcpyPe
浏览 6
提问于2016-02-09
得票数 1
回答已采纳
2
回答
Google引擎
GPU
的
利用
、
、
如果我在Google引擎工作中使用--规模级基本
GPU
,我
如何
查看
GPU
的
利用率?我可以在“作业详细信息”选项卡上
查看
CPU利用率和
内存
利用率,但我想知道
GPU
被使用了多少。这仅仅包含在CPU使用中,还是有另一个选项卡可以
查看
GPU
的
利用率? 此外,是否有任何方法可以
查看
哪些操作系统占用了大部分CPU使用?我
的
CPU利用率很高,我
的
内存<
浏览 2
提问于2017-08-23
得票数 5
回答已采纳
1
回答
Gunicorn工作者,用于
GPU
任务
的
线程,以增加并发/并行性。
、
、
、
、
我正在使用烧瓶与Gunicorn实现一个人工智能
服务器
。
服务器
接收HTTP请求并调用该算法(用py手电筒构建)。计算在nvidia
GPU
上运行。在这种情况下,我需要一些关于
如何
实现并发/并行
的
输入。本机有8 vCPUs,20 GB
内存
,1
GPU
,12 GB
内存
。 1工作人员占用,4 GB
内存
,2.2GB
GPU
内存
。(由于
GPU
内存
2.2GB* 5工
浏览 5
提问于2021-02-09
得票数 0
1
回答
如何
用.ipynb维护后台运行
的
VSCode?
、
、
当我关闭VS代码时,
GPU
内存
将被清除。我不能像浏览器中
的
传统方法那样使用jupyter。我用localhost将jupyter更改为remote :在VS代码中端口,显示在VS代码GUI按钮中
的
Jupyter: Server Remote。(可能没有必要) 运行ipynb文件和nvidia-smi来
查看
GPU
的
使用情况。关闭VS
浏览 14
提问于2022-07-15
得票数 3
2
回答
CUDA与web开发
显然,
GPU
的
每个核心都可以处理一个请求,而不是一个主处理器(系统
的
CPU)处理所有请求。从表面上看,这似乎是可能
的
,也许使用
GPU
+ Redis数据库中
的
模板在
GPU
GDDR5中?这是可能
的
和值得
的
吗?
浏览 4
提问于2010-10-21
得票数 1
回答已采纳
1
回答
可以在visual studio中分析
gpu
内存
吗?
、
、
我想知道是否有任何方法可以在visual studio中
查看
gpu
的
原始vram
内存
。就像从visual studio打开
内存
布局一样,它显示了进程
内存
。大多数主题都是关于
gpu
使用
的
,我实际上想要在我
的
应用程序执行期间
查看
gpu
内存
的
原始比特和字节。我知道NVIDIA有一个叫Nsight
的
实用程序,但我想要通用
的
实用程序。
浏览 90
提问于2020-08-16
得票数 1
1
回答
如何
限制tensorflow
GPU
内存
的
使用?
、
、
下面的代码用于管理tensorflow
内存
的
使用。我有大约8Gb
的
GPU
内存
,所以tensorflow不能分配超过1Gb
的
GPU
内存
。但是,当我使用nvidia-smi命令
查看
内存
使用情况时,我发现它使用了~1.5GB,尽管我用GPUOptions限制了
内存
的
数量。memory_config = tf.ConfigProto(
gpu
_options=tf.GPUO
浏览 1
提问于2019-04-05
得票数 3
回答已采纳
2
回答
使用Tensorflow
的
CPU/
GPU
内存
使用量
、
、
我想运行一个在
服务器
上也使用Tensorflow
的
Python脚本。当我在没有会话配置
的
情况下运行它时,进程会分配所有
GPU
内存
,从而阻止任何其他进程访问
GPU
。
服务器
规范如下:
GPU
: 2×Nvidia Titan此
服务器
由其他同事共享,因此不允许我分配所有
GPU
浏览 9
提问于2017-05-16
得票数 1
2
回答
GPU
的
内存
带宽到底意味着什么?
这个问题
的
动机是
查看
不同
GPU
的
两个数字:(1)
内存
大小和(2)
内存
带宽。 我
的
理解是,
内存
带宽意味着每秒可以从系统RAM复制到
GPU
的
数据量(反之亦然)。但是从典型
的
GPU
来看,每秒
的
内存
带宽远远大于
内存
大小:例如,Nvidia A100
的
内存
大小为40或80 GB,
内存
带
浏览 0
提问于2022-05-26
得票数 1
0
回答
一个
GPU
设备中
的
多个流
、
、
我有一个多线程程序,应该可以在6个
GPU
设备上运行。我想在每个设备上打开6个流,以便在我
的
程序生命周期内重用(总共36个)。我还使用
GPU
内存
监视器来
查看
每个句柄
的
内存
使用情况。但是,当我
查看
每个设备上
的
GPU
内存
使用情况时,它只在第一个流创建时增长,而在我创建
的
其余流中不会发生变化。据我所知,我想使用
的
流
的
数量没有任何限制。但是我不明白为什么句
浏览 5
提问于2016-07-04
得票数 0
2
回答
Colab pro从不给我超过16 gb
的
gpu
内存
我已经使用colab pro一个月了,但使用时只有16 it。在右上角,它说它有25 GB,但它只有16 GB。
浏览 29
提问于2020-02-24
得票数 3
3
回答
Apache mod_wsgi django调用keras模型时,
如何
释放占用
的
GPU
内存
?
、
、
、
我
的
服务器
配置如下: 谢谢!
浏览 17
提问于2017-05-12
得票数 15
回答已采纳
1
回答
如何
训练比
GPU
内存
更大
的
TF模型?
、
、
、
对于我
的
16 GB
内存
的
Tesla P100卡,我遇到了一个“
内存
不足”异常,即显卡上没有足够
的
内存
可以分配。 所以我想知道在这种情况下我
的
选择是什么。如果我有多个
GPU
,那么TF模型将被拆分,以便填满两个卡
的
内存
,这是正确
的
吗?因此,在我
的
情况下,使用第二张16 GB
的
Tesla卡,我在训练期间总共将拥有32 GB?如果是这样的话,我可以使用多个
GPU<
浏览 18
提问于2021-03-03
得票数 0
回答已采纳
2
回答
Keras:实际使用
的
GPU
内存
大小
、
、
、
我正在使用Keras和Tensorflow后端,
查看
nvidia-smi并不足以理解当前
的
网络架构需要多少
内存
,因为似乎Tensorflow只是分配所有可用
的
内存
。所以问题是
如何
找出真实
的
GPU
内存
使用情况?
浏览 1
提问于2017-05-18
得票数 9
1
回答
使用Nvidia
GPU
节点在Kubernetes上运行一个例子
、
、
我正在尝试用Nvidia
GPU
节点/奴隶来设置Kubernetes。我遵循了
的
指南,并且能够让节点加入集群。我尝试了下面的kubeadm示例pod:kind: Pod name:
gpu
-pod containers: extendedResources: resources:
浏览 3
提问于2018-08-07
得票数 1
回答已采纳
2
回答
多个
GPU
是否可以作为一个具有更多
内存
的
GPU
工作?
、
、
、
我有一个深度学习工作站,其中有4个
GPU
,每个
GPU
有6 GB
的
内存
。是否有可能将4个
GPU
视为一个24 GB
的
docker容器? 谢谢。
浏览 43
提问于2020-02-10
得票数 0
2
回答
使用显存
的
OpenGL DisplayList
、
、
、
是否可以将显示列表数据存储在显卡
内存
中?我想只使用视频
内存
,如视频缓冲对象(VBO)来存储DisplayList。但当我尝试它时,它总是使用主存而不是显存。
浏览 6
提问于2012-06-25
得票数 1
回答已采纳
2
回答
如何
减少CUDA上下文大小(多进程服务)
、
、
、
、
我学习了罗伯特·克罗夫拉( Robert )关于
如何
使用Nvidia's
的
。根据 没有MPS,每个CUDA进程使用
GPU
在
GPU
上分配单独
的
存储和调度资源。相反,MPS
服务器
分配由其所有客户端共享
的
GPU
存储和调度资源
的
一个副本。 我将其理解为减少每个进程
的
上下文大小,这是可能
的
,因为它们是共享
的
。这将增加可
浏览 6
提问于2019-12-19
得票数 0
回答已采纳
1
回答
如何
防止Tensorflow在使用紧急执行时分配整个
GPU
内存
?
我有几乎相同
的
问题已经回答了,但略有不同:config = tf.ConfigProto() config.
gpu
_options
浏览 0
提问于2018-11-03
得票数 1
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
Linux服务器如何查看CPU使用率、内存占用情况
linux下如何查看服务器wwn号
【linux】如何查看服务器磁盘IO性能
如何用本地的VSCode连接极链AI的GPU服务器
如何查看自己国外服务器被墙
热门
标签
更多标签
云服务器
ICP备案
对象存储
即时通信 IM
实时音视频
活动推荐
运营活动
广告
关闭
领券