腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
GPU
在参数
服务器
上进行数据并行训练是否有效?
、
、
、
在上,我猜
GPU
实例不一定对参数
服务器
有效,因为参数
服务器
只保留值,不运行矩阵乘法等任何
计算
。因此,我认为的示例
配置
(参数
服务器
使用CPU,其他
服务器
使用
GPU
)具有良好的成本性能: scaleTier: CUSTOM parameterServerType: standard
浏览 3
提问于2017-04-14
得票数 0
回答已采纳
1
回答
在仍在运行
GPU
的NVidia驱动程序的同时,为监视器使用Intel内置图形。
、
、
、
是否可以
配置
Ubuntu,这样它就可以使用Intel内置的图形启动监视器,但仍然让NVidia驱动程序运行
GPU
?我之所以问这个问题,是因为我主要是为了深入学习而使用
GPU
,我还想为
GPU
保留
GPU
。
浏览 0
提问于2020-08-15
得票数 1
3
回答
gpu
工作节点无法加入群集
、
、
、
我有一个带有两个ASG的EKS设置(v1.16):一个用于
计算
("c5.9xlarge"),另一个用于
gpu
("p3.2xlarge")。两者都
配置
为Spot并使用desiredCapacity 0进行设置。
gpu
按预期工作,并在必要时扩展每个K8S,问题是新创建的
gpu
实例无法被主
服务器
识别,并且正在运行的kubectl get nodes不会发出任何信息。我仔细检查了标签和标签,并将它们与“
计算
”进行了比较。两者的
配
浏览 65
提问于2020-12-30
得票数 0
1
回答
双
GPU
中的内存使用(多
GPU
)
、
、
我正在使用两个
配置
相同的
GPU
作为我的高性能
GPU
计算
使用OpenCL。其中一个卡是为显示目的连接的,两个程序compiz和x
服务器
总是使用大约200-300 MB的内存。我的问题是,当使用这些
GPU
进行
计算
时,我只能使用
GPU
中的部分内存,用于显示目的,而第二个
GPU
则可以使用整个全局内存。在显示
GPU
的情况下,我只能使用128 MB进行
计算
,而其他的则可以使用完整的503 MB进行
计算<
浏览 7
提问于2016-06-02
得票数 0
1
回答
基于RDP的Windows
服务器
上的
GPU
加速
、
、
、
、
我试图找出是否有可能使用一个
GPU
运行Windows,该
GPU
在所有RDP客户端之间共享,这样人们就可以使用需要
GPU
加速的UI启动一些程序如果工作负载直接在物理Windows主机上运行,则不需要图形虚拟化;您的应用程序和服务已经可以访问Windows Server中本机支持的
GPU
功能和API
浏览 0
提问于2022-04-06
得票数 3
1
回答
colocate_gradients_with_ops论点在TensorFlow?
、
我试图理解这个论点的作用,AdamOptimizer的的compute_gradients方法这样说- colocate_gradients_with_ops:如果是的话,试着用相应的op来
计算
渐变。
浏览 3
提问于2018-02-12
得票数 3
回答已采纳
1
回答
腾讯云
GPU
服务器
不能联外网吗?
浏览 1220
提问于2019-05-24
1
回答
CUDA -发射超时,并被终止- Ubuntu和没有显示
我正在Ubuntu12.04.5上工作,这些
GPU
中没有一个是用来显示的。我注意到使用cudaGetDeviceProperties内核执行超时是启用的。如果我在禁用内核执行超时的Tesla K20m
GPU
上运行相同的代码,则不会看到此错误,程序将正常运行。
浏览 3
提问于2015-01-15
得票数 1
2
回答
异常:设备内核映像无效
、
Version: 10.0 ||
GPU
ECC ||==============我们相信这是因为我有两个不同类型的
GPU
在我的机器上。我需要在启动omnisql
服务器
时指定一种类型的<e
浏览 5
提问于2019-04-02
得票数 0
回答已采纳
3
回答
GPU
4.0中的并行
计算
会自动获得.net
计算
的特权吗?
、
、
GPU
4.0中的并行
计算
会自动获得.net
计算
的特权吗?或者我必须
配置
一些驱动程序,以便它使用
GPU
。
浏览 1
提问于2010-06-01
得票数 3
回答已采纳
1
回答
使用QSV、CUDA和VAAPI自定义FFMpeg构建,也可以在其他
服务器
和目录上运行
、
、
、
我想要构建一个自定义版本的FFMpeg与IntelHD
GPU
(QSV)和Nvidia
GPU
(NVENC)和VAAPI支持,这也应该在其他Linux (Ubuntu18.04和20.04)与相应的
GPU
(IntelHD +
GPU
)
计算
机上运行。因此,我想提出以下问题: 是否必须在我希望编译FFMpeg的
服务器
上提供相应的显卡(IntelHD和Nvidia),并且必须安装它们的驱动程序?或者没有必要?如果必须安装显卡驱动程序,那么卡驱动程序是否还必须安装在另一台
服务器</
浏览 3
提问于2021-02-28
得票数 0
1
回答
在Azure管道上运行CUDA单元测试
、
是否可以将Azure Pipelines文件
配置
为在具有NVIDIA
GPU
的
计算
机上运行CI?我可以创建一个安装了CUDA的自定义镜像,并将其上传到dockerhub,但Azure管道运行它的CI的
计算
机似乎是仅CPU的
计算
机。有没有办法将YAML文件
配置
为选择Azure管道上的NVIDIA
GPU
计算
机来运行CUDA单元测试?
浏览 7
提问于2019-07-03
得票数 1
3
回答
如何在
GPU
上运行theano?
、
、
、
如何在我的
GPU
上运行这段代码? 我有一个带有Nvidia Quadro k4200的工作站。
浏览 3
提问于2015-11-04
得票数 8
回答已采纳
2
回答
如何在google引擎的
计算
引擎实例中添加
GPU
作为免费层?
、
当我设置
配置
并创建新的
计算
引擎实例(谷歌
计算
引擎)时,我也尝试添加
GPU
。但这给了我一个错误,因为谷歌云只给了300美元的免费信用层,没有
GPU
。 有没有办法在自由层中使用
GPU
?
浏览 3
提问于2018-01-11
得票数 2
1
回答
Ubuntu14.04 Nvidia
配置
文件位置,用于手动编辑刷新速率
因此,正常情况下,当我用两个
GPU
启动时,它只检测到那些2 nvdia图形卡和集成的Intel图形被BIOS禁用。我不关心SLI,因为我知道,SLI在Linux下的Nvidia丙型驱动程序(Jet)下工作不太好,尤其是在移动
GPU
上。生成新的
配置
文件将使我的安装程序不可引导,而且由于我的安装程序工作正常,所以没有必要生成新的
配置
文件,但是正如我所说的,我在任何地方都找不到当前的
配置
文件。
浏览 0
提问于2015-02-14
得票数 1
回答已采纳
2
回答
两个gpus是如何工作的?
、
、
我目前有一个高端
GPU
安装在我的
服务器
-我正在考虑安装一个廉价的
GPU
,以支持显示器。 原因是
服务器
正在为OpenCL使用高端
GPU
,而我希望保留它的资源,只用于
计算
,而不提供监视器。我可以安装一个便宜的
GPU
,如ZOTAC GeForce GT 610 (512 MB),并使用它作为显示器的主
gpu
,然后高端
gpu
将免费
计算
。我问这是因为我以前没有尝试过,我不知道操作系统(Windows )是如何看到这两张卡的,如
浏览 0
提问于2012-08-25
得票数 1
回答已采纳
1
回答
使用
gpu
通过google colab连接到本地运行时
、
、
我的目标是通过jupyter笔记本从本地
计算
机连接到goocle colab
gpu
pip install jupyter_http_over_ws所以我已经从我的机器连接到Colab,但goal反之亦然,以便在我的本地机器上获得
GPU
浏览 8
提问于2021-04-24
得票数 1
1
回答
CPU在建立数据自动化系统时有多重要?
、
、
、
CUDA是以任何方式依赖CPU,还是一种黑白的东西,一旦你开始执行CUDA,在
GPU
上一切都是100%的?或者它是否有某种平衡/混合? 最基本的问题是,我们能买到最便宜的CPU并把它拿走吗?
浏览 0
提问于2014-06-18
得票数 2
1
回答
在PowerEdge T550中,
GPU
的辅助电源来自哪个插座(S)?
、
、
、
服务器
:戴尔PowerEdge T 550塔
服务器
GPU
:NVIDIA A40当我在戴尔的网站上
配置
服务器
时,有一个选项可以包括一个A40。我将其包括在内,以便在
服务器
与A40不兼容时,他们的系统
配置
检查器会出现错误。当检查程序没有出现任何错误时,我删除了A40并接受了该
配置
。 T 5
浏览 0
提问于2023-01-23
得票数 2
回答已采纳
1
回答
使用Nvidia
GPU
节点在Kubernetes上运行一个例子
、
、
我正在尝试用Nvidia
GPU
节点/奴隶来设置Kubernetes。我遵循了的指南,并且能够让节点加入集群。我尝试了下面的kubeadm示例pod:kind: Pod name:
gpu
-pod containers: extendedResources: resources: nvid
浏览 3
提问于2018-08-07
得票数 1
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
2023年深度学习GPU服务器配置推荐参考(3)
最快最全深度学习训练/GPU服务器硬件配置推荐2019
OpenAI发布高度优化的GPU计算内核—块稀疏GPU内核
阿尔特(300825.SZ):公司部署的OVX 服务器所配置的GPU具备卓越的图形算力
UPS怎么配置 UPS配置的计算公式
热门
标签
更多标签
云服务器
ICP备案
对象存储
实时音视频
即时通信 IM
活动推荐
运营活动
广告
关闭
领券