腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
腾讯云
GPU
服务器
不能联外网吗?
浏览 1228
提问于2019-05-24
1
回答
GPU
在参数
服务器
上进行数据并行训练是否有效?
、
、
、
在上,我猜
GPU
实例不一定对参数
服务器
有效,因为参数
服务器
只保留值,不运行矩阵乘法等任何计算。因此,我认为的示例配置(参数
服务器
使用
CPU,其他
服务器
使用
GPU
)具有良好的成本性能: scaleTier: CUSTOM parameterServerType: standard
浏览 3
提问于2017-04-14
得票数 0
回答已采纳
2
回答
使用
Tensorflow的CPU/
GPU
内存
使用
量
、
、
我想运行一个在
服务器
上也
使用
Tensorflow的Python脚本。当我在没有会话配置的情况下运行它时,进程会分配所有
GPU
内存,从而阻止任何其他进程访问
GPU
。
服务器
规范如下: 在Tensorflow网站上,我发现
浏览 9
提问于2017-05-16
得票数 1
1
回答
NVRM: RmInitAdapter失败: Xid: 79,
GPU
从总线上掉了下来
、
、
、
、
有两次,当我
使用
4x1080ti完成训练模型时,
服务器
就崩溃了。
服务器
为什么会崩溃?9月6日02:48:40
GPU
-8-
服务器
内核: 557998.990376 NVRM9月6日02:48:40
GPU
-8-
服务器</
浏览 20
提问于2017-09-08
得票数 3
2
回答
异常:设备内核映像无效
、
Version: 10.0 ||
GPU
ECC ||==============我们相信这是因为我有两个不同类型的
GPU
在我的机器上。我需要在启动omnisql
服务器
时指定一种类型的<e
浏览 5
提问于2019-04-02
得票数 0
回答已采纳
1
回答
从两个上下文执行CUDA内核可以重叠吗?
、
我
使用
/path_to_cuda_install/extras/CUPTI/sample/activity_trace_async来跟踪应用程序。我看到的这些错误的CUPTI值是由于
使用
不当还是其他原因?说明: MPS未启用,运行在单
GPU
上 更新:文件,这似乎是CUDA6.5的一个已知问题,等待与CUDA7进行测试的机会(在多个用户之间共享一个
GPU
,并需要一个暂时切换到CUDA7的非活动窗口)
浏览 1
提问于2015-06-29
得票数 1
1
回答
使用
gpu
通过google colab连接到本地运行时
、
、
我的目标是通过jupyter笔记本从本地计算机连接到goocle colab
gpu
pip install jupyter_http_over_ws
使用
以下命令打开jupyter:实际上我想知道什么是302 GET 最后,如果我
浏览 8
提问于2021-04-24
得票数 1
2
回答
针对昂贵资源的kubernetes调度
、
、
、
现在我们想用
GPU
节点来扩展它(因此这将是Kubernetes集群中唯一拥有
GPU
的节点)。 我们希望避免Kubernetes在这些节点上调度pod,除非它们需要
GPU
。并不是所有的管道都可以
使用
GPU
。绝大多数仍然只占用大量CPU资源。 配备
GPU
的
服务器
可能非常昂贵(例如,Nvidia DGX每台
服务器
可能高达150美元/k)。如果我们只是将DGX节点添加到Kubernetes集群中,那么Kubernetes也会在那里调度非
GPU
浏览 24
提问于2018-12-20
得票数 1
回答已采纳
1
回答
使用
Nvidia
GPU
节点在Kubernetes上运行一个例子
、
、
我正在尝试用Nvidia
GPU
节点/奴隶来设置Kubernetes。我遵循了的指南,并且能够让节点加入集群。我尝试了下面的kubeadm示例pod:kind: Pod name:
gpu
-pod containers: extendedResources: resources: nvid
浏览 3
提问于2018-08-07
得票数 1
回答已采纳
2
回答
gpu
利用率问题( nvidia-smi显示我正在
使用
gpu
,但任务管理器显示我没有
使用
gpu
)
、
、
、
我正在运行tensorflow程序,只是好奇为什么nvidia-smi显示我正在
使用
gpu
,但为什么任务管理器显示我没有
使用
gpu
。我在我的电脑(Windows10)和
服务器
(ubuntu 16.04)上运行了相同的tensorflow代码。我发现这个程序在
服务器
上运行得很快,我很好奇是什么让它更快。当我看到nvidia-smi的结果时,
gpu
内存在我的计算机中比在
服务器
中的
使用
率更高。我发现nvidia-smi打印的程序
使用
浏览 548
提问于2019-09-11
得票数 0
1
回答
有没有办法在我的终端上运行
GPU
上的代码?
、
、
我已经
使用
GPU
加速服务,如谷歌Colab有一段时间,但我不满意。我不喜欢用朱庇特笔记本来写我所有的代码,我也有一些其他的问题。我想知道是否有一种方法可以在我的终端上运行命令,比如upload train.py,将文件train.py上传到
服务器
,然后运行run train.py或类似的东西在
服务器
上运行,并将输出显示在本地终端上
浏览 0
提问于2020-12-08
得票数 1
回答已采纳
1
回答
使用
SSH进行X11转发时,呈现在何处执行?
、
、
、
当ssh‘入到远程系统(例如具有大量计算能力和/或图形恶意程序的集群)时,X11转发(例如,
使用
ssh -X或-Y)在哪里完成图形呈现?如何运行图形密集型工作负载,使其能够利用集群的图形硬件?
浏览 5
提问于2014-07-04
得票数 13
回答已采纳
1
回答
没有
GPU
的
服务器
适合远程桌面吗?
、
、
、
我想买一个
服务器
4核心英特尔XeonE3-1220 v5 (16 GB内存),但没有
GPU
。 我们需要
GPU
在
服务器
端,以正常显示桌面屏幕通过remore桌面,还是我们需要
GPU
在客户端?还是两边的?
浏览 0
提问于2017-07-31
得票数 1
回答已采纳
2
回答
分布式tensorflow的PS
服务器
是否自动
使用
所有
GPU
?
、
FLAGS.job_name, server.join()|
GPU
PID Type Process name Usage | |==================================C
浏览 3
提问于2017-04-13
得票数 0
3
回答
Apache mod_wsgi django调用keras模型时,如何释放占用的
GPU
内存?
、
、
、
我的
服务器
配置如下: 谢谢!
浏览 17
提问于2017-05-12
得票数 15
回答已采纳
1
回答
Tensorflow会话问题(多会话1
gpu
,异步sess.run ?)
、
、
这造成了一个问题,看起来我无法在同一个
gpu
上运行多个会话.有办法这样做吗? 如果不是,我如何实现我的目标,以一个并行的方式运行这些图像只有一个
gpu
?
浏览 1
提问于2018-04-15
得票数 0
回答已采纳
2
回答
Kubernetes
GPU
吊舱/Kubeflow
我有两个
服务器
与4个特斯拉K40图形处理器。 我已经成功地创建了一个kubernetes集群,安装了kubeflow 1.0,它可以正常工作所需的一切。我可以成功地创建一个带有4个
GPU
的木星笔记本
服务器
,并在其上
使用
keras模型,一切都很好。我可以
使用
8
gpu
(4来自一台
服务器
,4来自另一台
服务器
)来创建jupyter笔记本
服务器
或运行任何gpupod,或者只有4对于一个gpupod是可以为我?当我尝试
使用
8
浏览 0
提问于2020-04-10
得票数 0
回答已采纳
1
回答
从
GPU
到远程主机的GPUDirect RDMA传输
、
、
、
设想情况: 我有两台机器,一台客户机和一台
服务器
,与Infiniband连接。
服务器
机器有一个NVIDIA Fermi
GPU
,但是客户端机器没有
GPU
。我有一个运行在
GPU
机器上的应用程序,它
使用
GPU
进行一些计算。
GPU
上的结果数据从来不被
服务器
使用
,而是直接发送到客户端机器,无需任何处理。现在,我正在做一个cudaMemcpy,将数据从
GPU
获取到
服务器
的系统内存,然后通过套
浏览 6
提问于2012-08-14
得票数 10
回答已采纳
2
回答
选择在jupyter笔记本中
使用
的特定
GPU
。
、
、
我正在对linux
服务器
上的.ipynb文件进行编码。 我
使用
的linux
服务器
上有多个
GPU
,但我应该只
使用
空闲的
GPU
,以免意外地中止其他人的程序。我已经知道对于普通的.py文件,我们可以在命令行中添加一些指令来选择一个通用的
GPU
(例如导出CUDA_VISIBLE_DEVICES=#),但是它对jupyter笔记本是否有效呢?如果没有,我如何指定要工作的
GPU
。
浏览 12
提问于2022-07-11
得票数 1
回答已采纳
1
回答
Tensorflow分配所有
GPU
,尽管另有说法
、
SInce
服务器
是与其他同事共享的,我想限制我的脚本最多只能
使用
服务器
内存的1/3。为了实现这一点,我做了以下工作: with tf.Graph().as_default():
gpu
_options = tf.GPUOptions(allow_growth=True, per_process_
gpu
_memory_fraction=
gpu
_options) with tf.Session(conf=session_conf) as sess:
浏览 0
提问于2017-05-26
得票数 0
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
小白知识,什么是GPU服务器
GPU服务器有什么用?从民生到国防,GPU服务器正在大显身手!
分布式TensorFlow:使用多台GPU服务器,减少神经网络的实验与训练时间
GPU服务器与普通服务器的差异深度解析
NVIDIA:深度学习GPU服务器搭建指南
热门
标签
更多标签
云服务器
ICP备案
对象存储
即时通信 IM
实时音视频
活动推荐
运营活动
广告
关闭
领券