腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
4
回答
对于
服务器
来说,ECC内存支持的
GPU
是必需的,还是正常的
gpu
在
服务器
中可以正常工作?
、
、
、
是否要求
服务器
在
GPU
上使用ECC ram,而普通CPU ram是ECC?我想我们可以使用GTX 980或者AMD r9 290...if .另外,如果不一定需要使用ECC ram.比有一个“
服务器
”
gpu
(i7处理器“就像”一个
服务器
E7.E7通常用于
服务器
/
工作站
,而i7
浏览 0
提问于2015-02-28
得票数 4
回答已采纳
1
回答
Nvidia视觉探查器显示偏移
GPU
/CPU计算
、
、
、
我有一个CUDA程序,我正在三台机器上分析: 第一台机器(windows 7
工作站
)使用GeForce 690作为其主显卡(除了进行数据自动化处理)。最后2台机器(windows膝上型计算机和linux
工作站
)正在使用其他显卡进行显示(笔记本电脑的集成图形
浏览 3
提问于2013-08-28
得票数 0
回答已采纳
2
回答
在桌面和
工作站
上安装Linux操作系统有什么不同吗?
、
、
我有一个拥有32 CPU和32
GPU
Nvidia的250 to内存
工作站
,目前,它有一个Red操作系统,但是
GPU
没有配置,安装OpenGL也有问题。我正在考虑安装CentOS。在桌面和
工作站
上安装操作系统有什么区别吗?
浏览 0
提问于2018-03-15
得票数 1
1
回答
ATI HD 5800
GPU
性能差的故障排除
、
、
、
、
我再次尝试解决ATI Radeon HD 5800系列(5830)
GPU
和Ubuntu之间的问题。以下是我的系统的基本大纲: 内核3.8.0-20fglrx 9.1.11Gnome 3.6.3.1 双显示器:
浏览 0
提问于2013-05-08
得票数 2
1
回答
用于深度学习的单个或多个
GPU
在我们的机构,我们有两个RTX 3080
GPU
,我们想知道,是更好的每一个
GPU
在单独的PC或它是否更好地有两个
GPU
在一台PC。是否可以例如对第一个
GPU
进行一次分析,并使用第二个
GPU
来训练DL模型(两个
GPU
都连接到一个MB),或者可能将DL模型训练并行到两个
GPU
以加快速度?我只想知道,把两个
GPU
放在一台PC上是否更符合成本效益(所以我们会购买一个PC机箱、一个MB和一个电源),还是将两个
GPU
分离成两个PC会更好。 谢谢
浏览 0
提问于2022-09-29
得票数 1
回答已采纳
1
回答
如何共享一个
GPU
深度学习
服务器
?
、
、
、
、
对于我们的开发团队,我们希望为他们的深入学习/培训任务构建一个中央
GPU
服务器
(使用一个或多个强大的
GPU
,而不是为每个团队成员提供自己的
GPU
的多个
工作站
)。我想这是一个常见的设置,但我不知道如何使这个
GPU
共享为多个团队成员同时工作。我们使用Tensorflow/Keras和Python脚本。我的问题是:让团队成员在中央
服务器
上训练模型的典型方法是什么?只要允许他们通过SSH访问并直接从命令行进行网络培训?或者设置一个木星集线器
服务器</
浏览 0
提问于2020-12-17
得票数 2
回答已采纳
2
回答
多个
GPU
是否可以作为一个具有更多内存的
GPU
工作?
、
、
、
我有一个深度学习
工作站
,其中有4个
GPU
,每个
GPU
有6 GB的内存。是否有可能将4个
GPU
视为一个24 GB的docker容器? 谢谢。
浏览 43
提问于2020-02-10
得票数 0
1
回答
在张量流中利用高精度
gpu
、
、
嗨,我正在读张量流的,我想知道
gpu
的精确性能是否是张量流中的一个因素。例如,给了一台有两张卡片的机器, 是否有任何能提供
工作站
卡更高精度性能的实现可以克服时钟速度较慢的问题?
浏览 0
提问于2018-06-26
得票数 5
回答已采纳
1
回答
将X显示从一台
服务器
移动到另一台
服务器
、
我有一个处理
服务器
(只有板载显卡,没有机头),它与几个
工作站
服务器
(带有专用显卡/2个机头的
服务器
)联网。有一套opengl应用程序我无法更改,正在进行密集的处理。我希望能够在不同的
工作站
服务器
之间移动它们,而不必重新加载这些应用程序。到目前为止,我还不能做到这一点,我正在寻找建议,如果这是可能的。如果我将显示器导出到
工作站
服务器
,则在处理
服务器
上运行应用程序工作正常,但是如果不重新启动应用程序,则无法将这些显示器移动到另一
浏览 4
提问于2013-07-08
得票数 0
回答已采纳
1
回答
Matlab - CPU工作者或
GPU
处理器中的高度并行任务
、
、
workerData = data(:,ix);enddataGPU = gpuArray(data);(实际上,我正在执行一个似然计算,它使用Workers中的for循环在列向量上的
浏览 5
提问于2013-08-05
得票数 1
2
回答
带有NVidia或ATI的机架
服务器
、
、
、
为了测试我们的软件产品,我们需要用ATI或NVidia
工作站
图形适配器在机器上生成光栅图像。戴尔,我们的主要硬件供应商,没有提供有必要的图形适配器插槽的机架
服务器
(至少对于我联系过的销售人员来说是这样的)。谢谢。
浏览 0
提问于2017-03-14
得票数 0
1
回答
系统冻结,但仍可通过ssh访问。
、
我在
工作站
上做了一些事情,图形开始慢慢恶化,以至于它们变得完全没有响应能力。到目前为止,我通常能够通过ssh登录到
工作站
并完成工作。 由于这是一个其他人也工作的
工作站
,我想避免重新启动,我在问,是否有可能通过仍然可用的ssh来解决这个问题?
浏览 0
提问于2015-06-13
得票数 0
1
回答
GPU
linux
工作站
、
、
我不玩游戏或做沉重的3D图形,如果我想做
GPU
计算,我可以使用它作为一个缓慢的测试机器时,开发,但然后做我的重型提升机器(像专用的超级计算机)。便宜的东西(100到200美元或更少)是首选--通常
GPU
的溢价是为了性能和处于最前沿。考虑到我对这两件事都不感兴趣,我宁愿不要超支。
浏览 0
提问于2017-03-29
得票数 6
1
回答
带离散
GPU
和星载IPMI
GPU
的超微型X10主板及通过KVM访问
、
、
是否可以同时运行
GPU
并连接到显示器(例如镜像显示器),但也可以通过IPMI iKVM连接到内置的
GPU
?我需要通过KVM访问一个带有X10类超级微主板(尚未购买)的远程
工作站
,该
工作站
安装和使用了一个离散的
GPU
,但我不确定iKVM在这种情况下是否能工作。
浏览 0
提问于2016-11-28
得票数 2
回答已采纳
1
回答
限制用户访问
GPU
我希望限制对联合使用
工作站
上的某些用户使用
GPU
(在它上保留内存)的访问。因此,如果用户试图访问SSH上的
GPU
(例如通过CUDA ),则该请求将被拒绝。你知道从哪里开始找这个吗? 提前感谢!
浏览 0
提问于2017-03-16
得票数 5
回答已采纳
5
回答
如何使我的HP
服务器
更快地启动?
、
、
、
、
我有一个HP ProLiant DL370 G6
服务器
,我正在使用它作为
工作站
。它需要60秒在重新启动和冷引导前,屏幕上发布一个离散的Radeon HD6xxx
GPU
。我有机会使用HP Gen8
服务器
。它快速发布并显示各种CPU/内存/QPI初始化步骤。还需要很长时间,但至少我能看到发生了什么。
浏览 0
提问于2012-12-03
得票数 21
回答已采纳
1
回答
服务器
到类似于
工作站
转换的东西
、
(是的,严肃的工作,不是游戏或玩),现在我使用的Macbook Pro 13“和它的运行在12-30
gpu
与集成
gpu
和我想改变设置为更强大的东西。我正在考虑买一个
工作站
,但唯一的缺点是我需要一些更便携的东西,因为
服务器
是一种方便的机架格式,它更容易建造一个小的运输机架,有足够的空间供
服务器
、屏幕、鼠标、键盘、midi控制器和其他东西随身携带,而且非常方便唯一让我有点担心的是,它的
GPU
,因为它的实时视觉是沉重的
GPU
进程(和HDD紧张,这就是为什么一个
服务器
浏览 0
提问于2016-02-15
得票数 0
1
回答
CUDA 4.0对等访问混淆
我有两个关于CUDA 4.0同侪访问的问题: 有任何方法可以像从
GPU
#0 --->
GPU
#1 --->
GPU
#2 --->
GPU
#3复制数据一样。目前,在我的代码中,当我一次只使用两个
GPU
时,它可以正常工作,但是当我使用cudaDeviceCanAccessPeer在第三个
GPU
上检查对等访问时,它就失败了。dev0, dev1)和cudaDeviceCanAccessPeer(&flag_12, dev1, dev2)时,后面的语句失败(0返回到fl
浏览 7
提问于2011-08-01
得票数 0
回答已采纳
2
回答
限制
GPU
使用的代码
、
是否有可以在CUDA代码中设置的命令/函数/变量来限制
GPU
使用百分比?我想修改一个名为Flam4CUDA的开源项目,以便该选项存在。他们现在的做法是,它使用了尽可能多的
GPU
,其效果是温度飙升(显然)。为了在长时间的计算中保持低温度,我希望能够告诉程序使用,比如说,每个
GPU
的50% (或者甚至对不同的
GPU
有不同的百分比,或者也可以选择使用哪个(S)
GPU
)。有什么想法吗?
浏览 2
提问于2011-06-10
得票数 4
1
回答
NVIDIA-Linux-x86_64-470.63.01-grid.run部署到云运行的问题
、
、
、
、
我正试图在google云上部署。我的Dockerfile:RUN apt update RUN apt -y install curlRUN curl -O https://storage.googleapis.com/nvidia-drivers-us-public/GRID/GRID13.0/NVIDIA-Linux-x86_64-470.63.01-grid.run RUN chmod +x NVIDIA-Linux-
浏览 19
提问于2021-12-14
得票数 0
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
不要再说华硕没有支持4张GPU卡的工作站咯!
深度学习工作站应该选择哪一款NVIDIA GPU卡?
小白知识,什么是GPU服务器
工作站和塔式服务器有什么区别
工作站和服务器有什么区别?
热门
标签
更多标签
云服务器
ICP备案
腾讯会议
云直播
对象存储
活动推荐
运营活动
广告
关闭
领券