腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
带有ArrayFire的多个
主机
线程
、
、
对于如何在ArrayFire中使用多个
主机
线程,我有一个新的问题。我们目前有一个高度并行的CPU专用代码,使用Open和mpi4py并行化.每个CPU线程执行大型矩阵乘法,通常与多个线程同时相乘。我们希望通过使用ArrayFire在单个
GPU
上执行矩阵乘法来提高性能。我很难找到答案,
浏览 3
提问于2018-01-11
得票数 2
回答已采纳
1
回答
GPU
系统内存映射
、
、
、
、
如何为
GPU
访问映射系统内存(RAM)?我很清楚cpu的虚拟内存是如何工作的,但不确定当
GPU
访问
GPU
映射的系统内存(
主机
)时,它将如何工作。基本上是关于如何将数据从系统内存复制到
主机
内存,反之亦然。你能提供参考文章
支持
的解释吗?
浏览 1
提问于2012-07-06
得票数 15
回答已采纳
1
回答
Keras:在没有
GPU
的
主机
上用CuDNNLSTM构建的加载模型
、
我训练了一个使用CuDNNLSTM单元的keras模型,现在我希望将该模型加载到缺少
GPU
的
主机
设备上。但是,由于CuDNNLSTM单元需要一个
GPU
,加载过程就会爆炸,抛出: 没有注册OpKernel来
支持
这些吸引人的Op 'CudnnRNN‘。有什么后门可以让我在没有
GPU
的
主机
上加载模型吗?任何建议都会很有帮助的!
浏览 0
提问于2018-10-19
得票数 2
回答已采纳
1
回答
Cuda编译过程是如何进行的?
、
、
、
根据NVIDIAs编程指南: CUDA应用程序的源文件由传统的C++
主机
代码和
GPU
设备功能混合而成。CUDA编译轨迹将设备功能与
主机
代码分离,使用专有的NVIDIA编译器和汇编程序编译设备功能,使用可用的C++
主机
编译器编译
主机
代码,然后将编译后的
GPU
函数作为加脂二进制图像嵌入
主机
对象文件中。在链接阶段,添加了特定的CUDA运行库,以
支持
远程SPMD过程调用和提供显式
GPU
操作,如
GPU
内存缓冲区的分配和
浏览 14
提问于2022-02-02
得票数 0
1
回答
有可能有不同的开发虚拟机环境和访问图形卡吗?
、
、
、
测试应用程序的环境 首先,我使用VirtualBox为#1和#2在我的
主机
Windows中创建了VM环境,但是我不能在VM中运行,因为它不提供对图形卡的访问。
浏览 1
提问于2021-01-12
得票数 0
1
回答
启动android模拟器时出错: FB::flushWindowSurfaceColorBuffer:找不到窗口句柄0x4
、
我刚刚开始使用android。因此,当我尝试启动AVD (详细信息如下)时,它不会启动,只是有一段时间是黑屏,直到我厌倦它并关闭它。我已经安装了intelhaxm,并禁用了hyper-v。[2014-07-28 20:02:52 - app2] ------------------------------[2014-07-28 20:02:52 - app2] adb is running normally. [2014-07-28 20:02:52 - app2] Per
浏览 89
提问于2014-07-29
得票数 20
回答已采纳
1
回答
能否使用API <= 15运行Android平板电脑仿真器?
、
据我所知: 对吗?
浏览 1
提问于2016-04-29
得票数 0
1
回答
docker中的tensorflow图像是否使用
GPU
?
、
、
我对我的docker是否使用
GPU
有疑问。 我的台式机有GeForce 2060超级和瑞森53600。 我用tensorflow实现了CNN。每个图像的kB在20到50之间。另一方面,当我在docker中使用tensorflor-
gpu
-jupyter图像时,每个时期花费21秒(大约83ms/步)。我的docker命令如下。docker run --gpus all --rm -p 8888:8888 -v $PWD/CNN:/tf/notebooks tensorflow/tensorflow:latest
浏览 10
提问于2020-10-27
得票数 2
2
回答
Cuda:内核启动队列
由于内核执行是异步的,而且一些机器
支持
并发执行,因此我认为内核有一个队列。第4&5行是异步的,机器
支持
并发执行。所以在某种程度上,这两个内核都在
GPU
上运行。(在kernelA结束之前,kernelB可能会启动和结束。)当发生这种情况时,
主机
正在执行第6行。1)
GPU
中是否有内核队列?(
GPU
是否阻止/停止
主机
?) 2)
主机
如何知道内核已经完成,并且将结果从设备传输到
主机
是“安全的”?
浏览 2
提问于2012-10-06
得票数 4
1
回答
如何访问gpuMat中的数据?
、
、
我想用
gpu
::orb获取图像的关键点,而关键点的类型是一个gpuMat.Then,我试图作为文档访问gpuMat的数据。
浏览 6
提问于2017-01-18
得票数 1
2
回答
用于
GPU
的Halide交叉编译
我想在
GPU
上运行Halide代码。有一个关于如何在
GPU
上运行和如何进行交叉编译的教程示例。但是,没有将交叉编译与在
GPU
上运行相结合的教程。target.bits = 64;
gpu
_features.push_back(Target::OpenCL);我用运行在虚拟机上的Ubuntu开发代码,
浏览 18
提问于2017-03-07
得票数 1
回答已采纳
1
回答
如何在没有
GPU
的GCP实例上运行Parsec流服务?(错误代码15000)
、
、
一旦我试图连接到实例,就会得到错误15000,“
主机
编码器初始化失败”。我没有一个
GPU
附加到这个实例,所以这会是问题吗?
浏览 3
提问于2020-08-03
得票数 0
1
回答
当运行qemu chroot (例如,在riscv64
主机
中运行amd64色度)时,是否可以共享
gpu
和/或其驱动程序?
、
、
、
我很想看看我是否可以,比如说,以某种方式将riscv64台面驱动程序重新路由到
主机
的
gpu
上。我已经让X11和OpenGL应用程序在riscv64 chroot上工作,但它们最终使用的是软管道。那么,当
主机
riscv64 pc的libGL.so完成所有的工作时,是否有可能对libGL.so或其他东西进行修改,以便riscv64色度使用amd64
主机
正在使用的实际
gpu
(在我的例子中,是RTX编辑:最初,这个问题还询问了如何共享
gpu
本身及其实际驱动程序,而不是仅仅为riscv64<em
浏览 0
提问于2023-04-07
得票数 1
1
回答
码头机和谷歌计算引擎:
GPU
?
、
从码头机械GCE驱动程序的文档上看,似乎不可能产生一台带有
GPU
的机器。与AWS不同,在AWS中,
GPU
附带了一些特定的机器类型,因此Docker也
支持
这种类型,而在GCP中,您必须添加开关才能使用
GPU
旋转VM。有人知道如何告诉Docker在Google引擎中提供一个带有
GPU
的虚拟机吗?
浏览 0
提问于2018-09-27
得票数 3
2
回答
CUDA:内核有可能将中断返回给CPU吗?
、
、
我的程序基本上做了一个for循环,在这个循环中,我采取了几个并行的操作;在每次迭代开始时,我必须控制驻留在
GPU
上的一个变量(测量刚刚完成的迭代的改进)。
浏览 0
提问于2014-04-21
得票数 0
1
回答
如何在病毒管理器中启用vIOMMU?
、
、
、
我计划用
GPU
设备执行嵌套虚拟化。我已经运行了来宾Ubuntu,并通过在
主机
上启用intel_iommu并将NVIDIA配置为vfio-pci设备,将
GPU
映射到它。但是,现在我想在客户机中运行另一个VM,让我们将运行在
主机
上的客户机称为L1,在来宾上运行的客户机以L2的身份运行,我希望
GPU
可以被L2来宾访问,我遇到了Q35 Qemu芯片组
支持
的vIOMMU,如何在L1来宾上启用IOMMU,以便我可以直接将
gpu
传递给L2来宾?
浏览 0
提问于2020-02-25
得票数 2
1
回答
int32变量op没有
GPU
内核
当我用整数张量初始化Variable op时,它似乎没有
GPU
内核。例如,运行: var = tf.Variable(initial_value=([[1,2],[3,4]])) sess = tf.SessionCannot assign a device to node 'Variable': Could not satisfy explicit device specification '/device:
GPU
浏览 2
提问于2016-05-25
得票数 2
回答已采纳
1
回答
android缩放错误中的Google地图
、
当缩放仿真器上的映射时,在一定程度上模拟器停止后,我在logcat中得到以下错误: 以下是xml: xmlns:tools="http://schemas.android.com/tools
浏览 10
提问于2015-04-28
得票数 2
回答已采纳
1
回答
kubernetes
支持
用内置
GPU
机器建立集群吗?
、
、
、
我们现在正在购买
GPU
机器,并打算使用它们来运行ML培训。由producer、queue和N*workers组成的计划系统架构是: 最好的
浏览 1
提问于2021-08-25
得票数 1
回答已采纳
3
回答
为什么
GPU
可以从运行在Linux
主机
上的坞容器中访问,而不能在Windows或MacOS
主机
上访问?
、
、
、
、
从码头容器中访问
主机
GPU
,完全访问CUDA API。这在部署复杂的机器学习推理服务器时非常方便。 但是,据我所知,目前只
支持
Linux
主机
。为什么微软和苹果不能加强他们的游戏,并提供同样水平的
支持
?也就是说,在Linux上使用了什么技巧,这在其他OSes中显然很难模仿?
浏览 0
提问于2020-02-14
得票数 2
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
配置主机支持库
Nvidia 宣布支持 Kubernetes 容器的 GPU 加速
超聚变将推出全液冷GPU服务器,支持NVIDIA A100液冷GPU
语音克隆及合成整合包,支持CPU、GPU!
OpenStack发布Queens版本,扩展对GPU和容器支持
热门
标签
更多标签
云服务器
ICP备案
腾讯会议
云直播
对象存储
活动推荐
运营活动
广告
关闭
领券