腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(9999+)
视频
沙龙
1
回答
带有ArrayFire的多个
主机
线程
、
、
对于如何在ArrayFire中使用多个
主机
线程,我有一个新的问题。我们目前有一个高度并行的CPU专用代码,使用Open和mpi4py并行化.每个CPU线程执行大型矩阵乘法,通常与多个线程同时相乘。我们希望通过使用ArrayFire在单个
GPU
上执行矩阵乘法来提高性能。我很难找到答案,
浏览 3
提问于2018-01-11
得票数 2
回答已采纳
1
回答
GPU
系统内存映射
、
、
、
、
如何为
GPU
访问映射系统内存(RAM)?我很清楚cpu的虚拟内存是如何工作的,但不确定当
GPU
访问
GPU
映射的系统内存(
主机
)时,它将如何工作。基本上是关于如何将数据从系统内存复制到
主机
内存,反之亦然。你能提供参考文章
支持
的解释吗?
浏览 1
提问于2012-07-06
得票数 15
回答已采纳
1
回答
Keras:在没有
GPU
的
主机
上用CuDNNLSTM构建的加载模型
、
我训练了一个使用CuDNNLSTM单元的keras模型,现在我希望将该模型加载到缺少
GPU
的
主机
设备上。但是,由于CuDNNLSTM单元需要一个
GPU
,加载过程就会爆炸,抛出: 没有注册OpKernel来
支持
这些吸引人的Op 'CudnnRNN‘。有什么后门可以让我在没有
GPU
的
主机
上加载模型吗?任何建议都会很有帮助的!
浏览 0
提问于2018-10-19
得票数 2
回答已采纳
1
回答
Cuda编译过程是如何进行的?
、
、
、
根据NVIDIAs编程指南: CUDA应用程序的源文件由传统的C++
主机
代码和
GPU
设备功能混合而成。CUDA编译轨迹将设备功能与
主机
代码分离,使用专有的NVIDIA编译器和汇编程序编译设备功能,使用可用的C++
主机
编译器编译
主机
代码,然后将编译后的
GPU
函数作为加脂二进制图像嵌入
主机
对象文件中。在链接阶段,添加了特定的CUDA运行库,以
支持
远程SPMD过程调用和提供显式
GPU
操作,如
GPU
内存缓冲区的分配和
浏览 14
提问于2022-02-02
得票数 0
1
回答
有可能有不同的开发虚拟机环境和访问图形卡吗?
、
、
、
测试应用程序的环境 首先,我使用VirtualBox为#1和#2在我的
主机
Windows中创建了VM环境,但是我不能在VM中运行,因为它不提供对图形卡的访问。
浏览 1
提问于2021-01-12
得票数 0
1
回答
启动android模拟器时出错: FB::flushWindowSurfaceColorBuffer:找不到窗口句柄0x4
、
我刚刚开始使用android。因此,当我尝试启动AVD (详细信息如下)时,它不会启动,只是有一段时间是黑屏,直到我厌倦它并关闭它。我已经安装了intelhaxm,并禁用了hyper-v。[2014-07-28 20:02:52 - app2] ------------------------------[2014-07-28 20:02:52 - app2] adb is running normally. [2014-07-28 20:02:52 - app2] Per
浏览 89
提问于2014-07-29
得票数 20
回答已采纳
1
回答
能否使用API <= 15运行Android平板电脑仿真器?
、
据我所知: 对吗?
浏览 1
提问于2016-04-29
得票数 0
1
回答
docker中的tensorflow图像是否使用
GPU
?
、
、
我对我的docker是否使用
GPU
有疑问。 我的台式机有GeForce 2060超级和瑞森53600。 我用tensorflow实现了CNN。每个图像的kB在20到50之间。另一方面,当我在docker中使用tensorflor-
gpu
-jupyter图像时,每个时期花费21秒(大约83ms/步)。我的docker命令如下。docker run --gpus all --rm -p 8888:8888 -v $PWD/CNN:/tf/notebooks tensorflow/tensorflow:latest
浏览 10
提问于2020-10-27
得票数 2
2
回答
Cuda:内核启动队列
由于内核执行是异步的,而且一些机器
支持
并发执行,因此我认为内核有一个队列。第4&5行是异步的,机器
支持
并发执行。所以在某种程度上,这两个内核都在
GPU
上运行。(在kernelA结束之前,kernelB可能会启动和结束。)当发生这种情况时,
主机
正在执行第6行。1)
GPU
中是否有内核队列?(
GPU
是否阻止/停止
主机
?) 2)
主机
如何知道内核已经完成,并且将结果从设备传输到
主机
是“安全的”?
浏览 2
提问于2012-10-06
得票数 4
1
回答
如何访问gpuMat中的数据?
、
、
我想用
gpu
::orb获取图像的关键点,而关键点的类型是一个gpuMat.Then,我试图作为文档访问gpuMat的数据。
浏览 6
提问于2017-01-18
得票数 1
2
回答
用于
GPU
的Halide交叉编译
我想在
GPU
上运行Halide代码。有一个关于如何在
GPU
上运行和如何进行交叉编译的教程示例。但是,没有将交叉编译与在
GPU
上运行相结合的教程。target.bits = 64;
gpu
_features.push_back(Target::OpenCL);我用运行在虚拟机上的Ubuntu开发代码,
浏览 18
提问于2017-03-07
得票数 1
回答已采纳
1
回答
如何在没有
GPU
的GCP实例上运行Parsec流服务?(错误代码15000)
、
、
一旦我试图连接到实例,就会得到错误15000,“
主机
编码器初始化失败”。我没有一个
GPU
附加到这个实例,所以这会是问题吗?
浏览 3
提问于2020-08-03
得票数 0
1
回答
当运行qemu chroot (例如,在riscv64
主机
中运行amd64色度)时,是否可以共享
gpu
和/或其驱动程序?
、
、
、
我很想看看我是否可以,比如说,以某种方式将riscv64台面驱动程序重新路由到
主机
的
gpu
上。我已经让X11和OpenGL应用程序在riscv64 chroot上工作,但它们最终使用的是软管道。那么,当
主机
riscv64 pc的libGL.so完成所有的工作时,是否有可能对libGL.so或其他东西进行修改,以便riscv64色度使用amd64
主机
正在使用的实际
gpu
(在我的例子中,是RTX编辑:最初,这个问题还询问了如何共享
gpu
本身及其实际驱动程序,而不是仅仅为riscv64<em
浏览 0
提问于2023-04-07
得票数 1
1
回答
码头机和谷歌计算引擎:
GPU
?
、
从码头机械GCE驱动程序的文档上看,似乎不可能产生一台带有
GPU
的机器。与AWS不同,在AWS中,
GPU
附带了一些特定的机器类型,因此Docker也
支持
这种类型,而在GCP中,您必须添加开关才能使用
GPU
旋转VM。有人知道如何告诉Docker在Google引擎中提供一个带有
GPU
的虚拟机吗?
浏览 0
提问于2018-09-27
得票数 3
2
回答
CUDA:内核有可能将中断返回给CPU吗?
、
、
我的程序基本上做了一个for循环,在这个循环中,我采取了几个并行的操作;在每次迭代开始时,我必须控制驻留在
GPU
上的一个变量(测量刚刚完成的迭代的改进)。
浏览 0
提问于2014-04-21
得票数 0
1
回答
如何在病毒管理器中启用vIOMMU?
、
、
、
我计划用
GPU
设备执行嵌套虚拟化。我已经运行了来宾Ubuntu,并通过在
主机
上启用intel_iommu并将NVIDIA配置为vfio-pci设备,将
GPU
映射到它。但是,现在我想在客户机中运行另一个VM,让我们将运行在
主机
上的客户机称为L1,在来宾上运行的客户机以L2的身份运行,我希望
GPU
可以被L2来宾访问,我遇到了Q35 Qemu芯片组
支持
的vIOMMU,如何在L1来宾上启用IOMMU,以便我可以直接将
gpu
传递给L2来宾?
浏览 0
提问于2020-02-25
得票数 2
1
回答
int32变量op没有
GPU
内核
当我用整数张量初始化Variable op时,它似乎没有
GPU
内核。例如,运行: var = tf.Variable(initial_value=([[1,2],[3,4]])) sess = tf.SessionCannot assign a device to node 'Variable': Could not satisfy explicit device specification '/device:
GPU
浏览 2
提问于2016-05-25
得票数 2
回答已采纳
1
回答
android缩放错误中的Google地图
、
当缩放仿真器上的映射时,在一定程度上模拟器停止后,我在logcat中得到以下错误: 以下是xml: xmlns:tools="http://schemas.android.com/tools
浏览 10
提问于2015-04-28
得票数 2
回答已采纳
1
回答
kubernetes
支持
用内置
GPU
机器建立集群吗?
、
、
、
我们现在正在购买
GPU
机器,并打算使用它们来运行ML培训。由producer、queue和N*workers组成的计划系统架构是: 最好的
浏览 1
提问于2021-08-25
得票数 1
回答已采纳
3
回答
为什么
GPU
可以从运行在Linux
主机
上的坞容器中访问,而不能在Windows或MacOS
主机
上访问?
、
、
、
、
从码头容器中访问
主机
GPU
,完全访问CUDA API。这在部署复杂的机器学习推理服务器时非常方便。 但是,据我所知,目前只
支持
Linux
主机
。为什么微软和苹果不能加强他们的游戏,并提供同样水平的
支持
?也就是说,在Linux上使用了什么技巧,这在其他OSes中显然很难模仿?
浏览 0
提问于2020-02-14
得票数 2
回答已采纳
点击加载更多
热门
标签
更多标签
云服务器
ICP备案
对象存储
云点播
智聆口语评测
活动推荐
运营活动
广告
关闭
领券