腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(4320)
视频
沙龙
0
回答
PyCuda
使用
Streams
执行
推力
、
、
、
我正在尝试修改这里的代码: ...to
使用
cuda
streams
。 (请原谅我是c++的新手,并且只有几周的
使用
经验。)
浏览 5
提问于2017-11-30
得票数 1
2
回答
推动CUDA
使用
您选择的CUDA流
、
从CUDA
推力
代码中的内核启动来看,它们似乎总是
使用
默认的流。我能用我选择的溪流来做
推力
吗?我是不是漏掉了API里的东西?
浏览 3
提问于2014-06-23
得票数 5
回答已采纳
1
回答
使用
boost和python在GPU上集成ODE
、
、
、
、
不久前,我在这里发布了一个模型,我正在尝试
使用
pycuda
构建一个模型,它可以解决大约9000个耦合ODE。然而,我的模型太慢了,一位SO成员建议,内存从主机传输到GPU可能是罪魁祸首。由于我从主机向GPU传递了一个数组来
执行
此计算,并从GPU返回一个数组以集成到主机上,因此我可以看到这将如何减慢速度。谢谢你,卡斯汀
浏览 1
提问于2013-05-23
得票数 0
回答已采纳
1
回答
在
pycuda
FFT中每次都得到不同的结果
、
、
、
、
我正在写代码,可以在numpy.fft.fft2和
pycuda
之间进行比较,但结果不匹配。此外,
pycuda
结果每次都是模棱两可的。数据文件:import numpy as npimport
pycuda
.gpuarray as gpuarrayimport time import matplotl
浏览 9
提问于2018-02-21
得票数 0
4
回答
带烧瓶的
pyCUDA
提供
pycuda
._driver.LogicError: cuModuleLoadDataEx
、
、
我想在flask服务器上运行
pyCUDA
代码。该文件可以直接
使用
python3正确运行,但在
使用
flask调用相应函数时会失败。相关代码如下:import
pycuda
.autoinitimport numpy cudaTest()在运行python cudaFlask.py时,我得到
浏览 269
提问于2018-05-30
得票数 13
回答已采纳
5
回答
用Visual 2013在Windows8.1 64位上安装带有GPU的Theano
、
、
、
2-我已经有了Visual 2013,所以我还没有安装Visual 20105-我修正了msvc9compiler.py下面是我所做的工作:-我
使用
cygwin提取
pycuda
tar文件-我通过VS2013x64本地工具命令提示符
执行
python VS2013,而不是配置的siteconfig.py,如下所示: BOOST_INC_
浏览 8
提问于2015-02-18
得票数 3
1
回答
在CUDA 6.5中用nvvp分析
PyCUDA
代码
、
、
、
从过去的StackOverflow问题(例如,和)来看,人们应该能够
使用
nvvp来分析
PyCUDA
程序。当我尝试在一个运行在命令行中没有任何问题的
PyCUDA
脚本上运行CUDA6.5中的nvvp时,分析失败了,出现了以下错误:org.eclipse.core.rntime.CoreException: Reference to undefined variable args 有人成功地在
PyCUDA
中
使用
了nvvp6.5吗?我在Ubuntu1
浏览 2
提问于2014-09-17
得票数 0
回答已采纳
1
回答
多GPU上的CUDA上下文、流和事件
、
TL;:“
使用
PyCUDA
对多个GPU进行循环调用的最佳方法是什么,这样CPU和GPU的工作就可以并行进行了?”“我不可能是第一个问这个问题的人,有什么我应该读的吗?”全文: 我想知道在多个GPU系统上
使用
CUDA的应用程序中设计上下文等处理的最佳方法。主机程序是Python2.7,
使用
PyCUDA
访问GPU。目前,它不是多线程的,虽然我宁愿这样(“现在您有两个问题了”等等),但是如果答案意味着线程,那么它就意味着线程。类似地,当需要阻塞数据时,能够在主线程中调用event.synchronize()也很
浏览 2
提问于2012-03-08
得票数 1
回答已采纳
1
回答
或者我们如何在
pycuda
中
使用
scipy?
、
、
、
实际上,我在我的python算法中
使用
了scipy库方法"solve“和"lstsq”。我需要在
pycuda
(即)中
使用
此方法,以便在GPU中
执行
。在C中支持scipy吗?或者我们如何在
pycuda
中
使用
scipy。 请帮我解决这个问题好吗?
浏览 28
提问于2021-07-12
得票数 0
回答已采纳
1
回答
在生成一个文件可
执行
文件Ubuntu16.04LTS后,Pyinstaller无法找到NVCC
、
、
、
、
我有一个python项目,它
使用
CUDA和
Pycuda
作为实现的一部分。当作为python文件
执行
时,它运行时没有出现错误。然后,我
使用
pyinstaller生成了一个可
执行
文件,但是它给了我一个错误,它找不到nvcc。line 151, in <module> File "site-packages/
pycuda
浏览 0
提问于2020-03-05
得票数 1
1
回答
pycuda
.debug实际上是做什么的?
、
、
、
、
作为一个更大的项目的一部分,我遇到了一个奇怪的始终如一的bug,我无法理解它,但它是一个典型的“黑盒”bug;当
使用
cuda-gdb python -m
pycuda
.debug prog.py -args如果我放弃
pycuda
.debug,它就会崩溃。一致地,在多内核
执行
中的完全相同的点。 为了解释,我有(目前有三个)内核,用于不同的网格和块排列,以解决更大的优化问题的“切片”。严格地说,这些函数要么工作,要么不工作,因为函数本身只被告知“这里有一些更多的数据”,并且除了数据的内容之外,不知道任何东西,比如迭代次数,无论
浏览 0
提问于2011-04-25
得票数 1
回答已采纳
2
回答
图形处理器(AMD和Nvidia)上的NumPy + BLAS + LAPACK
、
、
、
代码
使用
numpy.dot,以及一些当前通过scipy.linalg.blas和scipy.linalg.lapack访问的BLAS和LAPACK函数。当前代码是为CPU编写的。我们希望转换代码,以便在图形处理器上
执行
一些NumPy、BLAS和LAPACK操作。编辑:我们需要的代码是可移植到不同的GP
浏览 0
提问于2017-11-10
得票数 4
2
回答
使用
PyCUDA
时出现的上下文错误
、
、
、
、
我正在
使用
PyCUDA
实现smooth_local_affine,如所示。当我简单地在linux上运行这个程序时,它工作得很好。在我们的
执行
过程中,CUDA可能已经被重新初始化了,所以我们不可能干净利落地完成。这个计划现在就要中止了。
使用
Context.pop()可以避免这个问题。-2017.1-py3.6-linux-x86_64.egg/
pycuda
/autoinit.py",第14行,在_finish_up context.pop()
pycuda
._
浏览 0
提问于2018-04-01
得票数 8
1
回答
如何在
pycuda
中设置流的优先级?
、
、
标题说明了这一切,但这是我更详细的问题:我正在用python +
pycuda
实现一个在分布式系统上运行的有限元素求解器。 我的问题是:我如何告诉我的GPU首先
执行
通信内核?我
使用
的是RTX2060M,因此支持流优先级,并且在
pycuda
中存在属性STREAM_PRIORITIES_SUPPORTED使我认为可以从
pycuda
设置流优先级。
浏览 10
提问于2022-02-24
得票数 1
回答已采纳
1
回答
在
PyCUDA
的戒律中,内存分配的顺序重要吗?
、
、
、
、
我在CUDA统一内存[]上
使用
PyCUDA
的接口[]。在某个时候,我添加了随机数生成器[],并盯着看到木星笔记本中的死内核: 我把问题缩小到了随机数发生器的创建。或者,准确地说,当我这样做的时候:from
pycuda
import autoinit, driver gpu_datadriver.managed_zeros(shape=5, dtype=np.int32, mem_flags=driver.mem_attach_f
浏览 10
提问于2020-04-10
得票数 0
回答已采纳
5
回答
pyCUDA
与C的性能差异?
、
、
我刚开始
使用
CUDA编程,我想知道如何将
pyCUDA
的性能与在普通C中实现的程序进行比较?有什么我应该知道的奶瓶颈吗? 编辑:--我显然是先尝试搜索这个问题,却没有发现任何信息,我感到很惊讶。也就是说,我会排除
pyCUDA
的人在他们的FAQ中回答了这个问题。
浏览 11
提问于2011-10-28
得票数 18
回答已采纳
2
回答
PyCUDA
和NumbaPro CUDA Python有什么区别?
、
、
、
、
两者似乎都要求您
使用
各自的Python方言。但是,
PyCUDA
似乎要求您用C代码编写内核函数,这将比
使用
NumbaPro更麻烦,后者似乎为您完成了所有困难的工作。 真的是这样吗?
浏览 6
提问于2017-07-18
得票数 18
回答已采纳
3
回答
PyCuda
:可以导入模块,然后我不能...(
PyCUDA
示例)
、
、
、
示例代码:import
pycuda
.driver as drv<module '
pycuda
' from '/home/abolster/lib/python2.7/site-packages/
pycuda
浏览 0
提问于2011-04-08
得票数 1
1
回答
调用CUDA内核__global___中的
推力
函数
、
、
、
我读过关于在新版本的CUDA中支持动态并行性的文章,我可以在带有thrush::exclusive_scan参数的内核函数中调用
推力
函数,比如thrust::device。main() {} 当调用内核内部的
推力
函数时,每个线程是否只调用该函数一次,并且它们都对数据
执行
动态并行处理?如果是这样的话,我只需要一个线程就可
浏览 1
提问于2018-02-11
得票数 2
回答已采纳
1
回答
CUDA:如何在图形处理器上直接
使用
thrust::sort_by_key?
、
、
推力
库可用于对数据进行排序。thrust::sort_by_key(d_keys.begin(), d_keys.end(), d_values.begin()); 在CPU上调用,d_keys和d_values在CPU内存中;大部分
执行
发生在如何
使用
推力
库直接在GPU上
执行
高效的排序,即从内核调用sort_by_key函数?我应该如何对这些类型进行
推力
调用?
浏览 0
提问于2013-03-25
得票数 8
点击加载更多
相关
资讯
使用Java Streams查询数据库
使用Kafka Streams构建事件溯源系统的经验分享
流式处理:使用 Apache Kafka的Streams API 实现 Rabobank 的实时财务告警
使用MES制造执行系统进行流程优化
使用 Python subprocess 模块高效执行系统命令
热门
标签
更多标签
云服务器
ICP备案
云直播
即时通信 IM
实时音视频
活动推荐
运营活动
广告
关闭
领券