腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(6272)
视频
沙龙
1
回答
相当于
cudaDeviceSetCacheConfig
的
CUDA
驱动
程序接口
将
CUDA
(撰写本文时
的
最新版本,v11.3 )
驱动
程序API与运行时API进行比较,可以看出运行时API具有以下功能 __host__ cudaError_t
cudaDeviceSetCacheConfig
而且似乎
驱动
程序API没有等效
的
功能。你能理解为什么会这样吗?有没有办法用
驱动
程序API来设置设备范围
的
缓存配置?
浏览 2
提问于2021-05-20
得票数 0
回答已采纳
1
回答
使用Nvidia平台为OpenCL配置本地(共享)内存
、
、
、
我想在我
的
OpenCL内核中优化本地内存访问模式。我在某个地方读过关于可配置本地内存
的
文章。例如,我们应该能够配置用于本地mem
的
金额和用于自动缓存
的
金额。我还读到,银行
的
规模可以选择最新
的
(开普勒) Nvidia硬件在这里:。对于将双精度值存储在本地内存中,这一点似乎是非常关键
的
。 Nvidia是否提供专门为
CUDA
用户设置本地内存
的
功能?
浏览 4
提问于2014-09-16
得票数 3
回答已采纳
1
回答
nvidia driver、
cuda
driver和
cuda
toolkit之间有什么关系?
、
在nvidia
驱动
程序包中,有libcuda.so。
cuda
工具包和libcuda.so有什么关系?
浏览 24
提问于2017-07-25
得票数 17
回答已采纳
2
回答
将Twisted中
的
代码推迟到特定线程
、
、
、
CUDA
工作方式
的
一个限制是,我必须在初始化
CUDA
上下文
的
同一线程中访问它。但是,Twisted
的
线程池实现不允许我请求特定
的
线程。例如,如果我有多个客户端连接到服务器,它们将请求使用
CUDA
完成一些计算。将使用同一
CUDA
对象请求多个操作(初始化开销较大)。我想使用deferToThread函数,但这不允许我遵循特定
的
线程,只是“一些”线程。理想情况下,我想要做
的
是使用像deferToThread这样
的<
浏览 0
提问于2012-05-24
得票数 2
回答已采纳
1
回答
如何从OpenCL内核中获取全局变量
的
值给宿主C++程序?
、
在
CUDA
驱动
程序接口
中,有一个名为cuModuleGetGlobal
的
函数,它允许您按名称获取
CUDA
模块(已创建
的
CUDA
程序
的
对象)中
的
全局变量
的
值。我想知道OpenCL是否也有同样
的
功能?
浏览 1
提问于2012-07-26
得票数 0
回答已采纳
1
回答
在包含
CUDA
运行时API
的
主机代码中使用
CUDA
驱动
程序API
如果我
的
程序已经包含Runtime API,是否可以使用
CUDA
驱动
程序API?换句话说,可以同时使用
驱动
程序接口
和运行时API吗?这是因为
驱动
程序接口
为设备提供了良好
的
控制,但同时运行时APi也简化了编码!
浏览 0
提问于2012-06-13
得票数 1
2
回答
AMD
相当于
CUDA
驱动
程序API?
、
CUDA
具有运行时API和
驱动
API。在AMD中,什么等同于此?如果我以某种方式修改了llvm中
的
IL,我能得到更多
的
控制吗?
浏览 0
提问于2011-08-18
得票数 7
1
回答
未定义
的
cudaMalloc符号
、
我正在尝试从
CUDA
编译cublas示例。#include <stdio.h>#include <math.h> return EXIT_SUCCESS;我将这个文件保存到"cudaexample.c“中,并尝试使用gcc cudaexample.c -I/usr&
浏览 8
提问于2015-02-27
得票数 1
1
回答
内核模式GPGPU
的
使用
、
、
、
可以从Linux内核模块运行
CUDA
或OpenCL应用程序吗?我找到了一个提供这个功能
的
项目,但是它需要一个用户空间助手来运行
CUDA
程序。()编辑:让我扩展我
的
问题。我知道内核组件只能调用内核和其他内核组件提供
的
API。因此,我不打算直接调用OpenCL或
CUDA
。最终,
CUDA
或OpenCL API必须调用图形
驱动
程序,才能实现它<e
浏览 2
提问于2014-02-18
得票数 3
回答已采纳
1
回答
动态并行cudaDeviceSynchronize()崩溃
有人知道这种不文明行为
的
原因是什么吗?#include <
cuda
_runtime.h>#include "device_launch_parameters.h; // Set to use on chip memory 16KB for shared
浏览 0
提问于2013-11-06
得票数 0
4
回答
如何在AWS p2.xlarge实例、AMI ami-edb11e8d和nvidia
驱动
程序中安装最新版本
的
Tensorflow (1.0)中
的
CUDA
8.0 (375.39)
、
、
、
、
我已经升级到Tensorflow 1.0版,并安装了
CUDA
8.0,cudnn 5.1版本和nvidia
驱动
程序更新到375.39。我
的
NVIDIA硬件是Amazon Web Services上使用p2.xlarge实例
的
硬件,也就是Tesla K-80。我
的
操作系统是64位
的
Linux。E tensorflow/stream_executor/
cuda
/
cuda
_driver.cc:509] failed call t
浏览 36
提问于2017-02-24
得票数 0
3
回答
我可以在不传递指针数组
的
情况下启动协作内核吗?
、
、
、
CUDA
运行时API允许我们使用变量数参数三元雪佛龙语法启动内核: first_argas_we, want_to, etc, etc); 为了启用网格同步,在启动内核时,必须使用cuLaunchCooperativeKernel
CUDA
cudaLaunchCooperativeKernel( const *func,dim3 gridDim,dim
浏览 1
提问于2018-01-31
得票数 4
回答已采纳
1
回答
python中
的
Cuda
cuLaunchHostFunc等效
、
、
、
使用Python
驱动
CUDA
,我希望在内核和内存副本发生后运行
的
流中调度Python主机函数异步。在一个Python (PyCuda,Numba,.)中是否有与
CUDA
CUresult cuLaunchHostFunc(CUstream hStream, CUhostFn fn, void* userData)函数相同
的
函数?
驱动
程序API函数位于中。
浏览 4
提问于2020-05-14
得票数 0
回答已采纳
2
回答
主机进程终止时
的
CUDA
上下文销毁
、
、
、
、
如果我
的
主机程序退出/segfault/被终止,那么关于
CUDA
上下文破坏和相应
的
已分配资源
的
相应行为是什么?我所说
的
“行为”是指如果我从未在我
的
程序中显式地调用cudaDeviceReset,那么自动
的
图形处理器
驱动
程序端机制。我在Linux下工作,我看到我
的
GPU内存使用量在几天(甚至一天)内递增地增长,而我正在启动
CUDA
代码,这些代码有时通过(CTRL-C)或简单地分段(在主机端)终止……
浏览 6
提问于2013-10-04
得票数 1
1
回答
CUDA
如何从屏幕上获取像素?
、
、
我找到了这篇文章,但它展示了如何从文件夹中
的
图像中获取像素。有没有可能直接从桌面上获取像素?How to get image pixel value and image height and width in
CUDA
C?
浏览 29
提问于2020-10-17
得票数 0
1
回答
CUDA
内核printf()在终端中不产生输出,在分析器中工作
、
\n");} // namespace kernels {
cuda
::launch(::kernels::print_stuff<int>, launch_config);备注: 我意识到理论上
的<
浏览 7
提问于2019-10-23
得票数 1
回答已采纳
1
回答
Cuda
,为什么我不能使用多个流媒体处理器?
、
、
、
我在
Cuda
中实现了RNS Montgomery指数运算。但是,到目前为止,我只关注单个exp
的
并行化。我现在想做
的
是在飞行中测试几个exp。我试过了,最后
的
时间总是线性增长,也就是说,所有的exp都被分配到相同
的
SM。然而,我从来没有使用过它们,所以可能我做错了什么。threadsPerBlock(SET_SIZE, (SET_SIZE+1)/2);
浏览 6
提问于2012-08-28
得票数 0
回答已采纳
1
回答
NVIDIA
驱动
程序-“工具包”选项是什么意思?
、
、
、
Not a duplicate of this question 在下载NVIDIA GPU
驱动
程序时,也有人问我更喜欢哪个
CUDA
工具包。 现在,当下载一个
驱动
程序时,这个选择意味着什么?据我所知,不同
的
CUDA
工具包有不同
的
最低
驱动
程序支持它们(在发行说明中也有说明),但是在
驱动
程序下载页面上
的
这个选择意味着什么?
浏览 15
提问于2019-09-09
得票数 0
回答已采纳
1
回答
从python代码向
CUDA
内核传递lambda
的
最佳方法
、
、
、
这将是一个更开放
的
问题,但我希望有人可能知道如何解决我
的
问题。如果你有任何建议,告诉我在哪里可以学到正确
的
方法,我将不胜感激!
浏览 0
提问于2020-10-26
得票数 0
1
回答
是否可以在多个gpus上运行
cuda
内核
、
、
、
这是一个相当简单
的
问题,但谷歌搜索似乎没有答案,所以。如果是这样的话,为了实现它,我需要知道什么特别的东西吗?除了
cuda
sdk之外,还有什么值得了解
的
例子吗?
浏览 1
提问于2010-12-03
得票数 7
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
英伟达推出开源项目CV-CUDA,流处理量相当于基于单个GPU的10倍
详解英伟达芯片在自动驾驶的软件移植设计开发
深度学习环境配置——conda虚拟环境安装CUDA和CUDNN
CUDA10.2不支持Ubuntu20.04,那安装CUDA11.0以及神经网络库cudnn
深度学习GPU环境Ubuntu16.04+GTX1080+CUDA9+cuDNN7+TensorFlow1.6环境配置
热门
标签
更多标签
云服务器
ICP备案
云直播
对象存储
腾讯会议
活动推荐
运营活动
广告
关闭
领券