腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(9999+)
视频
沙龙
1
回答
GPU
中
的
上下文切换
机制
是什么
?
、
、
、
据我所知,
GPU
会在不同
的
时间段之间切换,以隐藏内存延迟。但我想知道在哪种情况下,曲速会被切换出来?例如,如果warp执行加载,而数据已经在缓存
中
。那么翘曲是切换出来还是继续下一次计算呢?如果有两个连续
的
相加,会发生什么?谢谢
浏览 5
提问于2011-07-07
得票数 20
回答已采纳
1
回答
测量
GPU
中
上下文切换
的
开销
、
、
、
有很多方法来测量CPU
上下文切换
开销。它似乎没有多少资源来测量
GPU
上下文切换
开销。CPU
上下文切换
和
GPU
的
不同之处在于。我很困惑如何用上下文转换来测量翘曲
的
时间?有人
浏览 2
提问于2014-06-17
得票数 6
1
回答
从操作系统内核访问
GPU
内存
、
、
我们正在研究一个原型,在那里我们打算使用
GPU
内存作为"
GPU
RAM磁盘“。目前,我们有一个用户模式模块,它使用OpenCL将数据复制到
GPU
内存和从
GPU
内存复制数据。我们更喜欢直接从Windows访问
GPU
内存
的
方法(从而减少引入
的
f.e
的
开销。通过
上下文切换
)。实现这一目标的最佳途径
是什么
?
浏览 4
提问于2012-02-10
得票数 0
1
回答
Kaveri是符合HSA标准
的
处理器吗?
、
我看了很多,发现符合HSA标准
的
GPU
应该是可抢占
的
,并且支持
上下文切换
。谢谢!
浏览 2
提问于2014-03-29
得票数 0
回答已采纳
1
回答
在
GPU
上运行多个进程时
的
内存问题
、
、
、
、
经过一定数量
的
并发程序(在我
的
例子
中
是10个)后,我得到以下错误: ...it可能是因为VRAM内存限制被击中而发生
的
(从错误消息来看,这是非常不直观
的
)。对于我进行PyTorch模型培训
的
案例来说,减少批处理大小是有帮助
的
。您可以尝试这样做,或者减少模型大小以减少VRAM
的
消
浏览 12
提问于2022-11-30
得票数 0
回答已采纳
1
回答
GPU
上下文切换
、
、
、
我有一个程序,它首先渲染纹理,然后将纹理传递给计算着色器进行处理,然后通过带纹理
的
全屏四边形将输出结果渲染到屏幕上。我在nVidia
的
计算着色器编程指南中读到,每次调度计算着色器时,它都会启动
GPU
设备
上下文切换
,这不应该经常进行。 我现在很困惑。在我看来,在我
的
渲染管道
中
,
GPU
会切换两次上下文。对吗?如果这是正确
的
,那么我可以通过像这样重新组织我
的
代码来避免一次切换。首先,渲染到纹理。其次,在计算着色器上执行处理。然后,在下一帧<
浏览 0
提问于2012-10-06
得票数 1
回答已采纳
4
回答
java并发包是使用锁实现
的
吗?
、
、
、
从概念上讲,被用作四种主要
的
同步
机制
,它们纯粹是基于锁
的
。不同
的
编程语言对这4种
机制
有不同
的
术语/行话。POSIX pthread包就是这种实现
的
一个这样
的
例子。最后两个是使用睡眠锁实现
的
。基于锁
浏览 5
提问于2014-10-24
得票数 0
3
回答
在多核处理器上线程
的
上下文切换
是如何完成
的
?
、
、
在单核处理器上执行
上下文切换
时,负责
的
代码在负责切换线程
的
唯一CPU上执行。 但是当我们有多个CPU时,如何做到这一点呢?是否有一个主CPU来完成所有从CPU
的
上下文切换
?每个CPU是否负责自己
的
上下文切换
?如果是这样,如何同步切换,使两个CPU不执行相同
的
线程?还是有其他
的
机制
呢?
浏览 12
提问于2010-10-12
得票数 9
回答已采纳
2
回答
进程之间
的
上下文切换
是否会使MMU(内存控制单元)失效?
、
、
、
这是我
的
系统讲座
的
PowerPoint
中
的
一个句子,但我不明白为什么
上下文切换
会使MMU无效。我知道它将使缓存失效,因为缓存包含另一个进程
的
信息。然而,对于MMU,它只是将虚拟内存映射到物理内存。如果
上下文切换
使其无效,这是否意味着MMU在不同进程中使用不同
的
映射
机制
?
浏览 4
提问于2017-01-03
得票数 3
回答已采纳
2
回答
如何测量
GPU
上下文从计算到渲染着色器
的
切换
、
、
、
、
在OpenGL
中
,我根据运动方程调度计算着色器来计算给定对象模型
中
的
新顶点位置。然后我通过顶点/片段渲染着色器程序渲染这些新
的
顶点位置。我
的
理解是,每次我调度一个计算着色器,它都会启动一个
GPU
设备
上下文切换
,这需要有限
的
时间。 谁能分享一下如何在OpenGL
中
测量计算着色器和渲染着色器之间
的
上下文切换
。我假设这是非常少
的
时间,但我需要测量它。谢谢你
的
见
浏览 2
提问于2017-06-28
得票数 0
3
回答
是否有可能同时保存OpenGL
中
的
所有州?
、
如果我们有几个OpenGL上下文,每个上下文都在自己
的
进程
中
,驱动程序以某种方式虚拟化了设备,因此每个程序都认为它只运行
GPU
。否则,可以使用大量
的
glGet调用来保存状态,然后通过相应
的
调用来恢复状态。显然,司机做得更有效率。但是,在用户空间中,我们需要跟踪我们对状态所做
的
更改,并有选择地处理它们。也许只是我遗漏了什么,但我认为,首先,调整一下Framebuffer
的
Viewport,然后将这些更改撤消到以前
的
任何状态都会更好。 也许有一种方法可以在
浏览 5
提问于2016-04-24
得票数 3
回答已采纳
1
回答
多
gpu
机上
的
pytorch并行超参数优化
、
、
、
我可以访问一个多
gpu
机器,我正在运行一个网格搜索循环
的
参数优化。我想知道我是否可以同时在多个
gpu
上分发多个循环
的
迭代,如果可以的话,我如何做到(我
的
机制
是什么
?穿线?
浏览 5
提问于2020-06-23
得票数 1
2
回答
限制
GPU
使用
的
代码
、
是否有可以在CUDA代码
中
设置
的
命令/函数/变量来限制
GPU
使用百分比?我想修改一个名为Flam4CUDA
的
开源项目,以便该选项存在。他们现在
的
做法是,它使用了尽可能多
的
GPU
,其效果是温度飙升(显然)。为了在长时间
的
计算中保持低温度,我希望能够告诉程序使用,比如说,每个
GPU
的
50% (或者甚至对不同
的
GPU
有不同
的
百分比,或者也可以选择使用
浏览 2
提问于2011-06-10
得票数 4
1
回答
NVVP和计数器报告
的
时间差
我一直在运行CUDA程序
的
内核。我观察到
GPU
计数器和NVVP报告
的
内核执行时间有相当大
的
差异。为什么通常会观察到这样
的
差异?
浏览 0
提问于2012-09-19
得票数 0
回答已采纳
1
回答
执行阻塞系统调用
的
线程是否被中断唤醒?
、
、
我读过一些关于线程和中断
的
文章。还有一些章节说使用线程
的
并行编程更简单,因为我们不需要担心中断。我在线程
中
读取我
的
文件,该线程使用阻塞系统调用从磁盘读取文件。在某个时候,文件已经准备好从硬盘
中
读取。它是否通过硬件中断通知处理器,以便在请求文件
的
线程之间进行
上下文切换
?
浏览 0
提问于2013-03-27
得票数 4
回答已采纳
1
回答
Node.JS和IIS
的
请求
机制
(事件循环和线程)
、
我想弄清楚与Node.JS处理请求
的
方式相比,IIS loop
机制
(发布和订阅C++ ThreadPool)有什么优势。我在这里读到了:和下面这行:“没有
上下文切换
,因为事件循环只是发布和订阅线程池。”对我来说不是很清楚。有人能解释一下与IIS使用
的
请求线程相比,事件循环
机制
的
浏览 0
提问于2013-05-22
得票数 4
1
回答
RNN
的
最佳设备放置策略?
考虑一个简单
的
n层堆叠RNN (LSTM、GRU等)对于顺序预测,最有效
的
设备放置策略
是什么
(如果有多个
GPU
可用)?我认为最好是为RNN
的
每一层提供一个
GPU
,但是softmax和损失计算呢?它们应该也放在
GPU
上还是放在CPU上?此外,如果我们再增加一个注意力
机制
,是否应该把注意力放在中央处理器上呢?
浏览 7
提问于2017-02-24
得票数 0
1
回答
多个独立
的
OpenGL上下文是否影响性能?
、
我和我
的
同事正在开发一个视频渲染引擎。结果很令人困惑。在我
的
计算机上,呈现速度比我们
的
单线程实现更快,而在我
的
合作伙伴
的
计算机上,整个速度下降了。 我在这里想知道,OpenGL上下文
的
数量如何影响整体性能。
浏览 7
提问于2014-10-22
得票数 1
回答已采纳
1
回答
用C#绘制地理地图平面图
、
、
、
、
我正在创建一个私人消费
的
自定义地图覆盖。我不能使用像MapServer这样
的
开放源码服务器,因为它
的
数据量和格式非常庞大。最初,它将是一种客户端解决方案,将ArrayBuffer推送到客户端,并使用WebGL在地图上呈现数据,但后来我们发现,用户
的
PC将是负
GPU
,因此他们无法顺利地运行WebGL呈现。为了原型
的
缘故,它可以工作-不过我觉得这不是最好
的
解决方案。我想要预渲染
的
瓷砖,但有太多
的<
浏览 2
提问于2014-06-25
得票数 1
回答已采纳
2
回答
CUDA是否允许同一
gpu
上同时运行多个应用程序?
、
我有英伟达
的
Tesla K20m
GPU
卡。在CUDA 5.0
中
,允许在同一图形处理器上来自同一应用程序
的
多个进程。CUDA是否允许在同一
GPU
上同时执行不同
的
应用程序?
浏览 1
提问于2014-09-22
得票数 3
点击加载更多
相关
资讯
区块链中的共识机制是什么?
Python中的异常处理机制是什么
Flink 的容错机制是什么?
加密软件的作用机制是什么?
Filecoin采用GPU挖矿的原因是什么?
热门
标签
更多标签
云服务器
ICP备案
实时音视频
对象存储
即时通信 IM
活动推荐
运营活动
广告
关闭
领券