腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(9999+)
视频
沙龙
2
回答
深入分析
CPU
和
GPU
之间
的
差异
、
、
、
、
我一直在寻找
CPU
和
GPU
之间
的
主要区别,更准确地说,是
cpu
和
gpu
之间
的
细微差别。例如,为什么不使用多个
gpu
而不是
gpu
,反之亦然。为什么
gpu
在处理计算时比
cpu
“快”?有哪些类型
的
事情,其中一个可以做,另一个不能做或不能有效地做,以及为什么。请不要回复像“中央处理器”
和
“图形处理器”这样
的</
浏览 0
提问于2011-10-08
得票数 12
回答已采纳
1
回答
在OpenCL中使用CLK_FILTER_LINEAR读取图像时
的
精度
、
、
、
我使用
的
代码来自这个问题,我测试了2d
和
3d,两者在
CPU
和
GPU
之间
都有很大
的
差异
。以下是
CPU
的
结果:coordinate:0.100000, result: 0.000000coordinate:0.900000, result: 100.000000 co
浏览 2
提问于2013-11-17
得票数 3
2
回答
在TensorFlow中打印
GPU
和
CPU
的
使用
、
、
我正在Google上运行一些TensorFlow示例(这样我就可以有一个
GPU
了),谢谢
浏览 14
提问于2019-10-31
得票数 0
1
回答
在标准C++
和
OpenCL
之间
共享多线程代码
、
、
、
、
我正在尝试开发一个必须并行运行许多计算
的
C++应用程序。算法将是相当大
的
,但它们将是纯粹
的
数学
和
浮点整数。因此,他们应该使用OpenCL在图形处理器上工作。我希望该程序在不支持OpenCL
的
系统上工作,但我希望它也能够在支持
GPU
的
系统上使用额外
的
速度。 我
的
问题是,我不想维护两组代码(可能使用std::thread
和
OpenCL
的
标准C++ )。我确实意识到我将能够共享许多实际代码,但唯一明显<e
浏览 0
提问于2015-08-10
得票数 0
1
回答
GPU
执行"flow“与
CPU
的
比较
、
、
、
、
在通用
CPU
并行处理中,将计算/问题拆分为子问题,分配它们,并在一个或多个套接字/服务器上
的
多个核上并行运行它们。我们应该把
GPU
看作是一种“数量更高(数量更多)更小
的
核心
的
CPU
”,还是本质上有额外
的
差
浏览 5
提问于2020-01-10
得票数 1
回答已采纳
1
回答
费米·库达对C
的
双重精度
、
使用费米
GPU
,
CPU
和
GPU
之间
有一个小
的
误差。以二进制形式表示,它是非常小
的
…。二进制文件中
的
数字1: vs虽然这是一个二进制数字
的
<e
浏览 2
提问于2010-12-30
得票数 0
1
回答
我应该选择哪一款笔记本电脑: i9-8950HK
和
NVIDIA Quadro RTX 3000,还是i9-9980HK与NVIDIA Quadro T2000
、
、
、
、
我想买一台新
的
笔记本电脑,经过一番研究,我有两位候选人。价格几乎匹配,但我不能同时购买最好
的
CPU
和
GPU
在我
的
地区。我找到了一台带有
CPU
i9-8950HK (gen 8,6核,时钟速度2.9GHz)
和
GPU
NVIDIA Quadro RTX 3000
的
笔记本电脑,以及一台带有
CPU
i9-9980HK (gen9,8核,时钟速度2.4GHz)
和
GPU
NV
浏览 0
提问于2020-05-20
得票数 2
回答已采纳
3
回答
为什么
CPU
的
计算速度比
GPU
慢,而只有内存才重要?
、
、
现代
CPU
具有低于1MH/s (源: )
的
散列率,而
GPU
则容易超过20 1MH/s。使用超频内存,它们
的
速率高达30 up /s。
GPU
具有GDDR存储器,时钟频率约为1000 runs,而DDR4以较高
的
时钟速度运行。DDR4
的
带宽似乎也更高(来源:
和
) 据说,对于Dagger/ethash内存带是重要
的
(也经历过快
的
GPU
),我认为这是合理
的
浏览 0
提问于2018-02-07
得票数 2
回答已采纳
2
回答
GPGPU
和
多核?
、
、
、
、
从程序员
的
角度来看,GPGPU
和
常规
的
多核/多线程
CPU
编程
之间
的
主要实际区别是什么?具体地说: 哪种类型
的
问题更适合于常规多核,哪些类型更适合GPGPU?
GPU
的
主要区别是什么?If 有哪些关键
的
底层硬件
差异
需要在编程模型中出现任何
差异
?哪种问题通常更容易使用,由多少来决定?从长远来看,为
GPU
实现高级并行性库,例如或
GPU
计算是非
浏览 0
提问于2011-05-07
得票数 38
回答已采纳
3
回答
CPU
和
GPU
差异
、
、
CPU
的
单个处理单元
和
GPU
的
单个处理单元有什么区别?这似乎是一个有很长答案
的
问题。所以很多链接都很好。在
CPU
中,FPU运行实数操作。在每个
GPU
核中完成相同操作
的
速度
浏览 6
提问于2016-04-17
得票数 13
回答已采纳
1
回答
gpu
::BFMatcher_
GPU
和
BFMatcher给出了不同
的
结果
、
、
我在VS10上使用带有Cuda 7.0
的
OpenCv 2.4.10detector = new cv::SURF(150,3);cv::
gpu
::SURF_
GPU
surf(150,3); surf(gpumatFrameGray0, cv::
gpu
::GpuMat(), keypoints0
GPU
, descriptors0
GPU
1)
CPU</e
浏览 2
提问于2015-07-05
得票数 0
1
回答
OpenGL与
CPU
/
GPU
定时器同步
我正在尝试制作一个
CPU
和
GPU
分析器,用于电子游戏。目标是拥有屏幕上
的
2张图表,给出帧
的
不同任务所花费
的
时间。问题是,我为
CPU
和
GPU
获得
的
时间并不是相对于相同
的
来源。这两次
之间
的
差异
使我基本上可以将
GPU
时间转换为
CPU
时间,并使这两个图形同步。但是过了几秒钟(或几分钟),时间在漂移,我
的</em
浏览 1
提问于2014-11-25
得票数 1
回答已采纳
3
回答
GPU
上纹理拷贝与
CPU
之间
的
延迟
差异
?
有没有人碰巧知道在
cpu
上复制纹理(比如,memcpy)与
gpu
(比如,CopyResource)
之间
的
延迟
差异
?我会自己做一个perf测试,但实际上我不知道如何对CopyResource进行跟踪。一个经验法则是好
的
,它不一定要准确,我只是认为
GPU
比
cpu
更快,但我只是好奇,比如说,一个1920x1080纹理
的
拷贝有多贵。
浏览 0
提问于2019-11-17
得票数 3
2
回答
使用VBO
和
VAOs是否可以提高共享内存
的
集成芯片
的
性能
、
、
在我们当前
的
项目中,我们使用
的
是。即使在规范中被告知支持OGL ES 2.0,我们也没有使用VBO
和
VAO(没有glGenBuffers,glBindBuffers),因此我们使用客户端顶点缓冲。我们提出了一个想法,如果我们使用VBO,我们会有更好
的
性能。但现在我在想,如果
GPU
和
CPU
已经共享相同
的
内存,使用VBO会有什么不同。因为在我看来,VBO是有帮助
的
,因为我们不需要每次都将数据传输到
GPU
,但在这种情况下,
浏览 27
提问于2018-09-10
得票数 0
2
回答
CPU
(numpy)
和
GPU
(gnumpy)上
的
矩阵乘法给出了不同
的
结果
、
、
、
我用来加速在
GPU
上训练神经网络
的
计算速度。我得到了想要
的
加速比,但是我有点担心numpy (
cpu
)
和
gnumpy (
gpu
)结果
的
不同。正如人们可能预期
的
那样,梯度检查不适用于32位精度(gnumpy不支持float64),但令我惊讶
的
是,当使用相同
的
精度时,
CPU
和
GPU
之间
的
错误有所不同。在一个小型测试神经网络上,<em
浏览 3
提问于2014-01-09
得票数 14
1
回答
cudaMallocManaged()是否在RAM
和
VRAM中创建同步缓冲区?
、
在Nvidia开发者博客:中,作者解释道: 返回可以从主机(
CPU
)代码或设备(
GPU
)代码访问
的
指针。要做到这一点,似乎cudaMallocManaged()必须在VRAM
和
RAM<em
浏览 1
提问于2020-09-16
得票数 1
回答已采纳
2
回答
基于
CPU
或
GPU
的
概率图分割
、
、
、
模型在
CPU
中进行训练,预测也在
CPU
中完成。过了一段时间后,我在
GPU
机器上再次运行了预测,我注意到在概率图(图所附)中有一些很小
的
差异
。
GPU
中运行
的
预测->批大小=1我已经总结了测试中
的
一部分图像
的
结果,在所附
的
图中。
CPU
和<
浏览 7
提问于2021-07-21
得票数 1
1
回答
DirectX顶点缓冲区默认与默认+暂存
、
我在寻找这两者在
GPU
读取速度
和
偶尔
CPU
写入(每帧少于一次,甚至只有一次)
之间
的
差异
。我不想使用D3D11_USAGE_DYNAMIC,因为数据不会在每帧中更新一次>=。
浏览 4
提问于2015-01-01
得票数 0
回答已采纳
1
回答
Tensorflow -资源耗尽错误
CPU
和
GPU
、
、
、
当我使用
GPU
(GTX 1060,8 8GB)使用MNIST数据集测试CNN代码时,出现资源耗尽错误。但是,当我使用
CPU
(i7-6700,RAM:16 no )测试相同
的
代码时,没有资源耗尽错误。 现在,我
的
问题是,
CPU
和
GPU
有什么区别?在计算过程中有什么不同吗?或者仅仅是因为
GPU
内存大小
和
CPU
RAM大小
的
差异
?(实际上,我不确定使用
CPU
时,它是否受
浏览 0
提问于2017-03-20
得票数 2
点击加载更多
相关
资讯
CPU和GPU的区别
英伟达推出本土CPU和GPU的新硬件
CPU 和 GPU - 异构计算的演进与发展
浅谈CPU 并行编程和 GPU 并行编程的区别
FPGA为什么比CPU和GPU快
热门
标签
更多标签
云服务器
ICP备案
实时音视频
对象存储
云直播
活动推荐
运营活动
广告
关闭
领券