腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(191)
视频
沙龙
1
回答
当
使用
从
GPU
移植
的
训练有素
的
模型
时
,
默认
MaxPoolingOp
仅在
设备
类型
CPU
错
误时
支持
NHWC
。
、
、
使用
python,keras和tensorflow,我在PC上开发并训练了一个带有
GPU
ran预测等
的
模型
,一切都很好。然后,我将
模型
和预测代码转移到一台装有requirements.txt
的
笔记本电脑上,重新构建了环境,将
gpu
包交换到
cpu
包。 当我尝试运行预测代码
时
,我得到了一个我无法理解
的
错误。我
的
印象是tensorflow会透明地
使用
/不
使用
浏览 239
提问于2020-11-03
得票数 1
1
回答
在P100上运行tensorflow
时
出错
、
我用
的
是TF-1.60。无效参数:
默认
协调器仅
支持
设备
类型
CPU
上
的
NHWC
[[Node:v/
MaxPoolingOp
_0/cg/mpool0/MaxPool= MaxPoolT=DT_FLOAT,data_format=:0"]] I0323 11:02:22.115472 47942823427200 tf_logging.py:116]向协调器报告错误:,
默认</em
浏览 9
提问于2018-03-23
得票数 0
2
回答
ResNet
模型
在Tensorflow联邦中
的
应用
、
、
、
我试着在Tensorflow Federated中
的
“图像分类”教程中定制该
模型
。(它最初
使用
顺序
模型
)我
使用
Keras ResNet50,但是
当
它开始训练
时
,总是会出现“不兼容形状”
的
错误。这是我
的
密码:NUM_EPOCHS = 10SHUFFLE_BUFFER = 5 it
浏览 0
提问于2020-01-07
得票数 1
2
回答
将Caffe作为
CPU
运行--只在
GPU
Caffe成功安装之后才能运行。
、
、
、
我有一个码头形象与Caffe编译与cudnn
支持
。CUDA和所有其他依赖项都正确地安装在映像中,
当
使用
nvidia-docker
从
主机提供驱动程序时,它可以正常工作。就好像用cudnn
支持
构建Caffe会导致Caffe要求
GPU
驱动程序。这对我
的
用例来说是有问题
的
:提供一个单独
的
Docker映像,它可以作为基于
CPU
的
映像或基于
GPU
的
映像互换
使用</em
浏览 0
提问于2017-05-24
得票数 1
回答已采纳
7
回答
RuntimeError:输入
类型
(torch.FloatTensor)和权重
类型
(torch.cuda.FloatTensor)应该相同
、
、
、
、
这是:model.to(device) inputs, labels = data给出错误: RuntimeError:输入
类型
(torch.FloatTensor)和权重
类型
(torch.cuda.FloatTensor)应该是相同
的</
浏览 7
提问于2019-11-23
得票数 141
回答已采纳
1
回答
不同数据格式
的
冻结图
、
我编写了一个小助手函数来
使用
默认
值调用Tensorflow
的
freeze_graph函数,给定一个包含检查点文件和graph.pbtxt
的
目录:import argparse
从</em
浏览 3
提问于2017-10-30
得票数 4
1
回答
Tensorflow是否“知道”何时不将数据放入
GPU
?
、
、
、
、
它似乎不
使用
任何额外
的
GPU
内存,
从
内存已经被
使用
。sess.run(rand + 2 ,feed_dict={rand:random_value}) # forced to do some calculation 还有一个额外
的
GPU
使用
在所有上述实验中,我将我
的<
浏览 1
提问于2018-01-12
得票数 3
回答已采纳
2
回答
是否可以强迫cudaMallocManaged在特定
的
gpu
id上分配(例如通过cudaSetDevice)
、
、
、
我想
使用
cudaMallocManaged,但是否可能强制它在多个
gpu
系统上分配特定
GPU
id (例如通过cudaSetDevice)上
的
内存?原因是我需要在
GPU
上分配几个数组,而且我知道这些数组
的
哪一组需要一起工作,所以我想手动确保它们在同一个
GPU
上。 我搜索了CUDA
的
文件,但没有找到任何与此相关
的
信息。有人能帮忙吗?谢谢!
浏览 18
提问于2022-09-03
得票数 0
回答已采纳
13
回答
如何检查PyTorch是否正在
使用
GPU
?
、
、
、
、
如何检查PyTorch是否正在
使用
GPU
?nvidia-smi命令可以检测
GPU
活动,但我想直接
从
Python中检查它。
浏览 19
提问于2018-01-08
得票数 429
回答已采纳
2
回答
LibGDX:最大纹理数?
、
、
、
、
我一直在开发一个针对android
的
游戏。我知道在项目完成之前不要考虑程序优化,但我想知道大多数手机在不熔化或破坏电池
的
情况下能安全地处理多少纹理。我已经看到,纹理
的
最大大小应该是1024或2048像素平方(我一直在将雪碧片合并成1024x1024地图集),但我不禁想知道我在运行时可以
使用
多少像素。我知道它应该依赖
GPU
,但是是什么规范决定了它呢?
浏览 0
提问于2016-11-20
得票数 1
回答已采纳
1
回答
InvalidArgumentError:
默认
MaxPoolingOp
仅
支持
设备
类型
CPU
上
的
NHWC
、
、
、
import Sequentialfrom keras.models import model_from_json
浏览 36
提问于2020-11-04
得票数 1
回答已采纳
1
回答
在Beam/Google数据流上调试一条慢速PyTorch
GPU
推断流水线
、
、
、
我们正在尝试
使用
Google构建一个简单
的
基于
GPU
的
分类管道,如下所示: Pub/Sub请求附带指向GCS上
的
文件
的
链接,→
从
GCS→读取数据,→Chop向上读取数据,以及在→中进行批处理数据→运行推断目前,在数据流上对RunInference没有
GPU
支持
(参见未发布
的
)。在部署到Dataflow之前,在本地构建Beam管道
时
,
模型
初始化步骤不识别CUDA环境,<em
浏览 10
提问于2022-08-10
得票数 1
3
回答
OpenCL与中央调度
的
并发编程
、
、
、
、
随着OpenCL 2.0
的
引入,OpenCL似乎具备了GCD
的
许多特性,比如CLang/OpenCL风格
的
块和队列。查看它们各自
的
功能集,我想知道OpenCL是否能够完成GCD /lib分派所能做
的
所有事情,但是否具有将计算导向
GPU
和
CPU
的
额外能力--或者GCD是否可以提供与OpenCL无关
的
更多功能。具体来说,我
的
问题是:
浏览 8
提问于2014-02-01
得票数 4
回答已采纳
4
回答
GPU
程序集是什么样子
的
?
、
我曾经玩过
CPU
组装编程,比如Nasm、Tasm或Masm,但我真的很想知道
GPU
现在是如何工作
的
。然而,当我看到互联网
时
,我感到很困惑。我听说过Cuda和OpenCL,但这不是我想要
的
。我想知道
GPU
指令是如何在RAM中.对于大多数
GPU
,Nasm和Masm是什么?
GPU
的
x86或Z80是什么(
GPU
的
不同家族)?你知道构造函数操作码参考手册吗?我想我真的需要一些东西来比较这两个处理单元,因为<e
浏览 0
提问于2018-07-14
得票数 21
回答已采纳
2
回答
OpenCL,Vulkan,Sycl
、
、
我正在努力理解OpenCL生态系统以及Vulkan是如何发挥作用
的
。 SYCL是一种新
的
规范,它允许将OpenCL代码作为符合标准
的
C++14编写,据我所知,目前还没有这个规范
的
免费实现。我知道OpenCL级别更高,并且抽象
设备
,但是(或者可以)
浏览 0
提问于2016-11-20
得票数 37
回答已采纳
4
回答
tensorflow Mac
支持
、
根据 是必需
的
。要使CUDA / tensorflow发挥作用,还需要什么?
浏览 7
提问于2017-06-25
得票数 35
2
回答
如何在UIKit中检测用户
设备
是否具有动态孤岛?
、
、
在我
的
应用程序中,我实现了pull-to-refresh特性和自定义加载图标。在IPhone中,它有动态岛,它重叠了我
的
加载图标。 我想检测有无动态岛
的
设备
。如果有,我会给它增加一些顶部空间。
浏览 21
提问于2022-10-04
得票数 0
回答已采纳
1
回答
tensorflow -如何
使用
16位精度浮点数
、
、
、
问题float16只在16位
支持
的
GPU
实例上运行时才可用吗?现代加速器在16位数据
类型
中可以运行得更快,因为它们有专门
的
硬件来运行16位计算,16位数据
类型
可以更快地
从
内存中读取。因此,应尽可能在这些
设备
上
使用
这些低精度
的
dtype.但是,由于数值上
的
原因,变
浏览 8
提问于2021-04-06
得票数 2
4
回答
OpenCL:工作组概念
、
我不太明白OpenCL中工作组
的
目的。然而,为什么需要更粗
的
细分呢?只有线程网格(事实上,只有一个W-G),难道不是可以
的
吗?而且,据我所知,由于内存限制,工作组中
的
工作项可以同步。工作小组可以同步吗?或者这甚至是必要
的
?他们是通过共享内存相互交谈,还是仅仅是为了工作项目(不确定这一项)?
浏览 6
提问于2014-11-07
得票数 30
回答已采纳
3
回答
在多处理器环境中,是否可以同时执行多条加载/存储指令
、
、
、
、
我相信在单处理器系统中,不止一个商店会一个接一个地发生,但多处理器系统
的
情况又如何呢?增加了一个问题,如果机器是32位
的
,当我们尝试将一个长
的
int(64位)值写入内存
时
,Load/Store指令将如何行为?上面两个问题
的
原因是,如果有人试图在另一个线程中读取相同
的
内存( 32位/64位大小
的
内存,在32位系统中),这是否安全,或者我是否需要考虑
使用
锁。添加: 我想尽可能地减少锁,因为我们
的
执行是时间关键
的
浏览 6
提问于2014-07-03
得票数 1
点击加载更多
相关
资讯
vLLM的参数列表及其中文说明
进击的Kubernetes调度系统(三):支持批任务的Binpack Scheduling
TensorFlow 1.5 中的扩展卷积支持
TensorFlow修炼之道(3)——计算图和会话(Graph&Session
英伟达是如何做 GPU 编程的(二)
热门
标签
更多标签
云服务器
ICP备案
对象存储
腾讯会议
实时音视频
活动推荐
运营活动
广告
关闭
领券