腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(9999+)
视频
沙龙
1
回答
在
多
GPU
上
使用
NDArray
Scatter_nd
的
MXNet
deep-learning
、
pytorch
、
mxnet
、
numpy-ndarray
当我
使用
多个
gpu
在
MXNet
(CUDA8.0+cudnn7)
上
训练时,我首先在不同
的
上下文
上
初始化参数,然后
在
不同
的
上下文
上
执行
scatter_nd
,第一次散射nd可以很好地工作,但在第二块
GPU
卡上计算时,我得到了 F1217 23:53:01.012707 2619 stream_
gpu
-inl.h:62]检查失败:E == cudaSuccess CUDA
浏览 21
提问于2018-12-17
得票数 0
1
回答
使用
带有python包bert_embeddings和
mxnet
的
GPU
失败
python
、
deep-learning
、
anaconda
、
python-import
、
mxnet
我正在
使用
下面的代码来启用
GPU
,它
使用
bert_embeddings包
的
mxnet
包来提取Bert嵌入: from bert_embedding import BertEmbeddingctx = mx.
gpu
() bert_embedding = BertEmbedding(ctx=ctx) 由此产生
的
错误如下: MXNetError: [13:51:52] src/
ndarray
浏览 46
提问于2019-06-04
得票数 1
回答已采纳
1
回答
线性回归
的
mxnet
梯度下降,变量类型误差
python-3.x
、
gradient-descent
、
mxnet
我试图为线性回归实现一个简单
的
梯度下降。 return theta, Loss main()错误消息是:参数a必须具有
NDArray
类型,但得到1. -5.05358
浏览 4
提问于2019-09-19
得票数 0
回答已采纳
1
回答
运行
mxnet
cpu推断时内存泄漏
python
、
mxnet
我测试了100张照片,下面列出了对memory_profiler
的
分析。为什么308行会导致大量
的
内存增长?
mxnet
==1.5.1=======================================
浏览 0
提问于2019-10-12
得票数 0
回答已采纳
1
回答
mxnet
标准安装错误
16.04
、
cuda
我想配置config.mk文件以
使用
cuda。/
ndarray
_function_
gpu
.o src/
ndarray
/
ndarray
_function.cu >build/src/
ndarray
/
ndarray
_function_
gpu
.d/cuda: Permission denied Makefile:184: recipe for target 'bui
浏览 0
提问于2016-11-18
得票数 1
回答已采纳
1
回答
GPU
:[15:25:07] C:\Jenkins\workspace\
mxnet
-tag\
mxnet
\src\storage\storage.cc:137:
使用
USE_CUDA=1编译以启用MXNetError
使用
jupyter
、
mxnet
我试着用jupyter .But
的
图形处理器来训练我
的
代码,我没有得到正确
的
图形处理器。a = nd.array([1, 2, 3], ctx=mx.
gpu
())MXNetError Traceback()) d:\data\python
浏览 0
提问于2019-01-11
得票数 2
1
回答
使用
MXNet
NDArray
进行梯度下降
optimization
、
multidimensional-array
、
mxnet
我正在尝试
使用
MXNet
来做一些约束优化,这不是前馈网络中
的
反向传播,而是涉及类似的计算,大型数组
的
乘积,一些梯度下降,等等。例如,当M
在
正交矩阵集上变化时,为了最小化M-2*Id
的
踪迹,我可以
使用
numpy和scipy通过向量化矩阵来实现这一点,如下所示:from scipy.optimize), constraints=cons, ... method='SLSQP', options={'
浏览 9
提问于2017-07-18
得票数 1
1
回答
稀疏矩阵
的
MXNet
-点积
python-3.x
、
numpy
、
recommendation-engine
、
tf-idf
、
mxnet
我正在
使用
MXNet
构建内容推荐模型。尽管是10K行,但
MXNet
中
的
CPU和
GPU
上下文会引发内存不足问题。当前代码如下。english")mx_tfidf = mx.nd.array(tfidf_matrix,ctx=mx.
gpu
()) 内存不足
的
错误发生在这里。cosine_similarities = mx.
ndarray</
浏览 0
提问于2018-09-17
得票数 0
回答已采纳
2
回答
为什么我
的
CPU做矩阵运算比
GPU
快呢?
machine-learning
、
deep-learning
、
gpu
、
mxnet
当我试图验证
GPU
在
CPU
上
执行矩阵操作时,根据我
的
经验结果,我得到了意外
的
results.CPU比
GPU
更好
的
性能,这让我感到困惑。我用cpu和
gpu
做矩阵乘法,respectively.Programming环境是
MXNet
和CODA-10.1.与
gpu
:from
mxnet
import nd x = nd.random.normal(
浏览 3
提问于2020-07-09
得票数 1
回答已采纳
2
回答
在
mxnet
中有关于multiplecpu
的
概念吗?
mxnet
我们知道,
在
mxnet
中有关于-
gpu
的
概念,当我们
在
command.And中指定
gpu
时,如果我们不指定
gpu
,它将在cpu.How
上
运行,它运行
的
cpu
多
吗?可以指定多个cpu吗?
浏览 0
提问于2016-06-01
得票数 3
2
回答
如何将一维
ndarray
列表转换为二维
ndarray
(
mxnet
ndarray
)
python
、
numpy
、
mxnet
、
numpy-ndarray
在这个例子中,我有一个长度为9
的
一维
ndarray
列表,这个列表有9个元素,每个元素都有shape=(2048,),所以完全是9 * (2048,),我从
mxnet
获得了这些
ndarray
,所以每个
ndarray
都是<
NDArray
2048 @cpu(0)>数组dtype=numpy.float32。如果我
使用
np.asarray来转换这个列表,它将成为以下结果 shape=<class 'tuple'>: (9, 2048
浏览 0
提问于2018-09-01
得票数 2
回答已采纳
1
回答
Mxnet
-慢速阵列复制到
GPU
python
、
performance
、
gpu
、
mxnet
我
的
问题:我应该如何在
mxnet
中执行快速矩阵乘法?我创建随机数组,将它们复制到上下文中,然后相乘。import
mxnet
as mxnd.waital
浏览 24
提问于2019-07-30
得票数 2
回答已采纳
1
回答
避免
在
numpy和
mxnet
之间
的
数组转换过程中复制
python
、
numpy
、
multidimensional-array
、
copy
、
mxnet
我想在我
的
数据处理管道中减少一个内存复制步骤。 将
NDArray
打包到m
浏览 1
提问于2018-12-31
得票数 1
1
回答
mxnet
:当在模型中
使用
RNN时,模型初始化器会以多个
GPU
的
上下文崩溃。
python
、
gpu
、
mxnet
在
我修改这一行之前,一切都很顺利:至context = [mx.
gpu
(i) for i in range(
GPU
_COUNT)]/base.h:388: Invalid context string[] 我只
使用
了
mxnet
几天,所以我对可能出错
的
地方不太了解。这让我认为这是RNN,实际
上
,当我移除代码
的
RNN部分(因此它实际
上
浏览 0
提问于2018-11-29
得票数 0
1
回答
mxnet
-
GPU
初始化时间过长
python
、
performance
、
gpu
、
mxnet
这个问题
的
后续部分:import
mxnet
as mx profiler.set_config这之后
的
任何操作都会非常快,但第一个
GPU
操作需要22秒(无论我
使用
什么操作)。所以初始化很可能需要很长
的
时间。
浏览 1
提问于2019-07-30
得票数 1
1
回答
在
MXNet
中“无法分配到CPU memory”是什么意思?
python
、
memory
、
mxnet
奇怪
的
是,
在
stackoverflow
上
还没有这样
的
问题。我正在
使用
MXNet
,试图
在
我
的
PC
上
运行VQA示例,
使用
mx.io.DataIter读取数据,但是
mxnet
.base.MXNetError: [11:05:07] c:\projects\
mxnet
-distro-win\
mxnet
-build\src\storage\./cpu_devic
浏览 0
提问于2018-08-24
得票数 0
3
回答
有没有办法检查
mxnet
是否
使用
我
的
gpu
?
tensorflow
、
gpu
、
mxnet
我能看看
mxnet
有哪些可用
的
GPU
吗?tf.test.
gpu
_device_name()
在
mxnet
中
浏览 0
提问于2018-03-02
得票数 10
回答已采纳
1
回答
MXNET
多
迭代器(结合
使用
.rec迭代器和
NDArray
迭代器)
mxnet
如何在
MXNET
中创建组合迭代器?例如,给定一个记录(.rec)迭代器,如果我想更改与每个图像对应
的
标签,则有两个选项: a)创建一个具有相同数据(图像)和新标签
的
新rec迭代器。b)
使用
原始.rec迭代器和
NDArray
迭代器创建
多
迭代器,以便
多
迭代器从原始.rec迭代器读取数据(图像)并从
NDArray
迭代器读取标签。选项(a)很繁琐。关于如何创建这样
的
多
迭代器有什么建议吗?
浏览 0
提问于2017-08-22
得票数 2
1
回答
如何在
GPU
上
运行datawig?
python
、
data-science
、
mxnet
、
imputation
我试图通过传递带有
gpu
id
的
mxnet
.context来运行Imputer.fit,但是我
的
代码似乎仍然可以
在
cpu
上
运行。from
mxnet
import
gpu
ctx =
gpu
(0)imputer.fit(train_df=imputer_train_df, num_epochs=10, ctx=我知道
mxnet
不支持我现在
使用
的
cuda 11.0。
浏览 22
提问于2020-12-29
得票数 0
1
回答
MXNET
-无效类型'<type‘numpy.
ndarray
’>对于数据,应该是
NDArray
,numpy.
ndarray
,
python
、
numpy
、
mxnet
我对
mxnet
的
基本IO有困难。我试图
使用
mxnet
.io.NDArrayIter读取内存中
的
数据集,以便在
mxnet
中进行培训。_sync_copyfrom(value) File "/usr/local/lib/python3.5/dist-packages/
mxnet
/
ndarray
/
ndarray
.py", linetype
浏览 1
提问于2018-04-12
得票数 1
回答已采纳
点击加载更多
相关
资讯
在Docker Compose上使用GPU运行TensorFlow
使用Accelerate库在多GPU上进行LLM推理
在TensorFlow和PaddleFluid中使用多块GPU卡进行训练
使用Python在GPU上实现两张图像的像素循环赋值
在 PyTorch 中使用梯度检查点在GPU 上训练更大的模型
热门
标签
更多标签
云服务器
对象存储
ICP备案
云点播
语音识别
活动推荐
运营活动
广告
关闭
领券