模型列车系统: AWS Ubuntup2.xLarge,R3.4.0,mxnet_1.0.1。通过以下方式保存:
mx.model.save(A3.MXmodel, "Action/A3.MXmodel", iteration = 3000)
在同一系统上加载可以通过以下方式工作:
A3.MXmodel <- mx.model.load("A3.MXmodel", iteration=3000)
A3.pred <- predict(A3.MXmodel, as.matrix(nNewVector))
A3.pred.label = max.col(t(A3.pred))-1
将模型文件移动到新系统(第一个实例的AMI克隆,但在g2.xLarge上)。并试图预测:
A3.pred <- predict(A3.MXmodel, as.matrix(nNewVector))
导致rstudio立即崩溃,没有保存数据或错误消息。我可以通过安装检查确认mxnet正在处理新实例:
library(mxnet)
a <- mx.nd.ones(c(2,3), ctx = mx.gpu())
b <- a * 2 + 1
b
我是否必须在新的型号是基于GPU设备的某个地方指定?在GPU实例上训练的模型可以在具有CPU mxnet构建的CPU实例上运行吗?
发布于 2018-03-02 11:33:26
回答以下具体问题:
我是否必须在新的型号是基于GPU设备的某个地方指定?
没有存储模型的结构和参数,但没有对硬件进行编码。
在GPU实例上训练的模型可以在具有CPU mxnet构建的CPU实例上运行吗?
是。这可能是非常可取的--在GPU上训练速度,在CPU上进行推断,因为它在计算和成本上都比较便宜。
https://stackoverflow.com/questions/48455833
复制