我有Coral AI usb TPU,我成功地运行了入门示例,部署了已经编译/训练过的示例模型(图像分类),并在TPU上运行了一个鹦鹉图像推理:--input test_data/parrot.jpg
但是,我想在计算机CPU (例如,我的笔记本电脑或Raspberry Pi )中运行相同模型的推理,以比较在加速器中运行推理所需的时间,比如Coral AI</
我使用MindSpore精简版推理引擎和咖啡因模型。Setup my caffemodel with MindSpore Lite Inference engine 当我尝试完成安装时,系统提示"checkAndDownload“文件不存在并正在尝试下载在那之后,我从http://cdn.ide.deveco.huawei.com//ai/download/foundation/template-1.3.1.zip下载模板时得到了一个403错误 error
gcloud ai-platform jobs submit training infer name --region some_region --master-image-uri=path/to/docker/image --config config.yaml
培训工作成功完成,模型获得成功,现在我想使用这个模型进行推理,但是问题是我的代码有系统级的依赖关系,所以我必须对体系结构做一些修改才能让它一直运行这些文档只适用于培训部分和推理部分,(如果可能的话)使用自定义容器,据我所知,还没有对