我正在尝试使用自定义容器部署经过自定义培训的模型,即从我创建的模型创建端点。我在AI平台上做同样的事情(相同的模型和容器),它在那里工作得很好。
在第一次尝试中,我成功地部署了模型,但是自从我尝试创建端点时,它就说“部署”了1+小时,然后失败了,出现了以下错误:
google.api_core.exceptions.FailedPrecondition: 400 Error: model server never became ready. Please validate that your model file or container configuration are valid. Mo
目前,我正试图通过遵循将自定义模型部署到AI平台上。它是基于'torchvision.transform'.和‘Py手电筒’的预训练模型的组合。目前,我一直处于与500 on的自定义预测约束有关的错误下面。
错误:(gcloud.beta.ai-platform.versions.create)创建版本失败。错误检测模型:模型需要比允许的内存更多的内存。请尽量缩小型号尺寸并重新部署。如果您继续遇到错误,请与支持部门联系。
Setup.py
from setuptools import setup
from pathlib import Path
base = Path(__f
根据谷歌AI的博客文章,设计了一个AutoML端到端管道,具有专门的时间序列预测搜索空间。该AutoML预测解决方案已经在多个Kaggle数据集上进行了测试。
在GCP AI Platform>AutoML中,我没有看到训练时间序列预测模型的选项。
这个AutoML预测解决方案已经在GCP中公开提供了吗?如果是这样,如何访问它?
我理解nltk_data应该有两个不同的目录:一个用于默认下载,另一个用于用户的自定义文件。
在我的macOS设置中,我手动检查了所有默认数据包是否都在/usr/local/share/nltk_data中,这就是next(p for p in nltk.data.path if os.path.exists(p))的结果。
但是,当我尝试下载另一个默认包时,它不会转到那个目录,而会转到/Users/macbook/nltk_data,在那里我认为只有我的自定义文件才应该是这样的。测试默认nltk.corpus.brown.words()的分期付款失败,因为它在我的自定义路径中查找它:'
几周来,我一直在阅读ML在生产中的不同方法。我决定测试Kubeflow,并决定在GCP上测试它。我开始使用Kubeflow官方网站(这里是https://www.kubeflow.org/docs/gke/)上的guiidline在GCP上部署kubeflow。我遇到了很多问题,很难解决。我开始寻找一种更好的方法,我注意到GCP AI platform现在只需几个简单的步骤就可以部署Kubeflow管道。(https://cloud.google.com/ai-platform/pipelines/docs/connecting-with-sdk.) 在轻松设置之后,我几乎没有什么疑问和疑虑