model page提供了关于如何使用模型的以下代码片段: from transformers import M2M100ForConditionalGeneration, M2M100Tokenizer
hi_text = "जीवन एक चॉकलेट बॉक्स की तरह है।"
chinese_text = "生活就像一盒巧克力。"
model = M2M100ForConditionalGeneration.from_pretrained("facebook/m2m100_1.2B")
tokenizer = M2M100T
在转移到sagemaker进行实际培训之前,我正在尝试在本地开发sagemaker.huggingface.HuggingFace。我设了一个
HF_estimator = HuggingFace(entry_point='train.py', instance_type='local' ...)
并被称为HF_estimator.fit()
在train.py中,im简单地打印和退出以查看它是否能工作。然而,我遇到了这样的情况:
ValueError: Unsupported processor: cpu. You may need to upgrade yo
我正在使用aws sagemaker部署一个模型,该模型生成的工件非常巨大。压缩后的大小约为80 is。在ml.m5.12xlarge实例上的sage maker上部署时,在部署到端点The model data archive is too large. Please reduce the size of the model data archive or move to an instance type with more memory.时会抛出此错误
我发现亚马逊网络服务根据实例大小()附加EBS卷,我在这里找不到超过30 EBS的任何东西。我应该在这里使用多模型端点吗?
我正在尝试为Sagemaker中部署的模型设置运行状况检查。
我正在使用/ping通过以下代码片段设置运行状况检查端点:
app = flask.Flask(__name__)
@app.route('/ping', methods=['GET'])
def ping():
"""Determine if the container is working and healthy. We declare
it healthy if we can load the model successfully.""&