我已经开发了一个rest,使用烧瓶公开了Python深度学习模型(CNN用于文本分类)。我有一个非常简单的脚本,它将模型加载到内存中,并输出给定文本输入的类概率。API在本地完全正常工作。然而,当我git push heroku master时,我得到了Compiled slug size: 588.2M is too large (max is 500M)。该模型的大小为83 is,对于深
我正在读“用Python进行深度学习”这本书,我遇到了一个问题。我已经使用Pycharm将模型保存到另一个文件中,当我试图通过函数'load_model()‘加载它时,系统支持'NameError: name 'load_model’is not defined‘。回溯(最近一次调用):文件"F:/python program/visualizDemo/main.py",第
我正在尝试训练深度学习模型,但在以下几行中出现了这些错误: from tensorflow.keras.layers.experimental.preprocessing import RescalingException has occurred: ImportErrorkeras-gpu=2.2.4