在由一个主服务器和一个工作服务器组成的spark独立集群上运行spark-submit时,由于出现错误ImportError: No module named caffe,所以不会导入caffe python模块
这似乎不是什么问题,只要我在本地通过spark-submit --master local script.py运行一个作业,caffe模块就可以很好地导入。spark和caffe的环境变量当前设置在~/.profile下,并且它们指向PYTHONPA
然而,当我尝试导入_caffe时,出现了一个名为"ImportError: No module named caffe“的错误。sys.path.insert(0,CAFFE_ROOT+"/python")我读了其他一些有类似问题的笔记,上面写着_caffe.so应该在make pycaffe之后的/python文件夹中,但实际上在/python文件夹中我可以找到任何_caf