我已经从:https://archive.apache.org/dist/spark/spark-$2.4.4/spark-$2.4.4-bin-hadoop2.7.tgz构建了一个镜像 下载后,我会这样做: cd spark-2.4.4-bin-hadoop2.7 && bin/docker-image-tool.sh build 然后构建我的镜像spark-py:latest。我想使用这个docker文件在其中安装pyarrow: F
在尝试使用预提交挂钩时,我遇到了一些困难,包括Conda环境中的 pip包。米维# This file is to automatically configure your environment.的输出是:
git --version: git version 2.30.2
sys.version='python</em