我在我的OS上预先安装了Spark和Hadoop,并将PySpark与JupyterNotebook集成在一起。基本上我在JupyterNotebook弹出的终端中输入"pyspark“。server.pyjupyter: '/Users/XXX/some_path/server.py' is not a Jupyter command
看来Jupyter<e
这样做的目的是为了实现以下目标其中kernel-options将被转发到pyspark或spark内核。我们需要它来运行不同的jupyter服务器--一个用于pyspark内核,另一个用于同一台机器上的spark (in scala)内核。这是一个要求,因为单个jupyter服务器不支持同时运行的pyspark和(scala) spark</e