/releases/spark-release-3-0-0.html
1.2 将安装包上传并解压
说明: 只需要上传至node1即可, 以下操作都是在node1执行的
cd /export/softwarerz...Spark的local模式, 开箱即用, 直接启动bin目录下的spark-shell脚本
cd /export/server/spark/bin...., 是专门用来给 bash 做初始化的比如用来初始化 bash 的设置, bash 的代码补全, bash 的别名, bash 的颜色....以此类推也就还会有 shrc, zshrc 这样的文件存在了, 只是 bash 太常用了而已.
2.3 启动anaconda并测试
注意: 请将当前连接node1的节点窗口关闭,然后重新打开,否则无法识别...请注意,PySpark 需要JAVA_HOME正确设置的Java 8 或更高版本。