如果解压缩失败,可能是拷贝操作失败,使用 ls -l spark* 查看文件大小,218MB的大小应该是228开头的数字,不是的话说明文件有损坏,需要删掉再拷贝...
follow all steps in hadoop-3.1.3 cluster setup on linux
Spark中,数据集被抽象为分布式弹性数据集(Resilient Distributed Datasets, RDDs)。