我用相当大的数据量在Kubernetes上启动了一些Spark作业,而作业失败了,/var/ data /spark目录中没有足够的空间。正如星火文档在上说的那样
Spark使用临时划痕空间在洗牌和其他操作期间将数据泄漏到磁盘。当使用Kubernetes作为资源管理器时,将为SPARK_LOCAL_DIRS中列出的每个目录挂载一个SPARK_LOCAL_DIRS卷来创建pods。我将其
at org.apache.spark.util.Utils$.createDirectory(Utils.scala:285)
我还没有在spark-env.sh中配置SPARK_LOCAL_DIRS是否应该将SPARK_LOCAL_DIRS配置为每个主/工作节点中的有效目录?如果是这样的话,目录必须具有的最小磁盘空间是多少?
我有一个EMR作业,它读取大约1TB的数据,过滤它,并对其进行重新分区(重新分区后有一些连接),但是我的作业在重新分区时失败,并出现错误"No space left on device“。我试着改变"spark.local.dir“,但它没有用。我的工作只在d2.4xlarge实例上完成,但在r3.4xlarge上失败,它有类似的核心和内存。我找不到这个问题的根本原因。