我用相当大的数据量在Kubernetes上启动了一些Spark作业,而作业失败了,/var/ data /spark目录中没有足够的空间。当使用Kubernetes作为资源管理器时,将为SPARK_LOCAL_DIRS中列出的每个目录挂载一个SPARK_LOCAL_DIRS卷来创建pods。如果没有显式指定目录,则<
我有一个奇怪的问题,在Kubernetes上运行的Spark作业失败了,在有很多随机操作的作业中,会出现很多"Missing a output location for shuffle X“。增加executor内存并没有什么帮助。在本地*模式下,相同的作业只在Kubernetes集群的一个节点上运行,但是运行得很好,所以我怀疑它与Kubernetes或底层Docker有