最近定时系统发送的spark任务一直在跑但是无法成功,最终发现是yarn的问题,查看日志发现说tmp目录磁盘占额超过百分之90%,所以nodemanger一直出现unhealthy的情况,此时改变hadoop的core-site配置文件的/tmp目录,挂载到一个还有足够空间的地方重启yarn即可正常运行。
本文分享自 作者个人站点/博客 前往查看
如有侵权,请联系 cloudcommunity@tencent.com 删除。
本文参与 腾讯云自媒体同步曝光计划 ,欢迎热爱写作的你一起参与!