定时任务提交spark到yarn出现一直accepted以及yarn出现unhealthy情况

2021-09-06 14:33:31 浏览数 (1)

最近定时系统发送的spark任务一直在跑但是无法成功,最终发现是yarn的问题,查看日志发现说tmp目录磁盘占额超过百分之90%,所以nodemanger一直出现unhealthy的情况,此时改变hadoop的core-site配置文件的/tmp目录,挂载到一个还有足够空间的地方重启yarn即可正常运行。

0 人点赞