特牛网址导航

Spark下的Work目录定时清理_spark work目录文件-CSDN博客

网友收藏
文章浏览阅读6.3k次。问题在跑spark任务的时候发现任务不能执行。在查看的时候发现spark work节点的/usr/ 目录满了。原因使用spark standalone模式执行任务,没提交一次任务,在每个节点work目录下都会生成一个文件夹,命名规则app-20160614191730-0249。该文件夹下是任务提交时,各节点从主节点下载的程序所需要的资源文件。 这些目录每次执行都会生成,且不会自动..._spark work目录文件