package com.shujia.spark.util

import org.apache.hadoop.conf.Configuration
import org.apache.hadoop.fs.{FileSystem, Path}

object HDFSUtil {

  /**
    * 删除hdfs中的一个路径，
    *
    * 如果是本地运行，就删除本地路径
    *
    * @param path ： 路径
    */
  def deletePath(path: String): Unit = {
    val configuration = new Configuration()
    //创建hdfs 文件系统对象
    val fileSystem: FileSystem = FileSystem.get(configuration)

    //判断输出路径是否存在
    if (fileSystem.exists(new Path(path))) {
      println("输出路径已存在，自动删除")
      //删除路径
      fileSystem.delete(new Path(path), true)
    }

  }

}
