package scala

import org.apache.spark.{SparkConf, SparkContext}

/**
  * 项目名称:spark-learn<br>
  * 包名:scala<br>
  * 用于:spark-learn<br>
  * 创建时间:2019年03月15日<br>
  * 更新时间:2019年03月15日<br>
  *
  * @author :lds（创建人）<br>
  * @version :v1.0（版本号）<br>
  * @since jdk1.8
  */
object HdfsTextFile {

  def main(args: Array[String]): Unit = {
    val conf = new SparkConf()
    conf.setMaster("local").setAppName("textFile")
    val sc = new SparkContext(conf)
    //val hdfsRDD = sc.textFile("hdfs://hadoop:9000/input")
    val hdfsRDD = sc.textFile("hdfs://ubuntu:9000/input/word.txt")
    println(hdfsRDD.count())
  }

}
