package cn.lzd.case1

import org.apache.spark.rdd.RDD
import org.apache.spark.{SparkConf, SparkContext}

/**
  * Created by lzd on 2019/3/27.
  * 1、对文本文件内的每个单词都统计出其出现的次数。
  * 2、按照每个单词出现次数的数量，降序排序。
  */
object Demo1 {
  def main(args: Array[String]): Unit = {
    val sc = new SparkContext(new SparkConf().setAppName("case1_demo1").setMaster("local"))
    val inPath = Demo1.getClass.getResource("/").getPath + "case1/f1"
    val textFile: RDD[String] = sc.textFile(inPath)

//    textFile.map()
  }
}
