package com.rz.spark.report

import org.apache.spark.{SparkConf, SparkContext}


/**
  * 统计日志文件中省市的数据分布情况
  * 本次统计是基于parquet文件
  * 需求一：
  *   将统计出来的结果存储成json文件格式
  *
  * 需求二：
  *   将统计出来的结果存储到mysql中
  */
object ProCityRptV3 {
  def main(args: Array[String]): Unit = {
    // 0 检验参数个数
    if (args.length !=2){
      println(
        """
          |com.rz.spark.report.ProCityRpt
          |参数：
          | logInputPath
          | resultOutputPath
          | """.stripMargin
      )
      sys.exit()
    }

    // 1 接受程序参数
    val Array(logInputPath, resultOutputPath) =args

    // 2 创建sparkConf-》sparkContext
    val sparkConf = new SparkConf()
    sparkConf.setAppName(s"${this.getClass.getSimpleName}")
    sparkConf.setMaster("local[*]")
    // RDD 序列化到磁盘 worker与worker之间的数据传输
    sparkConf.set("spark.serializer","org.apache.spark.serializer.KryoSerializer")



    val sc = new SparkContext(sparkConf)


    // 读取数据进行统计
    sc.textFile(logInputPath).map(_.split(",", -1)).filter(_.length >= 85)
      .map( arr=>((arr(24),arr(25)),1)).reduceByKey(_+_).saveAsTextFile(resultOutputPath)

    sc.stop()
  }
}
