package com.rz.spark.report

import java.util.Properties

import com.typesafe.config.ConfigFactory
import org.apache.hadoop.fs.{FileSystem, Path}
import org.apache.spark.sql.{DataFrame, SQLContext, SaveMode}
import org.apache.spark.{SparkConf, SparkContext}


/**
  * 统计日志文件中省市的数据分布情况
  * 本次统计是基于parquet文件
  * 需求一：
  *   将统计出来的结果存储成json文件格式
  *
  * 需求二：
  *   将统计出来的结果存储到mysql中
  */
object ProCityRptV2 {
  def main(args: Array[String]): Unit = {
    // 0 检验参数个数
    if (args.length !=1){
      println(
        """
          |com.rz.spark.report.ProCityRpt
          |参数：
          | logInputPath
          | """.stripMargin
      )
      sys.exit()
    }

    // 1 接受程序参数
    val Array(logInputPath) =args

    // 2 创建sparkConf-》sparkContext
    val sparkConf = new SparkConf()
    sparkConf.setAppName(s"${this.getClass.getSimpleName}")
    sparkConf.setMaster("local[*]")
    // RDD 序列化到磁盘 worker与worker之间的数据传输
    sparkConf.set("spark.serializer","org.apache.spark.serializer.KryoSerializer")



    val sc = new SparkContext(sparkConf)



    // 读取数据-》parquet文件
    val sqlContext = new SQLContext(sc)
    val df:DataFrame = sqlContext.read.parquet(logInputPath)

    // 将dataframe注册成一张临时表
    df.registerTempTable("log")

    // 按照省市进行分组聚合------> 统计分组后的各省市的日志记录条数
    val result: DataFrame = sqlContext.sql("select provincename, cityname, count(*) ct from log group by provincename, cityname")

    // 加载配置文件 application.conf->application.json->application.properties
    val load = ConfigFactory.load()
    val properties = new Properties()
    properties.setProperty("user", load.getString("jdbc.user"))
    properties.setProperty("password", load.getString("jdbc.password"))

    // 将结果写入到mysql的rpt_pc_count 表中
    result.write.mode(SaveMode.Append).jdbc(load.getString("jdbc.url"), load.getString("jdbc.tableName"), properties)

    sc.stop()
  }
}
