//package com.bw.sparksql1.job4
//import org.apache.log4j.{Level, Logger}
//import org.apache.spark.sql.SparkSession
//
//
///**
//  *
//  */
//object Job1 {
//  def main(args: Array[String]): Unit = {
//
//
//    Logger.getLogger("org").setLevel(Level.ERROR)
//    val spark = SparkSession
//      .builder()
//      .master("local")
//      .appName("Job1")
//      .getOrCreate()
//    val events = spark.read.format("csv").option("header","true").load("events.csv")
////    val count = events.select("event_id").distinct.count
////    System.out.print(count)
//    import spark.implicits._
//
//
//
//    //需求2.没有举办者的活动有哪些
//    val count2 = events.filter($"user_id".isNull).count
//    System.out.print(count2)
//
//
//    //需求3.那个用户举办的活动最多
//
//    events.groupBy($"user_id").agg(count($"event_id").as("cnt_events")).orderBy($"cnt _events".desc).show
//
//
////    events.groupBy($"user_id")
//    events.alias("e").join(users.alias("u"),$"e.user_id" ===
//      $"u.user_id","left_outer").select($"u.user_id").filter($"user_id".isNotNull).count
//  }
//}
