package com.niit.spark.sql.test

import org.apache.spark.sql.functions.avg
import org.apache.spark.sql.{DataFrame, SparkSession}

/**
 * Date:2025/5/12
 * Author：Ys
 * Description:
 */
object SortBySalary {


  def main(args: Array[String]): Unit = {

    val spark = SparkSession.builder().appName("SelectColumns").master("local[*]").getOrCreate()
    spark.sparkContext.setLogLevel("ERROR")

    val df: DataFrame = spark.read.option("header","true").csv("input/sql/employees.csv")
   // 根据部门进行分组                在agg函数中 使 avg去计算每个部分的平均值   给求平均值后的列起一个别名
    df.groupBy("department").agg(  avg("salary").as("avg_salary")    ).show()



    spark.stop()
  }

}
