package com.bigdata.core

import org.apache.spark.rdd.RDD
import org.apache.spark.{SparkConf, SparkContext}

object Demo3_SortBy {

  def main(args: Array[String]): Unit = {
    // 创建spark配置对象
    val conf: SparkConf = new SparkConf()
      .setMaster("local[1]")
      .setAppName("WordCount") // 设置应用名称

    // 需要一个SparkContext对象
    val sc = new SparkContext(conf)
    // 设置日志的打印级别
    sc.setLogLevel("error")
    val arr: Array[Int] = Array(1, 2, 3, 4, 5, 6, 7, 8, 9, 10)
    val numRDD: RDD[Int] = sc.parallelize(arr)

    // sortBy算子可以作用在kv或者是非kv的RDD上，但是sorByKey只能作用在kv类型的RDD
    val result: RDD[Int] = numRDD.sortBy(num => -num)
    result.foreach(println)
  }

}
