package rddSummary.transition.value_type

import org.apache.spark.{SparkConf, SparkContext}

object test_sortBy {
  def main(args: Array[String]): Unit = {

    val conf = new SparkConf().setAppName("test").setMaster("local")
    val context = new SparkContext(conf)

    val dates = context.makeRDD(List(1,2,3,4, 1, 2, 3),2)

    /**
     * 该操作用于排序数据。在排序之前，可以将数据通过 f函数进行处理，之后按照 f函数处理
     * 的结果进行排序，默认为升序排列。排序后新产生的RDD的分区数与原RDD的分区数一
     * 致。中间存在 shuffle 的过程
     */
    val value = dates.sortBy(num => num, false, 2)

    value.collect().foreach(println)

    context.stop()
  }

}
