#coding:utf8
from pyspark import SparkContext,SparkConf

if __name__ == '__main__':
    conf = SparkConf().setAppName("test").setMaster("local[*]")
    sc = SparkContext(conf=conf)

    rdd = sc.parallelize([123,32,5,12321,52,763])
    rdd2 = sc.parallelize([("a", 1), ("b", 2), ("c", 3), ("a", 2), ("b", 3), ("c", 4)])
    # 参数1：按照哪一个列进行排序，参数3：表示分区数，只会在分区有序，所以如果要全局排序需要设置为1，否则只会在区内有序
    print(rdd.sortBy(lambda x:x,ascending=True,numPartitions=1).collect())
    # 通过K-V中的V进行降序
    print(rdd2.sortBy(lambda x: x[1], ascending=False).collect())