from pyspark import SparkConf, SparkContext

if __name__ == '__main__':
    conf = SparkConf().setAppName("test").setMaster("local[*]")
    sc = SparkContext(conf=conf)

    # 对RDD数据进行排序，基于你指定的排序数据
    rdd1 = sc.parallelize([('a', 1), ('E', 3), ('b', 2), ('c', 4), ('U', 1)])

    # 按照key进行排序
    # 参数3，排序依据： 对key进行处理，如大小写转换
    print(rdd1.sortByKey(ascending=False, numPartitions=1, keyfunc=lambda x: str(x).lower()).collect())
