from pyspark import SparkConf, SparkContext

if __name__ == '__main__':
    # 构建SparkConf对象
    conf = SparkConf().setAppName("test").setMaster("local[*]")
    # 构建SparkContext执行环境入口对象
    sc = SparkContext(conf=conf)

    rdd = sc.parallelize([1, 2, 3, 4, 5, 6], 3)

    rdd2 = rdd.map(lambda x: x*10).collect()
    print(rdd2)
    """
    collect: 将RDD内各个分区的数据，统一收集到Driver,形成一个List对象
    """
    # 输出结果 [10, 20, 30, 40, 50, 60]