from pyspark import SparkConf
from pyspark import SparkContext


def one_to_one(x):
    print('one_to_one函数调用')
    return x * x;


if __name__ == '__main__':
    conf = SparkConf().setMaster("local[*]").setAppName("spark01")
    sc = SparkContext(conf=conf)

    # # 第一个例子
    # strs = ['a','b','c','d','e','g']
    # rdd1 = sc.parallelize(strs) # 源RDD
    #
    # # 把每个字母都转换成ASCII码值 (ord)
    # rdd2 = rdd1.map(ord)
    # print(rdd2.collect())

    rdd1 = sc.parallelize(range(1, 11))

    # 把每个数字都转换成，该数字的平方
    # rdd2 = rdd1.map(lambda x: x*x) # 使用匿名函数

    rdd2 = rdd1.map(one_to_one)
    print(rdd2.collect())
