from pyspark import SparkConf,SparkContext

# 构建SparkConf对象
conf = SparkConf().setAppName("test").setMaster("local[*]")
# 构建SparkContext执行环境入口对象
sc = SparkContext(conf=conf)

rdd = sc.parallelize([1,2,3,4,5],3)

rdd = rdd.map(lambda x: x*10)
"""
map方法，针对每一个元素操作
f: (T) -> U
接收一个参数：任意类型
返回一个参数：任意类型
"""
print(rdd.collect())