from pyspark import SparkContext, SparkConf

conf = SparkConf().setAppName("map").setMaster("local")
sc = SparkContext(conf=conf)

rdd = sc.parallelize([1, 2, 3, 4, 5])

def double_and_add_one(x):
    return x * 2 + 1

rdd2 = rdd.map(double_and_add_one)
print(rdd2.collect())

# 或者使用匿名函数
rdd3 = rdd.map(lambda x: x * 2 + 1)
print(rdd3.collect())

sc.stop()