from pyspark import SparkConf, SparkContext
import os

# 设置python解释器环境变量
os.environ['PYSPARK_PYTHON'] = 'D:/PYTHON/python3.10/python.exe'

conf = SparkConf().setMaster('local[*]').setAppName('my_test_spark')
sc = SparkContext(conf=conf)

rdd = sc.parallelize([6, 7, 8, 9, 10])


# 把rdd中的数据都乘10👉然后加上5

def func(data):
    return data * 10 + 5


rdd1 = rdd.map(func)
print(rdd1.collect())

rdd2 = rdd.map(lambda x: x * 10 + 5)
print(rdd2.collect())

rdd3 = rdd.map(lambda x: x * 10).map(lambda x: x + 5)  # 链式调用
print(rdd3.collect())

sc.stop()
