"""
数据计算 map 方法
map方法可以将RDD中的每个元素传入自定义函数中，并返回一个新的RDD
"""
import os
from pyspark import SparkConf, SparkContext
os.environ['PYSPARK_PYTHON'] = "D:/dev/python/python310/python.exe"
conf = SparkConf().setMaster("local[*]").setAppName("map")
sc = SparkContext(conf=conf)

rdd = sc.parallelize([1, 3, 2, 4])
# map 方法
# map 方法可以将数据源中的每一个元素进行指定规则的转换
# 链式调用，类似于 Java 8 的 Stream API
rdd2 = rdd.map(lambda x: x * 10).map(lambda x: x + 5)
print(rdd2.collect())