"""
数据输出

reduce 算子
==============================================================================================
对 RDD 数据集按照你传入的逻辑进行聚合

- 语法：rdd.reduce(func)
# func: (T, T) -> T
# 传入2个参数，返回1个值，参数和返回值的类型一样
==============================================================================================
"""

# 演示RDD的flatMap成员方法的使用
from pyspark import SparkConf, SparkContext

# windows 中 spark 找不到对于的 python 解释器会报错
import os

os.environ["PYSPARK_PYTHON"] = "D:/python3.11/python.exe"

conf = SparkConf().setMaster("local[*]").setAppName("test_spark")
sc = SparkContext(conf=conf)

# 准备一个RDD
rdd = sc.parallelize(range(1, 10))

print(rdd.reduce(lambda x, y: x + y))
