"""
reduceByKey算子：针对 KV型 [二元元组：（1,2）] RDD，自动按照 key 分组，然后根据你提供的聚合逻辑，完成 组内数据（value） 的聚合操作
用法：
   rdd.reduceByKey(func)
        func : (v, v) -> v
        接受2个传入参数（类型要一致），返回一个值，类型和传入要求一致
"""
from pyspark import SparkConf, SparkContext
import os
os.environ['PYSPARK_PYTHON'] = "C:/Users/Lenovo/AppData/Local/Programs/Python/Python310/python.exe"

conf = SparkConf().setMaster("local[*]").setAppName("test_spark")

sc = SparkContext(conf=conf)

rdd = sc.parallelize([('男', 99), ('男', 88), ('女', 99), ('女', 66)])
print(rdd.reduceByKey(lambda x, y: x + y).collect())







