# coding:utf-8
from pyspark import SparkConf, SparkContext
import os

os.environ['JAVA_HOME'] = '/server/jdk'

if __name__ == '__main__':
    conf = SparkConf().setAppName('test').setAppName('local[*]')
    sc = SparkContext(conf=conf)

    rdd = sc.parallelize([('a',1),('a',1),('b',1),('b',1),('b',1)])

    # 通过groupBy对数据进行分组
    # groupBy 传入的含义是：通过这个函数，确定按照谁来分组
    result = rdd.groupBy(lambda t:t[0])
    print(result.collect())  #这个时候发现value为一个迭代器对象
    res = result.collect()
    for i in range(len(res)):
        for iters in res[0][1]:  #
            print(iters)

    # 一行代码展示结果
    print(result.map(lambda x: (x[0], list(x[1]))).collect())