# flatMap是对RDD进行map操作，然后进行解除嵌套操作（可以理解为把多元的list转换成一元的list）
#coding:utf8
from pyspark import SparkContext,SparkConf

if __name__ == '__main__':
    conf = SparkConf().setAppName("test").setMaster("local[*]")
    sc = SparkContext(conf=conf)

    rdd = sc.parallelize(["hadoop spark hadoop","hadoop hadoop spark","hadoop flik spark"],3)

    # 将每一个元素按照空格拆分成一个List，所以这里的结果是一个二元List
    rdd2 = rdd.map(lambda x: x.split(" "))
    print(rdd2.collect())

    # 使用flatMap之后，转换成了一元List
    rdd3 = rdd.flatMap(lambda x: x.split(" "))
    print(rdd3.collect())
