from pyspark import SparkConf, SparkContext

if __name__ == '__main__':
    # 构建SparkConf对象
    conf = SparkConf().setAppName("test").setMaster("local[*]")
    # 构建SparkContext执行环境入口对象
    sc = SparkContext(conf=conf)

    rdd = sc.parallelize([1, 2, 4, 6, 8, 9, 3])

    result = rdd.foreach(lambda x: print(x * 10))
    """
    foreach: 跟map功能一致，但没有返回值（即返回None）
    """
    print(result)
    # 输出结果
    # 10
    # 20
    # 40
    # 60
    # 80
    # 90
    # 30
    # None
