"""
SparkContext 类对象 式PySpark编程中一切功能的入口
PySpark的编程，主要分为如下三大步骤：
①数据输入：通过SparkContext类对象的成员方法，完成数据的读取操作，读取后得到RDD类对象
②数据处理计算： 通过RDD类对象的成员方法，完成各种数据计算的需求
③数据输出：将处理完成后的RDD对象，调用各种成员方法，写出文件，转为list等操作

"""
from pyspark import SparkConf, SparkContext

# 创建SparkConf 对象
spark_conf = SparkConf().setMaster(value="local[*]").setAppName("test_spark_app")

# 创建sparkContext对象
spark_context = SparkContext(conf=spark_conf)

print(spark_context.version)

spark_context.stop()