"""
演示通过pyspark的执行环境入库对象:SparkContext
并通过SparkContext对象获取当前的pyspark版本
"""

# 导包
from pyspark import SparkConf,SparkContext
#创建SparkConf类对象
conf = SparkConf().setMaster("local[*]").setAppName("test_spark_app")   #链式调用:要求每一个方法的返回值都是同一个对象 相当于下面三行代码
# conf = SparkConf()
# conf.setMaster("local[*]")
# conf.setMaster("local[*]").setAppName("test_spark_app")

#基于SparkConf类对象创建SparkContext对象
sc =SparkContext(conf=conf)
#打印PySpark的运行版本
print(sc.version)
#停止SparkContext对象的运行(停止PySpark程序)
sc.stop()
