# 演示获取 PySpark 的执行环境入库对象:SparkContext
# 并通过 SparkContext 对象获取当前 PySpark 的版本
from pyspark import SparkConf,SparkContext


# 创建 SparkConf 类对象
conf = SparkConf().setMaster("local[*]").setAppName("test_spark_app")         # 链式调用 —— 返回值都是同一个对象才可以使用链式调用方法

# 基于 SparkConf 类对象创建 SparkContext 对象
sc = SparkContext(conf=conf)

# 打印 PySpark 的运行版本
print(sc.version)

# 停止 SparkContext 对象的运行(停止 PySpark 程序)
sc.stop()