# 入门


print("-------------构建PySpark环境对象---------------")
# 导包
# 这行代码导入了 SparkConf 和 SparkContext 两个类，它们是 PySpark 中用于配置和创建 Spark 应用程序的关键类。
from  pyspark import SparkConf,SparkContext
# 创建SparkConf类对象
# 这行代码创建了一个 SparkConf 对象，并通过 setMaster 方法将 Spark 应用程序设置为在本地运行，使用所有可用的 CPU 核心（"local[*]"）。setAppName 方法设置了应用程序的名称为 "test_spark_app"。
conf=SparkConf().setMaster("local[*]").setAppName("test_spark_app")
# 基于SparkConf类对下你个创建SparkContext类对象
# 这行代码导入了 SparkConf 和 SparkContext 两个类，它们是 PySpark 中用于配置和创建 Spark 应用程序的关键类。
sc=SparkContext(conf=conf)
# 打印pySpark的运行版本
print(sc.version)
#停止SparkContext对象的运行(停止PySpark程序)
sc.stop()