# 大数据
from pyspark import SparkConf, SparkContext
import os
os.environ['PYSPARK_PYTHON'] = "D:/anzhuang/python"

# pip install -i https://pypi.tuna.tsinghua.edu.cn/simple pysark
# 创建SparkConf类对象
conf = SparkConf().setMaster("local[*]").setAppName("test_spark_app")
# 基于SparkConf类对象创建SparkContext类对象
sc = SparkContext(conf=conf)
# 打印PySpark的运行版本
print(sc.version)
# 停止SparkConText对象的运行（停止PySpark程序）
sc.stop()