# -*- coding: UTF-8 -*-
"""
@File    ：1.基础准备.py
@Author  ：techPang
@Date    ：2025/2/8 13:59 
@Version ：1.0

PySpark编程的三步:
    1.数据输入:通过sparkContext类对象的成员方法，完成数据的读取操作，读取后得到RDD类对象
    2.数据处理计算:通过RDD类对象的成员方法完成各种数据计算的需求
    3.数据输出:将处理完成后的RDD对象调用各种成员方法完成写出文件、转换为list等操作
"""
from pyspark import SparkConf, SparkContext

# 创建sparkConf类对象
conf = SparkConf().setMaster("local[*]").setAppName("test_spark_app")
# 链式调用，等价于
# conf = SparkConf()
# conf.setMaster("local[*]")
# conf.setAppName("test_spark_app")


# 基于配置类创建SparkContext对象
sc = SparkContext(conf=conf)

# 打印版本信息
print(sc.version)

# 停止运行
sc.stop()
