""""""
"""
初步认识 pyspark 的操作

构建 pyspark 执行环境人口对象
要使用pyspark库完成数据处理,首先要构建一个执行入口对象
pyspark的执行人口对象是: 类 SparkContex: 的类对象

SparkContex: 的类对象   这个对象是我们操作pyspark的唯一入口,我操作分析数据都是通过这个对象 作为入口操作的
"""
# 导包
from pyspark import SparkConf, SparkContext

# 创建SparkConf类对象  (设置了任务模式和名称)

# "local[*]" 表示当地,也就是本机. 因为pyspark是可以联网上传数据的,但我们这里只接介绍简单的操作
# sp对象 = SparkConf().setMaster("local[*]").setAppName("这里自定义名称")

# 上面的是链式写法,分开来写就是下面的
对象 = SparkConf()
对象.setMaster("local[*]")
对象.setAppName("这里自定义名称")

# 基于SparkConf类的对象,创建SparkContext类的对象
入口对象 = SparkContext(conf=对象)  # 括号里不加,也可以

# 打印pyspark的运行版本
print(入口对象.version)  # 其实就是测试下,正常工作吗

# 停止 SparkContext 对象的运行 (停止 pyspark 程序)
入口对象.stop()

"""
SparkContex: 的类对象, 是pyspark编程的一切功能的入口.
pyspark编程.主要有三大步骤

数据输入
通过SparkContex类对象,的成员方法
完成数据的读取操作
读取后得到RDD类对象

数据处理计算
通过RDD类对象的成员方法
完成各种数据计算的需求

数据输出
处理完成后RDD对象
调用各种成员方法
完成文件,转换为list等操作

"""