#
"""
本章节研究的是是：
RDD里面的数据计算

"""
print("-----------map方法的使用--------------")
# 功能： map算子，是将RDD的数据一条条处理(处理的逻辑是 基于map算子中接收的处理的函数)，然后返回新的RDD对象


"""
SparkConf和SparkContext: 这两个类是用于配置和创建Spark的执行环境。
"""
from  pyspark import SparkConf,SparkContext

if __name__  == '__main__': # 这是一个条件判断语句，如果在本类中 下面的代码会执行，如果该类被当作包导入 则下面的代码则不会执行。
     # 构建spark执行环境 创建了名称conf的SparkConf的对象。 setAppName() 设置应用程序的名称为 "create.rdd"  setMaster("lcal[*]") 配置Spark的主节点，将Spark配置为本本地模式下运行
     conf=SparkConf().setAppName("create.rdd").setMaster("local[*]")
     # 创建SparkContext对象 ,这个是Spark应用程序的的入口点。
     sc=SparkContext(conf=conf)
