'''数据输入-将python中的集合写入RDD
RDD对象称为分布式弹性数据集，是PySpark中数据计算的载体，它可以：
    提供数据存储
    提供数据计算的各类方法
    数据计算的方法，返回值依旧是RDD对象

'''
from pyspark import SparkConf, SparkContext

conf = SparkConf().setMaster("local[*]").setAppName("test_park")
sc = SparkContext(conf=conf)

# 将python读取到的文件 放入RDD对象中
rdd = sc.textFile("D:\\hxy\\uploadPath\\abc.txt")
print(rdd.collect())

sc.stop()