from pyspark import SparkConf, SparkContext
conf = SparkConf().setAppName("test_spark_app").setMaster("local")
# 执行环境入口对象
sc = SparkContext(conf=conf)
print(sc.version)

# RDD--弹性分布数据集
rdd = sc.parallelize([1,2,3,4,5])
rdd1 = sc.parallelize((1,2,3,4,5)) #会被转化为数组
rdd2 = sc.parallelize('abcdefg')

# 查询rdd对象数据需要使用 collect
print(rdd1.collect())

file_rdd = sc.textFile("./AA-test.txt")
print(file_rdd.collect())
sc.stop()