from pyspark.sql import SparkSession

# 1. 打开 Session，向 Spark 提交大数据分析任务
# appName 指定 app 的名字
# - master 提交到哪里
#   + local 本地内容
#   + yarn Hadoop 集群
spark = SparkSession.builder\
    .appName("SparkExample")\
    .master("local[4]")\
    .getOrCreate()


# 2. 编写大数据分析的代码
df = spark.read.text("test.txt")
print(df.count)
print(df.head())

# 3. 关闭 Session
spark.stop()
