"""
数据输出

take 算子
==============================================================================================
计算 RDD 有多少条数据，返回一个数字

- 语法：rdd.collect()

==============================================================================================
"""

# 演示RDD的flatMap成员方法的使用
from pyspark import SparkConf, SparkContext

# windows 中 spark 找不到对于的 python 解释器会报错
import os

os.environ["PYSPARK_PYTHON"] = "D:/python3.11/python.exe"

conf = SparkConf().setMaster("local[*]").setAppName("test_spark")
sc = SparkContext(conf=conf)

# 准备一个RDD
rdd = sc.parallelize(range(1, 10))

print(rdd.count())
