package org.example.rdd

import org.apache.spark.rdd.RDD
import org.apache.spark.{SparkConf, SparkContext}

object Spark_RDD_File1 {

  def main(args: Array[String]): Unit = {

    val config: SparkConf = new SparkConf().setMaster("local[*]").setAppName("file1")
    val context:SparkContext = new SparkContext(config)

    // 从文件中创建rdd，之前我们说过textFile是以行为单位读取文件
    // 但是 wholeTextFiles 是以元组来读，他的以文件为单位
    val value: RDD[(String, String)] = context.wholeTextFiles("datas/*")
    // (1.txt,HelloWord HelloSpark)
    //
    value.foreach(println)

    context.stop()
  }

}
