package com.wanglei.rdd.create

import org.apache.spark.{SparkConf, SparkContext}

object Spark02_rdd_file {

  def main(args: Array[String]): Unit = {
    //
    val conf = new SparkConf().setMaster("local[1]").setAppName("rdd")
    val sc = new SparkContext(conf)

    // path 默认是当前环境的根路径为基准
    // 绝对路径
    // 相对路径
    // 读取多个文件可以指定目录
    // 可以写通配符
    // hdfs://linux1:8020/data/....
    sc.textFile("")

    // textFile以行为单位读取
    // wholeTextFiles 以文件为单位读取数据
    sc.wholeTextFiles("")


    //
    sc.stop()
  }
}
