package org.lc.d01

import org.apache.spark.{SparkConf, SparkContext}




object 文件读取与写入 {
  def main(args: Array[String]): Unit = {

      var conf=new SparkConf().setAppName("textFile").setMaster("local[*]");
      var sc=new SparkContext(conf);
      //1.读取本地文件
      var rdd1=sc.textFile("data/py")
      rdd1.foreach(println)
      //2.读取json文件
      var jsonTxt=sc.textFile("data/max")
     //jsonTxt.map(x=>JSON.parseFull(x))
      //3.从hdfs中读取


  }

}
