package cn.doitedu.day07

import org.apache.spark.sql.{DataFrame, SparkSession}

object T09_CreateDataFrameFromCsv {

  def main(args: Array[String]): Unit = {

    val spark = SparkSession.builder().appName(this.getClass.getSimpleName)
      .master("local[4]")
      .getOrCreate()

    //sparksql支持统一的数据访问方式
    val df: DataFrame = spark.read
      .option("header", "true") //将第一行作为表头
      .option("delimiter", "|") //指定数据的分割符
      .option("inferSchema", "true") //推断数据类型
      .csv("data/flow2.txt")

    //df.printSchema()

    df.show()

    Thread.sleep(100000)

  }

}
