package com.doit.day01

import org.apache.spark.{SparkConf, SparkContext}

/**
 * @Author:
 * @WX: 17710299606
 * @Tips: 学大数据 ,到多易教育
 * @DOC: https://blog.csdn.net/qq_37933018?spm=1000.2115.3001.5343
 * @Description:
 * SparkContext 是spark编程的入口  spark的编程环境
 */
object Demo01SparkContext {

  def main(args: Array[String]): Unit = {

   /*    val  conf  = new SparkConf()
             .setMaster("local[*]")
             .setAppName(this.getClass.getSimpleName)
           val sc = SparkContext.getOrCreate(conf)*/




    val  conf  = new SparkConf()

      /**
       * local 本地运行 1 core  local[1]
       * local[8]   local[N]
       * local[*]  当前机器的所有核数
       * yarn  yarn模式
       */
      .setMaster("local[*]")
      .setAppName(this.getClass.getSimpleName)
    val sc = SparkContext.getOrCreate(conf)

    /**
     * 创建方式1
     * */
    val sc1 = new SparkContext()

    val sc2 = new SparkContext(conf)

    /**
     * 创建方式2
     */
    SparkContext.getOrCreate(conf)


  }

}
