package rdd.split;

import org.apache.spark.SparkConf;
import org.apache.spark.api.java.JavaSparkContext;

public class Spark22_Env {
    public static void main(String[] args) {
        final SparkConf conf = new SparkConf();             //创建spark配置对象
        conf.setMaster("local");                            //设置是单击还是yarn模式
        conf.setAppName("spark");

        final JavaSparkContext jsc = new JavaSparkContext(conf);                    //构建java中spark运行环境，需要传入配置
        //final JavaSparkContext jsc1 = new JavaSparkContext("local","spark");        //可以不传入spark配置对象，可以直接当作参数输入
        jsc.close();
    }
}
