package rdd.split;

import org.apache.spark.SparkConf;
import org.apache.spark.api.java.JavaRDD;
import org.apache.spark.api.java.JavaSparkContext;

import java.util.Arrays;
import java.util.List;

//对接内存数据，parallelize
public class Spark23_Memory {
    public static void main(String[] args) {
        final SparkConf conf = new SparkConf();             //创建spark配置对象
        conf.setMaster("local");
        conf.setAppName("spark");

        final JavaSparkContext jsc = new JavaSparkContext(conf);                    //构建java中spark运行环境，需要传入配置
        final List<String> names = Arrays.asList("zhangsan","lsi","wangwu");
        //final JavaSparkContext jsc1 = new JavaSparkContext("local","spark");        //可以不传入spark配置对象，可以直接当作参数输入
        final JavaRDD<String> rdd = jsc.parallelize(names);                          //对接内存数据源，也就是集合，形成rdd数据模型
        List<String> collect = rdd.collect();                                        //对数据模型中的数据进行采集
        collect.forEach(System.out::println);                                        //打印采集到的数据

        jsc.close();
    }

}
