package com.atguigu.sparkcore.day01

import org.apache.spark.rdd.RDD
import org.apache.spark.{SparkConf, SparkContext}

/**
 * Author atguigu
 * Date 2020/10/27 11:10
 */
object CreateRDD {
    def main(args: Array[String]): Unit = {
        
        val conf = new SparkConf().setMaster("local[2]").setAppName("CreateRDD")
        val sc = new SparkContext(conf)
        val list1 = List(30, 50, 70, 60, 10, 20)
        val rdd: RDD[Int] = sc.parallelize(list1)
//        val rdd: RDD[Int] = sc.makeRDD(list1)
        
        rdd.collect().foreach(println)
        
        sc.stop()
        
    }
}
/*
创建RDD的方式:
1. 通过已的集合得到RDD

2. 通过外部存储
    文件
    jdbc
    hbase

3. 通过其他的RDD转换得到RDD


 */