package com.spark.rdd

import org.apache.spark.SparkConf
import org.apache.spark.SparkContext

object RddTest1 {
  
  def main(args: Array[String]): Unit = {
    val conf = new SparkConf().setAppName("RddTest1").setMaster("local[1]")
    //创建spark执行的入口
    val sc = new SparkContext(conf)
    
    val arr = Array(1,2,3,4,5,6,7,8,9,10)
    val newArr = arr.map(_*10)
    
    // 生成RDD方式1
    val rdd = sc.parallelize(arr)
    
    val rdd2 = rdd.map(_ * 10)
    
    rdd2.foreach(print)
     
    rdd2.collect()
    
    val rdd3 = rdd.filter(_ % 2== 0)
    
    println(rdd3)
    rdd3.foreach(print)
    
    // 生成RDD方式2
    val rdd6 = sc.makeRDD(List(2,3,4,5,6))
    
  }
}