package test

import org.apache.spark.{SparkConf, SparkContext}

object demo3 {
  def main(args: Array[String]): Unit = {
    // 弹性分布式数据库
    var conf = new SparkConf().setAppName("myapp").setMaster("local")
    var sc = new SparkContext(conf)
    var rdd1 = sc.parallelize(List(3, 4, 5, 6, 7))
    //    计算数据的平方
    //map(x=>)   x为函数参数名称
    var rdd2 = rdd1.map(x => x * x)
    //    var rdd2=rdd1.map(x=>x+1)
    //    简写
    //    var rdd2=rdd1.map(_+1)
    //输出
    rdd2.collect().foreach(println)
  }

}
