package com.ada.spark.rddoperator

import org.apache.spark.{SparkConf, SparkContext}

/**
  * 针对于(K,V)形式的类型只对V进行操作
  */
object Spark26_mapValues {

    def main(args: Array[String]): Unit = {
        //创建SparkConf
        val conf = new SparkConf().setAppName("Spark26_mapValues").setMaster("local[*]")
        //创建Spark上下文对象
        val sc = new SparkContext(conf)

        val rdd = sc.parallelize(Array((1, "a"), (1, "d"), (2, "b"), (3, "c")))

        //针对于(K,V)形式的类型只对V进行操作
        val mapValuesRDD = rdd.mapValues(_ + "|||")

        println(mapValuesRDD.collect().mkString(","))
        //(1,a|||),(1,d|||),(2,b|||),(3,c|||)
    }

}
