package com.arnold.test.transformations

import org.apache.spark.{SparkConf, SparkContext}

/**
  * Created by arnold.zhu on 2017/7/18.
  */
object Join {

  def main(args: Array[String]): Unit = {
    val conf = new SparkConf().setMaster("local").setAppName("Spark01Learn")
    val sc = new SparkContext(conf)

    // 在类型为（K,V)和（K,W)类型的数据集上调用，返回一个（K,(V,W))对，每个key中的所有元素都在一起的数据集 就像inner join一样
    val rdd1 = sc.parallelize(List(('a', 1), ('a', 2), ('b', 3), ('b', 4)))
    val rdd2 = sc.parallelize(List(('a', 5), ('a', 6), ('b', 7), ('b', 8)))
    rdd1.join(rdd2).collect.foreach {
      println(_)
    }
  }

}
