package com.hadwinling.alogriithm.actualcombat.topk

import org.apache.spark.rdd.RDD
import org.apache.spark.{SparkConf, SparkContext}

import scala.collection.mutable

/**
 * Top K的示例模型可以应用在求过去一段时间消费次数最多的消费者、访问最频繁的IP
地址和最近、更新、最频繁的微博等应用场景。
 */
object TopK {

  val K = 3

  val ord = Ordering.by[(String, Int), Int](_._2).reverse

  def main(args: Array[String]) {
    // 执行 wordcount
    val conf = new SparkConf().setAppName("TopK").setMaster("local")
    val spark = new SparkContext(conf)
    val textRDD = spark.textFile("datas/1.txt")
    val countRes = textRDD.flatMap(line => line.split(" ")).map(word => (word, 1)).reduceByKey(_ + _)

    // debug mapreduce 的结果
    countRes.foreach(println)

    /*
     每个 RDD 分区内进行 TOP K 计算
     需要每个分区内有自己的桶，如果整个程序使用一个 heap（将 heap 设定为成员变量） 会不正确
     为什么呢？
      */
    val topk = countRes.mapPartitions(iter => {
      val heap = new mutable.PriorityQueue[(String, Int)]()(ord)
      while (iter.hasNext) {
        val n = iter.next
        println("分区计算：" + n)
        putToHeap(heap, n)
      }

      heap.iterator
    }).collect()

    println("分区结果：")
    topk.foreach(println)

    // 每个分区的 TOP K 合并，计算总的 TopK
    val heap = new mutable.PriorityQueue[(String, Int)]()(ord)
    val iter = topk.iterator
    while (iter.hasNext) {
      putToHeap(heap, iter.next)
    }

    println("最终结果：")
    while (heap.nonEmpty) {
      println(heap.dequeue())
    }

    spark.stop()

  }

  def putToHeap(heap: mutable.PriorityQueue[(String, Int)], iter: (String, Int)): Unit = {
    if (heap.nonEmpty && heap.size >= K) {
      if (heap.head._2 < iter._2) {
        heap += iter
        heap.dequeue()
      }
    } else {
      heap += iter
    }
  }

}
