package org.example

import org.apache.spark.{SparkConf, SparkContext}

object rdd1 {
  def main(args: Array[String]): Unit = {
    val conf=new SparkConf().setAppName("as").setMaster("local[*]");
    val sc=new SparkContext(conf);
    val lines=sc.textFile("data/py")
    val len=lines.filter(lems=>lems.trim.length>0 && lems.split(" ").length==4)
    len.map(_.split(" ")(2).toInt).map((_,1)).sortByKey(false).map(_._1).take(1).foreach(println)
    len.map(_.split(" ")(2).toInt).map((_,1)).sortByKey().map(_._1).take(1).foreach(println)
  }
}
