package com.myiptv

import com.lmq.Utils.SparkSessionSingleton
import org.apache.log4j.{Level, Logger}
import org.apache.spark.sql.functions._
//import com.lmq.Utils.MyUtils.toPosiFunc


object CateJoin {

  Logger.getLogger("org.apache.spark")
    .setLevel(Level.WARN)
  val spark =  SparkSessionSingleton.getInstance(null)

  def categoryJoins(): Unit = {
    println(s"Current spark version ${spark.version}")

    val read = spark.read.option("header", value = false)
      .option("inferschema", value = false)
//    read.csv("D:\\2019开题\\TGSRec-master\\TGSRec-master\\datasets\\ml-100k\\user.csv")
//    read.csv("D:\\2019开题\\TGSRec-master\\TGSRec-master\\datasets\\ml-100k\\item.csv")
//
//      .select(
//        col("_c0"),
//        array(
//        col("_c5"),
//        col("_c6"),
//        col("_c7"),
//        col("_c8"),
//        col("_c9"),
//        col("_c10"),
//        col("_c11"),
//        col("_c12"),
//        col("_c13"),
//        col("_c14"),
//        col("_c15"),
//        col("_c16"),
//        col("_c17"),
//        col("_c18"),
//        col("_c19"),
//        col("_c20"),
//        col("_c21"),
//        col("_c22"),
//        col("_c23"))
//      )
//      .join(
//
//
//      )
//      .show(77,false)

  }

  def main(args: Array[String]): Unit = {

    categoryJoins()

  }

}
