package mg.utils

import org.apache.spark.SparkConf

/**
  *
  * @author ymy.hadoop
  *
  */
object Measure extends App {

   var value : String = _


   println(this.args.mkString)

//   def main(args: Array[String]): Unit = {
//
//      val conf = new SparkConf().setMaster("local[*]").setAppName(this.getClass.getSimpleName)
//
//
//
//
//
//   }

}
