//package chapter5
//
//import org.apache.hadoop.hbase.mapreduce.TableInputFormat
//import org.apache.hadoop.hbase.util.Bytes
//import org.apache.spark.{SparkConf, SparkContext}
//
///**
// *
// * 从HBase读取数据
// */
//
//object HBaseReadTest {
//  def main(args: Array[String]): Unit = {
//    val sparkConf = new SparkConf().setAppName("HBaseReadTest").setMaster("local[2]")
//    val sc = new SparkContext(sparkConf)
//
//    val tableName = "student"
//    val quorum = "192.168.152.111"//这里也可以用ip地址
//    val port = "2181"
//
//    // 配置相关信息
//    val conf = HBaseUtils.getHBaseConfiguration(quorum,port,tableName)
//    conf.set(TableInputFormat.INPUT_TABLE,tableName)
//
//    // HBase数据转成RDD
//    val hBaseRDD = sc.newAPIHadoopRDD(conf, classOf[TableInputFormat],
//      classOf[org.apache.hadoop.hbase.io.ImmutableBytesWritable],
//      classOf[org.apache.hadoop.hbase.client.Result]).cache()
//
//    // RDD数据操作
//    val data = hBaseRDD.map(x => {
//      val result = x._2
//      val key = Bytes.toString(result.getRow)
//      val name = Bytes.toString(result.getValue("info".getBytes,"name".getBytes))
//      val gender = Bytes.toString(result.getValue("info".getBytes,"gender".getBytes))
//      val age = Bytes.toString(result.getValue("info".getBytes,"age".getBytes))
//      (key,name,gender,age)
//    })
//
//    data.foreach(println)
//
//    sc.stop()
//  }
//}