package com.qing.spark.dao

import com.qing.spark.beans.Message
//import org.apache.hadoop.hbase.client.Put
//import java.util
//import java.util.UUID
//
//import org.apache.hadoop.hbase.util.Bytes

import scala.collection.mutable.ListBuffer

/**
  * Created by wuliao on 2018/3/12.
  */
object MessageDao {

  def saveMessages(messages: ListBuffer[Message]) {
//    val table = HBaseUtils.getInstance.getTable(tableName)
//    val puts = new util.ArrayList[Put]
//
//    for (msg <- messages) {
//
//      val put = new Put(UUID.randomUUID().toString.replaceAll("-", "").getBytes)
//      addColumn(put, "day", Bytes.toBytes(msg.getDay))
//      addColumn(put, "hour", Bytes.toBytes(msg.getHour))
//      addColumn(put, "minute", Bytes.toBytes(msg.getMinute))
//      addColumn(put, "second", Bytes.toBytes(msg.getSecond))
//      addColumn(put, "time", Bytes.toBytes(msg.getTime))
//      addColumn(put, "proxyIp", msg.getProxyIp)
//      addColumn(put, "srcIp", msg.getSrcIp)
//      addColumn(put, "srcPort", Bytes.toBytes(msg.getInPort))
//      addColumn(put, "outIp", msg.getOutIp)
//      addColumn(put, "outPort", Bytes.toBytes(msg.getOutPort))
//      addColumn(put, "host", msg.getHost)
//      addColumn(put, "sampling", Bytes.toBytes(msg.getSampling))
//      addColumn(put, "packageSize", Bytes.toBytes(msg.getPacketSize))
//      addColumn(put, "dataSize", Bytes.toBytes(msg.getDatagramSize))
//
//      puts.add(put)
//    }
//
//    if (puts.size() > 0) {
//      table.put(puts)
//    }
  }


  val family = "data"

  val tableName = "logger"


//  def addColumn(put: Put, key: String, value: String) {
//    put.addColumn(family.getBytes, key.getBytes, value.getBytes)
//  }
//
//  def addColumn(put: Put, key: String, value: Array[Byte]) {
//    put.addColumn(family.getBytes, key.getBytes, value)
//  }
}
