//package com.sg.java.apps;
//
//import com.sg.java.security.SecurityPrepare;
//import org.apache.spark.SparkConf;
//import org.apache.spark.SparkContext;
//import org.apache.spark.sql.Dataset;
//import org.apache.spark.sql.Row;
//import org.apache.spark.sql.SparkSession;
//
//import java.util.HashMap;
//import java.util.Map;
//import java.util.StringJoiner;
//
//public class SparkGetDataFromHiveToHBase {
//
//    public static final String sqlTemplate = "select %s,id,ds,org_no,%s from %s where ds in (%s) limit %d offset %d";
//
//    public static void main(String[] args) throws Exception {
//        SecurityPrepare.cqEcsKerberosLogin2();
//        SparkConf conf = new SparkConf().setAppName("SparkGetDataFromHiveToHBase");
//        StringJoiner sj = new StringJoiner(",");
//        for (int i = 1; i <= 96; i++) {
//            sj.add("u" + i);
//        }
//        SparkSession ss = SparkSession.builder().config(conf).enableHiveSupport().getOrCreate();
//        SparkContext sc = ss.sparkContext();
//    }
//
//    public static void readDataFromHive(SparkSession ss, String sql) {
//        Dataset<Row> data = ss.sql(sql);
//        data.rdd().<Map<String, String>>map(item -> {
//            Map<String, String> map = new HashMap<>();
//            for (int i = 0; i < 96; i++) {
//                map.put(String.valueOf(i + 1), item.getString(i));
//            }
//            map.put("id", item.getString(96));
//            map.put("ds", item.getString(97));
//            map.put("org_no", item.getString(98));
//            map.put("phase_flag", item.getString(99));
//            return map;
//        }).va;
//    }
//
//}
