package com.shujia.hbase;

import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.hbase.HBaseConfiguration;
import org.apache.hadoop.hbase.client.HTable;
import org.apache.hadoop.hbase.mapreduce.LoadIncrementalHFiles;

public class Demo7LoadHfileToTable {

    public static void main(String[] args) throws Exception {

        Configuration conf = HBaseConfiguration.create();


        //指定导入那一张表
        HTable table = new HTable(conf, "stu3");

        LoadIncrementalHFiles loader = new LoadIncrementalHFiles(conf);

        //hfile所在的位置
        Path path = new Path("/data/hfile");

        //导入数据
        loader.doBulkLoad(path, table);


        /**
         * 这个导入的代码不能直接在本地运行,需要上传奥集群运行
         *
         * 通过hadoop jar 的方式运行
         *
         *
         * hadoop jar并不是只能执行mapreduce的代码,只要类里包含main函数都可以执行
         *
         */

    }
}
