package org.example.music;

import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.hbase.HBaseConfiguration;
import org.apache.hadoop.hbase.client.Scan;
import org.apache.hadoop.hbase.mapreduce.TableMapReduceUtil;
import org.apache.hadoop.hbase.util.Bytes;
import org.apache.hadoop.io.IntWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.Job;

import java.io.IOException;

/**
 * HBase表中音乐数据处理的驱动类
 * 该类配置并启动一个Hadoop作业，该作业从HBase表中读取音乐数据，
 * 使用MapReduce框架进行处理，并将结果写回HBase表中
 */
public class MusicDriver {
    /**
     * 主函数，配置并启动MapReduce作业
     *
     * @param args 命令行参数
     */
    public static void main(String[] args) {
        try {
            // 创建HBase配置对象
            Configuration conf = HBaseConfiguration.create();
            // 设置HBase的根目录
            conf.set("hbase.rootdir", "hdfs://192.168.134.130:9000/hbase");
            // 设置HBase的ZooKeeper集群地址
            conf.set("hbase.zookeeper.quorum", "192.168.134.130");
            // 创建并配置MapReduce作业
            Job job = Job.getInstance(conf, "music");
            job.setJarByClass(MusicDriver.class);
            // 设置Reduce任务数量
            job.setNumReduceTasks(1);
            // 创建Scan对象，用于配置扫描HBase表的参数
            Scan scan = new Scan();
            // 添加需要扫描的列
            scan.addColumn(Bytes.toBytes("info"), Bytes.toBytes("name"));
            // 使用HBase提供的工具类来设置job
            TableMapReduceUtil.initTableMapperJob("music2", scan, MusicMapper.class,
                    Text.class, IntWritable.class, job);
            // 初始化TableReducerJob
            TableMapReduceUtil.initTableReducerJob("namelist1", MusicReducer.class, job);

            // 等待作业完成
            System.exit(job.waitForCompletion(true) ? 0 : 1);
        } catch (Exception e) {
            e.printStackTrace();
        }

    }
}
