package com.bianmaba.hive.context;

import org.apache.spark.SparkConf;
import org.apache.spark.SparkContext;
import org.apache.spark.sql.hive.HiveContext;

/**
 * @program: hadoop-samples
 * @description:
 * @author: Chenjiabin
 * @create: 2019/6/21 9:51
 **/
//生产环境示例，
public class HiveContextHiveProc {
    public static void main(String[] args) {
        //System.setProperty("HADOOP_USER_NAME", "root");
        SparkConf sparkConf = new SparkConf();
        //生产环境不需要：以下配置可也可以将hadoop配置文件core-site.xml放到resources中
        //sparkConf.set("hadoop.tmp.dir", "/home/hadoop/tmp")
        //        .set("fs.defaultFS", "hdfs://hadoop-master:9000");

        //局域网外访问时需要添加如下配置，以免无法访问
        // sparkConf.set("dfs.client.use.datanode.hostname", "true");

        // 在生产上通过脚本的方式指定
        //sparkConf.setAppName("SQLContextApp").setMaster("local[*]");

        SparkContext sc = new SparkContext(sparkConf);
        HiveContext hiveContext = new HiveContext(sc);

        //2)相关处理：hiveTable
        hiveContext.table("info").show();

        //3)关闭资源
        sc.stop();
    }
}
