 1.Hive 属性配置
   
   可在 hive-site.xml 中增加以下常用配置，方便使用。
   数据存储位置
   <property>
       <!-- 数据默认的存储位置(HDFS) -->
       <name>hive.metastore.warehouse.dir</name>
       <value>/user/hive/warehouse</value>
       <description>location of default database for the
   warehouse</description>
   </property>
   
   显示当前库
   <property>
       <!-- 在命令行中，显示当前操作的数据库 -->
       <name>hive.cli.print.current.db</name>
       <value>true</value>
       <description>Whether to include the current database in the
   Hive prompt.</description>
   </property>
   
   显示表头属性
   <property>
       <!-- 在命令行中，显示数据的表头 -->
       <name>hive.cli.print.header</name>
       <value>true</value>
   </property>
   
   本地模式
   <property>
       <!-- 操作小规模数据时，使用本地模式，提高效率 -->
       <name>hive.exec.mode.local.auto</name>
       <value>true</value>
       <description>Let Hive determine whether to run in local
   mode automatically</description>
   </property>
   备注：当 Hive 的输入数据量非常小时，Hive 通过本地模式在单台机器上处理所有的任务。对于小数据集，
执行时间会明显被缩短。当一个job满足如下条件才能真正使用本地模式：
   job的输入数据量必须小于参数：hive.exec.mode.local.auto.inputbytes.max(默认128MB)
   job的map数必须小于参数：hive.exec.mode.local.auto.tasks.max (默认4)job的reduce数必须为0或者1
 
 2.Hive的日志文件
   
   Hive的log默认存放在 /tmp/root 目录下(root为当前用户名)；这个位置可以修改。
   vi $HIVE_HOME/conf/hive-log4j2.properties
   # 添加以下内容：
   property.hive.log.dir = /opt/lagou/servers/hive-2.3.7/logs
   可以不修改，但是要知道位置。
   Hadoop 2.x 中 NameNode RPC缺省的端口号：8020
   附录：添加第三方用户（Hadoop）
   groupadd hadoop
   # -m：自动建立用户的登入目录
   # -g：指定用户所属的起始群组
   # -G<群组>：指定用户所属的附加群组
   # －s：指定用户登入后所使用的shell
    useradd -m hadoop -g hadoop -s /bin/bash

    passwd hadoop
    
	visudo
    # 在100行后添加。允许用户执行sudo，免密
    hadoop  ALL=(ALL)    NOPASSWD:ALL
	建议：现阶段使用root用户
	小结：
     1).添加了配置，使用Hive更方便；
     2).删除了有冲突的软件包(hive)
     3).Hive的日志在哪里(/tmp/root)
     4).第三方用户使用Hive。建议使用root用户
     5).NameNode 缺省的RPC(远程过程调用)端口号8020，经常使用的端口号9000