 1.分区表
   
   Hive在执行查询时，一般会扫描整个表的数据。由于表的数据量大，全表扫描消耗时
间长、效率低。
   而有时候，查询只需要扫描表中的一部分数据即可，Hive引入了分区表的概念，将表
的数据存储在不同的子目录中，每一个子目录对应一个分区。只查询部分分区数据
时，可避免全表扫描，提高查询效率。
   在实际中，通常根据时间、地区等信息进行分区。
   分区表创建与数据加载
   -- 创建表
create table if not exists t3(
id int,
name string,
hobby array<string>,
addr map<String,string>
)
partitioned by (dt string)
row format delimited
fields terminated by ';'
collection items terminated by ','
map keys terminated by ':';
   -- 加载数据
load data local inpath "/home/hadoop/data/t1.dat" into table t3
partition(dt="2020-06-01");
load data local inpath "/home/hadoop/data/t1.dat" into table t3
partition(dt="2020-06-02");
   备注：分区字段不是表中已经存在的数据，可以将分区字段看成伪列
   查看分区: show partitions t3; 
   新增分区并设置数据
   -- 增加一个分区，不加载数据
   alter table t3 add partition(dt='2020-06-03');
   -- 增加多个分区，不加载数据
   alter table t3
add partition(dt='2020-06-05') partition(dt='2020-06-06');
  -- 增加多个分区。准备数据
dfs -cp /user/hive/warehouse/mydb.db/t3/dt=2020-06-01
/user/hive/warehouse/mydb.db/t3/dt=2020-06-07;
dfs -cp /user/hive/warehouse/mydb.db/t3/dt=2020-06-01
/user/hive/warehouse/mydb.db/t3/dt=2020-06-08;
   -- 增加多个分区。加载数据
   alter table t3 add
partition(dt='2020-06-07') location
'/user/hive/warehouse/mydb.db/t3/dt=2020-06-07';
partition(dt='2020-06-08') location
'/user/hive/warehouse/mydb.db/t3/dt=2020-06-08';;
  -- 查询数据
  select * from t3;
  修改分区的hdfs路径
  alter table t3 partition(dt='2020-06-07') set location
'/user/hive/warehouse/t3/dt=2020-06-08';
  删除分区
  -- 可以删除一个或多个分区，用逗号隔开
alter table t3 drop partition(dt='2020-06-03'),
partition(dt='2020-06-04');
  alter table t3 drop partition(dt='2020-06-05'),
partition(dt='2020-06-06'); 

 2.分桶表
   
   当单个的分区或者表的数据量过大，分区不能更细粒度的划分数据，就需要使用分桶
技术将数据划分成更细的粒度。将数据按照指定的字段进行分成多个桶中去，即将数
据按照字段进行划分，数据按照字段划分到多个文件当中去。分桶的原理：
   MR中：key.hashCode % reductTask
   Hive中：分桶字段.hashCode % 分桶个数
   -- 测试数据
1	java	90
1	c	78
1	python	91
1	hadoop	80
2	java	75
2	c	76
2	python	80
2	hadoop	93
3	java	98
3	c	74
3	python	89
3	hadoop	91
5	java	93
6	c	76
7	python	87
8	hadoop	88
   -- 创建分桶表
   create table course(
id int,
name string,
score int
)
clustered by (id) into 3 buckets
row format delimited fields terminated by "\t";
   
   -- 创建普通表
create table course_common(
id int,
name string,
score int
)
row format delimited fields terminated by "\t";
   -- 普通表加载数据
load data local inpath '/home/hadoop/data/course.dat' into
table course_common;
   
   -- 通过 insert ... select ... 给桶表加载数据
  insert into table course select * from course_common;
  -- 观察分桶数据。数据按照：(分区字段.hashCode) % (分桶数) 进行分区
  备注:
  分桶规则：分桶字段.hashCode % 分桶数
  分桶表加载数据时，使用 insert... select ... 方式进行
  网上有资料说要使用分区表需要设置 hive.enforce.bucketing=true，那是Hive
  1.x 以前的版本；Hive 2.x 中，删除了该参数，始终可以分桶；
  
 
  