#! /bin/bash

# 获取当前脚本的位置
shell_home="$( cd "$( dirname "${BASH_SOURCE[0]}" )" && pwd )"

# 切换到脚本的位置
cd $shell_home

source /etc/profile

# 获取时间参数
dt=$1

# 将自定义的UDAF函数永久注册到hive中
# 先将jar包放到hdfs中
# hadoop fs -put hive-1.0-SNAPSHOT.jar /bigdata33/jars/
# create function array_string_sum as 'com.shujia.custom.udaf.ArrayStringSum' using jar 'hdfs:/bigdata33/jars/hive-1.0-SNAPSHOT.jar';



# 删除已存在的目录
hdfs dfs -rm -r /hefei_metro_warehouse/dws/dws_out_station_day_top/dt=${dt}

# 创建hive表
hive -f ../hive_ddl/dws_out_station_day_top.sql

# 创建目录
hdfs dfs -mkdir /hefei_metro_warehouse/dws/dws_out_station_day_top/dt=${dt}

# hive增加分区
hive -e 'alter table dws.dws_out_station_day_top add if not exists partition (dt='${dt}');'

# 执行建表语句的sql
hive -f ../hive_dql/dws_out_station_day_top.sql -d dt=${dt}