# 加载环境变量
source /etc/profile

# 获取当前脚本所在的位置
shell_home="$( cd "$( dirname "${BASH_SOURCE[0]}" )" && pwd )"
# 切换目录
cd $shell_home


# 获取分区参数
ds=$1

# 获取前一天的日期
yesterday=`date -d"yesterday ${ds}" +%Y%m%d`

# 1、删除已存在的目录
hdfs dfs -rm -r /daas/shujia/ods/ods_t_coupon_member_delta/ds=${ds}

# 2、创建表的分区目录
hdfs dfs -mkdir -p /daas/shujia/ods/ods_t_coupon_member_delta/ds=${ds}

# 3、执行dataX脚本
datax.py -p"-Dds=${ds}" ../datax_delta/ods_t_coupon_member_delta.json

# 如果数据采集失败，跳过后面的命令
if [ $? == 0 ]
then
  # 4、增加hive分区
  hive -e "alter table ods.ods_t_coupon_member_delta add if not exists partition(ds='${ds}');"

  # 5、执行合并数据的脚本
  hive -f ../dql/merge_ods_t_coupon_member.sql -d ds=${ds}  -d yesterday=${yesterday}


  hive -e "alter table ods.ods_t_coupon_member DROP if exists partition(ds='${yesterday}');"
  hdfs dfs -rm -r /daas/shujia/ods/ods_t_coupon_member/ds=${yesterday}

else
  echo "数据采集失败"
fi
