#!/bin/bash

# 获取当前脚本的位置
shell_home="$( cd "$( dirname "${BASH_SOURCE[0]}" )" && pwd )"

# 切换到脚本的位置
cd $shell_home

source /home/bigdata03/.bash_profile

# 获取时间参数
ds=$1

# 删除已存在的目录
hdfs dfs -rm -r /daas/motl/bigdata03/ods/ods_e_mz_ave7662niaochanggui/ds=${ds}

# 创建目录
hdfs dfs -mkdir /daas/motl/bigdata03/ods/ods_e_mz_ave7662niaochanggui/ds=${ds}

# 执行datax脚本同步数据
datax.py -p "-Dds=${ds}" ../datax_json/ods_e_mz_ave7662niaochanggui.json

# hive增加分区
hive -e "alter table bigdata03_ods.ods_e_mz_ave7662niaochanggui add if not exists partition (ds='${ds}');"