#!/bin/bash

# 获取当前脚本的位置
shell_home="$( cd "$( dirname "${BASH_SOURCE[0]}" )" && pwd )"

# 切换到脚本的位置
cd $shell_home

source /etc/profile

# 获取时间参数
ds=$1

# 删除已存在的目录
hdfs dfs -rm -r /daas/szt/ods/ods_szt_data/ds=${ds}


# 创建目录
hdfs dfs -mkdir /daas/szt/ods/ods_szt_data/ds=${ds}

# 执行datax脚本同步数据
datax.py -p "-Dds=${ds}" ../datax_json/mysql2hive_ods_szt_data.json

# hive增加分区
hive -e 'alter table ods.ods_szt_data add if not exists partition (ds='${ds}');'