#!/usr/bin/env bash
#***********************************************************************************
# **  文件名称: MergeLocationJob.sh
# **  创建日期: 2019年11月7日
# **  编写人员: qinxiao
# **  输入信息:
# **  输出信息:
# **
# **  功能描述:融合表生成脚本
# **  处理过程:
# **  Copyright(c) 2016 TianYi Cloud Technologies (China), Inc.
# **  All Rights Reserved.
#***********************************************************************************

#***********************************************************************************
#==修改日期==|===修改人=====|======================================================|
#
#***********************************************************************************


#获取脚本所在目录
shell_home="$( cd "$( dirname "${BASH_SOURCE[0]}" )" && pwd )"

#进入脚本目录
cd $shell_home


# sh MergeLocationJob.sh 20180503
day_id=$1

# 生成数据融合表
spark-submit --master yarn-client --class com.shujia.dwi.MergeLocationJob  --num-executors 4 --jars common-1.0.jar dw-1.0.jar $day_id

#增加分区
hive -e "alter table dwi.dwi_res_regn_mergelocation_msk_d  add if not exists partition(day_id='$day_id') ;"










