#*************************************************************************************
# ** 文件名称: sqoop_hdfs_mysql.sh
# **  功能描述：通过sqoop把hdfs数据导入mysql
# **   创建者 ： **
# **   修改日期 ：19-6-13
# **    修改人 ：
# **    修改内容：
# ************************************************************************************
#!/usr/bin/env bash

DAT=`date -d '-1 day' "+%Y-%m-%d"`
sysdate= ` date  "+%Y-%%m-%d" `

#如果有参数传入，重跑脚本时使用（06-13号跑06-09的任务时）
#$1代表执行脚本时，传入的第一个参数 $n,第n个参数
if [ $1 ] ; then
   DAT =$1
fi

echo "${DAT}"

    sqoop export \
    --connect 'jdbc:mysql://192.168.243.133:3306/big_data_result?useUnicode=true&characterEncoding=utf-8' \
    --username root \
    --password root  \
    --table mmall_order_info -m 1 \
    --hive-partition-key day \
    --hive-partition-value "${DAT}" \
    --fields-terminated-by ',' \
    --update-key id  \
    --update-mode allowinsert \
    --input-null-string 'NULL' \
    --input-null-non-string 'NULL' \
    --export-dir "/user/hive/warehouse/fdm.db/fdm_order_info/day=${DAT}/"

