# 和 08 脚本一样  ,将spark程序打包  ,部署
#
# 注意: 在执行地理位置回补脚本之前 ,先将session分割脚本执行成功
#
 export  JAVA_HOME=/opt/apps/jdk1.8.0_191
 export  HADOOP_HOME=/opt/apps/hadoop-3.1.1
 export  HIVE_HOME=/opt/apps/hive-3.1.2
 export  SPARK_HOME=/opt/apps/spark-3.1.3

 ${SPARK_HOME}/bin/spark-submit \
 --master  yarn \
 --deploy-mode cluster \
 --class com.yinanxi.cool.RollBackRegion \
 --driver-memory 2g \
 --driver-cores 2 \
 --executor-cores 2 \
 --executor-memory 1g \
 --num-executors 2 \
 --queue default \
 /shells/pre_process-1.0.jar \
 $1

# # 参数的格式是 "'2023-02-16'"