 1.执行 job
   
   执行数据增量导入有两种实现方式：
   1).每次手工配置last-value，手工调度
   2).使用job，给定初始last-value，定时任务每天定时调度
   很明显方式2更简便。
   (1).创建口令文件
   echo -n "12345678" > sqoopPWD.pwd
hdfs dfs -mkdir -p /sqoop/pwd
hdfs dfs -put sqoopPWD.pwd /sqoop/pwd
hdfs dfs -chmod 400 /sqoop/pwd/sqoopPWD.pwd
    
	# 可以在 sqoop 的 job 中增加：
     --password-file /sqoop/pwd/sqoopPWD.pwd
   (2).创建 sqoop job
   # 创建 sqoop job
   sqoop job --create myjob1 -- import \
--connect jdbc:mysql://linux123:3306/sqoop?useSSL=false \
--username hive \
--password-file /sqoop/pwd/sqoopPWD.pwd \
--table goodtbl \
--incremental append \
--hive-import \
--hive-table mydb.goodtbl \
--check-column serialNumber \
--last-value 0 \
-m 1
    # 查看已创建的job
    sqoop job --list
    # 查看job详细运行时参数
    sqoop job --show myjob1
    # 执行job
    sqoop job --exec myjob1
	# 删除job
    sqoop job --delete myjob1
   (3).执行job
   sqoop job --exec myjob1
   (4).查看数据
   select count(*) from goodtbl;
   实现原理：
   因为job执行完成后，会把当前check-column的最大值记录到meta中，下次再调起
时把此值赋给last-value。
   缺省情况下元数据保存在 ~/.sqoop/
   其中，metastore.db.script 文件记录了对last-value的更新操作：
   cat metastore.db.script |grep incremental.last.value 