#!/bin/bash
# 清理所有采集服务器上产生的数据   position  file-channel
# 清理HDFS上的数据目标目录

export HADOOP_HOME=/opt/apps/hadoop-3.1.1
# 1.清理HDFS上的数据目标目录
$HADOOP_HOME/bin/hdfs dfs  -rm -f  -r /flume_demo01

# 2. 清理所有采集服务器上产生的数据  循环
#  通过加载配置文件的方式  加载服务器列表   1) `cat /shells/worker` 2) $(cat /shells/worker)
for hostname in $(cat /shells/worker)
do
  echo "正在清理 ${hostname} 服务器上Flume产生的中间数据........."
  ssh ${hostname}  "rm -rf /opt/flume_data/"
done
