package com.zjl.Kafka.第04章_分布式扩展;

/**
 * flume是一个分布式、可靠、和高可用的海量日志采集、聚合和传输的系统。
 * 支持在日志系统中定制各类数据发送方，用于收集数据;
 * 同时，Flume提供对数据进行简单处理，并写到各种数据接受方(比如文本、HDFS、Hbase等)的能力 。
 * flume的数据流由**事件(Event)**贯穿始终。
 * 事件是Flume的基本数据单位，它携带日志数据(字节数组形式)并且携带有头信息，这些Event由Agent外部的Source生成，
 * 当Source捕获事件后会进行特定的格式化，然后Source会把event推入(单个或多个)Channel中。
 * 你可以把Channel看作是一个缓冲区，它将保存事件直到Sink处理完该事件。
 * Sink负责持久化日志或者把事件推向另一个Source。
 *
 * 学习：https://blog.csdn.net/m0_58050808/article/details/140053973
 *
 * 下载地址：
 *      https://flume.apache.org/download.html
 * 下载 	apache-flume-1.11.0-bin.tar.gz （需要jdk）
 *  1.解压，
 *  2.在config的目录下，找到 flume-env.sh.template 文件 设置启动参数
 *      如： export JAVA_HOME=/opt/server/jdk1.8.0_371
 *         export JAVA_OPTS="-Xms256m -Xmx256m -Dcom.sun.management.jmxremote"
 *
 *      修改名字为 sh文件 ：   flume-env.sh
 *  3.配置环境变量
 *        在/etc/profile 文件中添加环境变量 并  source  /etc/profile   刷新
 *       # Flume环境变量
 *      export FLUME_HOME=/opt/server/flume
 *      export PATH=$FLUME_HOME/bin:$PATH
 *  4.创建一个 job 文件夹（目的是创建同步的容器）
 *      在里面创建一个 file_to_kafka.conf 内容详见 file_to_kafka.conf
 *  5.启动 flume
 *      bin/flume-ng agent -n a -c conf/ -f job/file_to_kafka.conf
 *          a：    conf中   agent 的名字
 *          job/file_to_kafka.conf  :配置文件的路径
 *  6.创建 日志路径 的.log文件  就会自动同步
 */
public class E_Flume日志采集 {

}
