package com.nju.crawler;

/**
 * @authorliyunfei
 * @date2022/11/21
 **/
public class ToDoList {
    //TODO
    /*
    1.进行server的kafka整合，进行实时数据爬取，kafka实时推送（而非模拟推送）
    2.思考挖掘的信息的价值、意义所在
    3.学习大数据端的 Spark、Flink 以及图计算
    4.Shell CLI和后端管理网站的实现
    5.MySQL 主从的实现，保证DB的高可用
    6.Docker部署、Jekins持续集成
    7.爬取文件的保存（.CSV的专门保存，mongodb文档保存？？，MySQL商业价值数据保存）
    8.爬虫的多样性爬取、分析
    9.日志框架
    10.尝试高性能netty,网络框架请求通信？
    11.多线程端线程--爬虫！！
     */
}
