"""

1.掌握scarpyredis分布式爬虫的使用



https://search.jd.com/Search?keyword=%E5%9B%BE%E4%B9%A6&enc=utf-8&suggest=1.his.0.0&wq=&pvid=ac1ff7de49e14df8a7e6358e3ebf8ace


目的
通过scrapyredis 分布式爬虫 爬取京东的 二级目录数据 保存到本地


流程 两个大步
1先用基础的scrapy进行数据爬取
    1.1创建 爬虫项目
    1.2编写业务逻辑
        涉及回调
        进行url拼接
2再通过改写 完成scrapyredis分布式爬取
    套公式

"""












