"""

crawl_spider使用  爬虫文件
不需要提取一级目录的url 再次构建回调函数发送请求
直接在一级目录里面匹配二级目录 自动发送请求


创建命令
创建爬虫项目的命令和普通的scrapy爬虫是一样的
scrapy startproject 爬虫项目名
注意切换路径

创建crawl_spider命令
固定的参数
scrapy genspider -t crawl 爬虫名 域名  六个关键字  前四个是写死的  后两个变化

运行命令和普通的运行命令是一样的
scrapy crawl 爬虫名    /--nolog

"""
















