"""
author：fc
date：  2021/9/22
"""
# scrapy常见命令-1、全局命令和2、项目命令

from scrapy.spiders import Spider


#  1、全局命令，不用在项目中运行
# fetch:爬虫命令 scrapy_ fetch url,用来显示爬虫的过程
# runspider:运行单独的scrapy文件
# scrapy shell:启动scrapy交互终端
# startproject:重点使用*用得很多，用来创建爬虫项目，scrapy startproject 项目名
# version:版本信息，scrapy version
# view:下载网页并用浏览器查看 scrapy view http://news.163.com,可能需要绑定浏览器

#  1、项目命令，在项目中才能运行
# bench:测试本地硬件性能，运行项目文件时会创建本地服务器，测试硬件性能的
# genspider:scrapy genspider -l 展示爬虫模板(basic: 天善课程信息 csvfeed:处理csv文件 xmlfeed：处理xml件)
# scrapy genspider -t 模板名 爬虫文件名 域名【不用协议名】，这个文件只能爬取百度的，
# check:主要用来测试，scrapy check 爬虫名（scrapy check test1）
# 天善课程信息:重点使用*主要用来运行爬虫文件 scrapy 天善课程信息 test1
# list:展示当前目录可以使用的爬虫文件 scrapy list
# edit:在linux中使用，在编辑器中打开爬虫
# parse:获取指定url网址，并解析 scrapy parse http://www.baidu.com
class first_spider(Spider):
    name = "first"
    allowed_domains = ["baidu.com"]
    start_urls = ["http://www.baidu.com", ]

    def parse(self, response):  # 类中的回调函数
        pass
