import scrapy



class FirstSpider(scrapy.Spider):
    # 爬虫文件的名称
    name = "first"
    # 允许的域名 这个属性一般不用
    allowed_domains = ["www.xxx.com"]
    # 起始的url列表，该列表中的url会被scrapy自动发起请求
    start_urls = ["https://www.baidu.com", "https://www.sogou.com"]

    # 用作于数据解析:response参数表示的就是请求成功后对应的响应对象
    def parse(self, response):
        print("url",response)
