import scrapy


class FirstSpider(scrapy.Spider):
    # 爬虫文件名称：唯一标识！
    name = 'first'
    # 允许的域名，限制start_urls中的那些地址可以请求 通常不使用
    allowed_domains = ['www.baidu.com']
    # 起始url列表: start_urls列表中的地址会被scrapy自动请求
    start_urls = [
        'http://www.baidu.com/',
        'http://www.sogou.com/',
    ]

    def parse(self, response):
        """
        数据解析
        @params:
            response: 请求start_urls中地址的一个返回对象
        """
        print(response)
