import scrapy


class BaiduSpider(scrapy.Spider):
    # 爬虫名称
    name = "baidu"
    # 允许的域名
    allowed_domains = ["www.baidu.com"]
    # 起始url 在allowed_domains的前面添加了http://
    start_urls = ["http://www.baidu.com"]

    # 是执行了start_urls之后 执行的方法 方法中的response就是返回的那个对象
    # 相当于response = urllib.request.urlopen()
    #    和 response = requests.get()
    def parse(self, response):
        print("我是一个百度的爬虫程序")
