import scrapy


class BaiduSpider(scrapy.Spider):
    # 爬虫名 在一个项目中不能重复
    name = 'Baidu'
    # 允许爬取的域名
    # allowed_domains = ['baidu.com']
    start_urls = ['http://baidu.com/','http://www.fynu.edu.cn/ch2009/index.html']

    def parse(self, response):
        print(response.text)
