# scrapy关闭时打印scrapy的爬取页面数及成功数量。
def parse(self, response):
    if response.status == 200:
        self.crawler.stats.inc_value('success_xq_url')
        print('已成功获取:', self.crawler.stats.get_value('success_xq_url') + '条数据')


# 当item被爬取，并通过所有 Item Pipeline 后(没有被丢弃(dropped)，发送该信号。
def item_scraped(self, item, spider):
        self.crawler.stats.inc_value('url')


def spider_closed(self, spider):
        print('百度新闻一共抓取到{}条数据'.format(self.crawler.stats.get_value('url')))
# 见下方实例
