# -*- coding: utf-8 -*-
"""
1.ip被封，要构建代理ip池。
2.要设置爬取速度，爬取速度过于快，会被识别为爬虫。
3.此处的模拟翻页，使用js实现翻页的，与job.py不同 scrapy-js
4.此爬虫的start_url与job.py不同，获取的页面结构也不同
"""
import scrapy


class Job2Spider(scrapy.Spider):
    name = 'job2'
    allowed_domains = ['163.com']
    start_urls = ['https://hr.163.com/job-list.html']

    def parse(self, response):
        pass
