import scrapy


class CarSpider(scrapy.Spider):
    name = 'car'
    # allowed_domains 在生成的时候 会在前面加https 在后面会后面加/变成成start_urls
    allowed_domains = ['https://car.autohome.com.cn/price/brand-36.html']
    start_urls = ['https://car.autohome.com.cn/price/brand-36.html']

    # parse方法   必须返回的可以迭代的对象  []   生成器
    # parse方法中的response就是起始的url的返回值  相当于执行了一次urllib.requset.urlopen
    def parse(self, response):
        print('运行爬虫文件')
        car_lsit = []
        # print(response.body)
        src_list = response.xpath('//div[@id="brandtab-1"]//a/img/@src')
        name_list = response.xpath('//div[@id="brandtab-1"]//div[@class="list-cont-main"]/div/a/text()')
        for i in range(len(src_list)):
            car = {}
            car['src'] = src_list[i].extract()
            car['name'] = name_list[i].extract()
            car_lsit.append(car)
        return car_lsit
