# -*- coding: utf-8 -*-

# 1.获取网页源码（4分）
# 2.获取累计评价（8分）
# 3.获取前10页评论（8分）
# 4.获取前10页的评论人（8分）
# 5.获取商品详情（8分）
# 6.将评论和评论人存入mango数据库（8分）
# 7.将评论存为TXT文件（8分）
# 8.将评论存为json格式（8分）
# 9.获取商品人气（4分）
# 10.获取商品价格和口味（4分）
# 11.将数据存入mysql数据库（4分）
# 12.获取生产日期（4分）
# 13.将生产日期存入redis数据库（4分）
# 1.函数格式正确（5分）
# 2.功能实现完善（5分）
# 3.一定要有返回值，不许在函数中打印（5分）
# 4.无异常（5分）

import scrapy, re, time


class JianguoSpider(scrapy.Spider):
    name = 'jianguo'
    # allowed_domains = ['xxx']
    start_urls = [
        'https://rate.tmall.com/list_detail_rate.htm?itemId=16455487050&spuId=269314319&sellerId=880734502&order=3&currentPage=1']

    # for page in range(2, 11):
    #     url = 'https://rate.tmall.com/list_detail_rate.htm?itemId=16455487050&spuId=269314319&sellerId=880734502&order=3&currentPage=' + str(
    #         page)
    #     start_urls.append(url)

    def parse(self, response):
        print(response.text)
        name = re.findall('"displayUserNick":"(.*?)"', response.text, re.S)
        comment = re.findall('"rateContent":"(.*?)"', response.text, re.S)
        print(name)
        # dicta = dict(zip(name, comment))
        # print(dicta)
        # time.sleep(5)
