# -*- coding: utf-8 -*-

# 1、	抓取网站 新浪微博http://weibo.com/login.php?url=http%3A%2F%2Fweibo.com%2Fu%2F6309963572%2Fhome（8分）
# 2、	抓取转发、评论、点赞的相关用户信息（8分）
# 3、	抓取昵称、所在地、性别、生日、简介、注册时间这几个属性（8分）
# 4、	将这些个属性入库到mysql的表A（8分）
# 5、	抓取关注数，粉丝数，粉丝信息（昵称、所在地、性别、生日）（8分）
# 6、	将这些个属性入库到mysql的另外一张表B（8分）
# 7、	将A和B表做主外键关联（8分）

import scrapy, re


class WeiboSpider(scrapy.Spider):
    name = 'weibo'
    allowed_domains = ['xxx']
    start_urls = ['https://weibo.com/u/6309963572?is_all=1']

    def parse(self, response):
        # print(response.text)
        nicheng = re.findall('user_name\\">.*?<', response.text, re.S)
        print(nicheng)
