# -*- coding: utf-8 -*-
import scrapy
import re

class Github2Spider(scrapy.Spider):
    name = 'github2'
    allowed_domains = ['github.com']
    start_urls = ['https://github.com/login']

    def parse(self, response):
        yield scrapy.FormRequest.from_response(
            response, #自动从response中寻找form表单
            formdata={
                "login": "Xiaobu-wang",
                "password":"15334183661qqlm"
            },
            callback = self.after_login
        )

    def after_login(self,response):
        print(re.findall("Xiaobu-wang", response.body.decode()))

"""
注意1：
    在发送POST请求之前，可以先去观察Form表单到底有没有action对应的url地址，如果有，那我们的登录过程会变得非常简单
    "<form action="/session" accept-charset="UTF-8" method="post">" ——/session
    只要输入用户名及密码，组成一个含有2条键值对的字典就结束了，其他参数不需要管
注意2：（ctrl+B查看属性/方法源代码）
    如果有多个form表单，通过其他属性可以地位目标form表单

"""