import logging

import requests

ses = requests.session()
resp = requests.get('http://user-p2p-test.itheima.net/common/public/verifycode1/12')

ses.get('http://user-p2p-test.itheima.net/common/public/verifycode1/12')
ivcurl = 'http://user-p2p-test.itheima.net/member/public/sendSms'
form_dict = {'phone': "17211111111", "imgVerifyCode": "8888", "type": "reg"}
resp = ses.post(url=ivcurl, data=form_dict)

print(resp.json())



# 1、导包
from bs4 import BeautifulSoup

data = """
<html> 
    <head>
        <title>黑马程序员</title>
    </head> 
    <body>
        <p id="test01">软件测试</p>
        <p id="test02">2020年</p>
        <a href="/api.html">接口测试</a>
        <a href="/web.html">Web自动化测试</a> 
        <a href="/app.html">APP自动化测试</a>
</body>
</html>
"""
# 2、获取BeautifulSoup对象
a=BeautifulSoup(data,'html.parser')
# 3、调用相关方法
# 获取title标签的全部数据
print(a.title)
# # 获取title标签的内容
print(a.title.string)
print(a.title.get_text())

# # 获取p标签的第一条数据，id属性的值
print(a.p.get('id'))
# 获取所有a标签
print(a.find_all('a'))
# 获取所有a标签的href属性的值
b=[]
for i in a.find_all('a'):
    value=i.get('href')
    b.append(value)
print(b)





# html解析工具
def html_util(response):
    # 1.从响应结果中，获取请求的标签数据
    data=response.json().get('descritpion').get('from')

    # 2.创建beautifulsoup对象
    bs=BeautifulSoup(data,'html.parser')
    # 3.从form标签中获取url
    url=bs.form.get('action')
    # 4. 从input标签中获取请求体数据
    # 4.1 定义一个字典，用来接收请求体的数据
    dict={}
    # 4.2 获取全部的input标签
    input_all=bs.find_all('input')
    # 4.3 循环遍历出每一个input标签
    for i in input_all:

        # 4.4从input标签中获取请求体的字段名
        key = i.get('name')
        # 4.5从input标签中获取请求体的字段值
        value = i.get('value')
        # 4.6.将字段名和值放入定义的请求体数据的字典中
        dict[key]=value
        logging.info(url,dict)
    # 7.返回，带有url和请求体数据的列表
    return [url,dict]

import requests


url='http://mertest.chinapnr.com/muser/publicRequests'




















