"""



"""

import requests
# url资源定位符  确认需要爬取的数据的资源位置
# 观察数据包的requests headers 是get请求方法
url="http://www.baidu.com/?"
# verify 是绕过ssl网络验证
# 通过requests库的get方法 向"https://www.baidu.com/?"发送请求 》返回响应 名字为 response
response=requests.get(url,verify=False)
# print(response)
# 查看响应码 response.status_code   Status Code: 200 OK  比并且返回的是int类型的
response_code=response.status_code
# print(response_code,type(response_code))
"""
200表示请求成功 
"""
# 作为是否清洗数据 或者说继续爬取的条件
# if response_code==200:
#     print("这个方法 是执行这个网页的数据清洗方法")
#     print("这个方法 是执行翻页操作 继续进行爬取的")
# else:
#     print("没有返回数据 响应码不是两百")

# 查看对应的响应请求头   User-Agent 用户代理 使用的是什么身份进行访问
# response_header=response.request.headers
# print(response_header)
#
# #响应头的获取
# response_headers=response.headers
# print(response_headers)
# js逆向会出现 关键参数会放在这里面

# res_cookie=response.cookies
# print(res_cookie)





