# GET方式
# 把参数暴漏在url？key=value&key=value上
#
# POST方式
# 用于FORM注册提交
# 把数据放到requset body里边

#请求头Request Header
# 除了提交参数之外，我们还有定义一些 HTTP 请求的头部信息
# 比如 Accept、Host、cookie、User-Agent等等
# 这些参数也是我们在做爬虫要用到
# 通过这些信息，欺骗服务器，告诉它我们是正规请求
# # 比如
# 我们可以在代码里面设置 cookie 告诉服务器我们就是在这个浏览器请求的会话
# User-Agent 告诉服务器我们是浏览器请求的


# 响应头Response Header
# 当我们请求成功之后
# 服务器会给我们返回响应码之外
# 还有响应头
# 这个头主要是告诉我们数据以什么样的形式展现
# 告诉我们cookie的设置
# 还有一个
# 就是响应体了
# 说白了，就是服务器返回给我们的数据
# 我们点击 Response 就可以看到相关的数据了，这些就是服务器返回给我们的 HTML 源代码

from fake_useragent import UserAgent

获取随机useragent
from fake_useragent import UserAgent
import random

# header 伪装浏览器设置（下面的二选一，看哪个合适）
# ua = UserAgent(use_cache_server=False)
ua = UserAgent(verify_ssl=False)
headers = {'User-Agent':ua.random}
print(headers)

