import requests
from fake_useragent import FakeUserAgent    # 导入安装的FakeUserAgent库


# 从FakeUserAgent随机生成一个用户代理信息
user_agent = FakeUserAgent().random
print('随机生成的用户代理：', user_agent)

# 定义请求头，在请求的时候使用，以防止被服务器发现我是个爬虫程序。
headers = {
    # 设置用户代理信息（办假证，防止被浏览器发现）
    'User-Agent': user_agent
}

# 定义百度首页的链接
url = 'https://www.baidu.com/'

response = requests.get(url, headers=headers)
# print(response.text)

# 获取请求时的请求头，一般用来判断自身的用户代理信息
print('请求头：', response.request.headers)
