import requests

# 定义请求头，在请求的时候使用，以防止被服务器发现我是个爬虫程序。
headers = {
    # 设置用户代理信息（办假证，防止被浏览器发现）
    'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/114.0.0.0 Safari/537.36'
}

# 定义百度首页的链接
url = 'https://www.baidu.com/'

response = requests.get(url, headers=headers)
print(response.text)

# 获取请求时的请求头，一般用来判断自身的用户代理信息
print('请求头：', response.request.headers)

# 创建一个空白的html文件，并将响应的数据以字节的方式写入空白文件中
with open('baidu02.html', 'wb') as file:
    file.write(response.content)

