import requests
import os
kw = input('请输入一个查询的关键字：')
url =f'https://www.sogou.com/web'
#UA伪装
# 使用requests模拟浏览器向服务器发送请求，服务器会判断你请求的设备是什么样的情况，如果发现你是一个不正常请求头，可能就是一个爬虫，服务器看到你是一个爬虫，可能就不给你发送合格数据
headers = {
    'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/87.0.4280.66 Safari/537.36'
}
params = {
    'query':kw
}
#1 、 模拟浏览器发起一个get请求
response = requests.get(url=url,headers = headers,params= params)
#2、 服务器响应结果的文本
html = response.text
print (response.url)
# print(response.text)
# 3、 保存文件
#判断文件夹不存在的话，就新建一个文件夹 ，再写入html文件
#如果存在文件目录了，就直接写入这个文件
if not os.path.exists('HTML'):
    os.mkdir('HTML')
    with open(f'HTML/{kw}.html',mode='w',encoding='utf-8') as f:
        f.write(html)
        print(f'{kw}.html文件写入到指定的目录了')
else:
    with open(f'HTML/{kw}.html',mode='w',encoding='utf-8') as f:
        f.write(html)
        print(f'{kw}.html文件写入到指定的目录了')