import sys
import io
import requests
from bs4 import BeautifulSoup

# r=requests.get("https://www.csdn.net/")
#
# print(r.status_code)
#
# list=BeautifulSoup(r.text,"html.parser")
#
# list.find_all(attrs={"class":"blog-rank-right-content"})
# print(list.find_all(attrs={"class":"floor-rank-item"}))


# r=requests.get("https://www.9ku.com/music/")
#
# print(r.status_code)
#
# list=BeautifulSoup(r.text,"html.parser")
#
# a=list.find_all(attrs={'id':'f1'})
# tit=a[0].find_all(attrs={'class':'songName'})
#
# with open("test.txt", "w") as f:
#     for a1 in tit:
#         f.write(a1.text)
#         f.write('\n')


# 获取网站内容
r=requests.get("https://top.baidu.com/board?tab=car")
# 查看请求码
print(r.status_code)
#改变标准输出的默认编码
sys.stdout = io.TextIOWrapper(sys.stdout.buffer,encoding='utf-8')
# 将网站内容放到BeautifulSoup库中解析
list=BeautifulSoup(r.text,"html.parser")
# 根据类定位到信息的大位置
a=list.find_all(attrs={'class','container-bg_lQ801'})
# 再详细的进一步定位
b=a[0].find_all(attrs={'class','c-single-text-ellipsis'})
# 去重
# b=set(b)
# 输出到并且保存至title_list.txt文本文件，“w”是写入，如果没有该文件就创建，有的话就覆盖文件中的内容写入
with open("title_list.txt","w") as f:
    f.write("汽车排行榜"+'\n')
    # 将我们上面获取到的数据遍历出来
    for tit in b:
        # 循环将我们的信息写入到文件中
        f.write(tit.text)
        # 换行
        f.write('\n')
    f.write("\n")