# 1、发起请求
# 2、对响应回来的主页面进行解析，拿到具体图片的详情页
# 3、到达详情页后，获取图片的链接地址，访问后，拿到图片资源保存在本地
import requests
# 使用beautifulSoup需要进行安装 pip install beautifulsoup4
from bs4 import BeautifulSoup
import time
url="https://www.umei.cc/weimeitupian/yijingtupian/"
resp=requests.get(url)
# 处理页面字符集乱码问题
resp.encoding="utf-8"
# print(resp.text)
main_page=BeautifulSoup(resp.text,"html.parser")
# 在BeautifulSoup中有两个常用的方法，一个是find 一个是find_all
# 此行代码表示找到div class=item_list infinite_scroll 下面的所有a标记
alst=set(main_page.find("div",class_="item_list infinite_scroll").find_all("a"))
for i in alst:
    # 拼接子页面的访问路径
    child_url="https://www.umei.cc"+i.get("href")
    # 拿到详情页面的响应结果
    child_context=requests.get(child_url).text
    child_imgSrc=BeautifulSoup(child_context,"html.parser")
    child_imgSrc_context=child_imgSrc.find("div",attrs={"class":"big-pic"}).find("img")
    img_src_final=child_imgSrc_context.get("src")
    imgreps=requests.get(img_src_final)
    imgContextfinal=imgreps.content
    # 对下载路径进行分割，拿到最后一段内容作为文件名
    img_name=img_src_final.split("/")[-1]
    open('img\\'+img_name,"wb").write(imgContextfinal)
    time.sleep(1)
    print("{}保存成功".format(img_name))
    pass






