#爬取图片
#爬取分页图片

import requests

import re

import os
if __name__ == "__main__":
    headers = {
        'User Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/105.0.0.0 Safari/537.36'
    }
    #创建一个文件夹，保存所有图片
    if not os.path.exists('./tupianLibs'):#如果这个文件夹不存在则创建...
        os.mkdir('./tupianLibs')
    #设定一个通用的URL模板
    url='https://qiushibaike.com/pic/page/%d/?s=5184961'# %d表示该图片页码
    #pageNum = 2
    for pageNum in range(1,36):#爬取前35页图片
        #对应页码的URL
        new_url = format(url%pageNum)

        #使用通用爬虫对URL对应的一整张页面进行爬取
        page_text = requests.get(url=new_url,headers=headers).text
        #使用聚焦爬虫将页面中所有的图片进行解析/提取
        ex='<div class="index-module_contentImg_JmmC0">.*?<img src="(.*?)“ alt.*?</div>'#正则
        img_src_str = re.findall(ex,page_text,re.S)
        #print(img_src_list)
        for src in img_src_str:
            #拼接出一个完整的图片URL
            src = 'https:'+ src
            #请求到了图片的二进制数据
            img_data = requests.get(url=src,headers=headers).content
            #生成图片名称
            img_name = src.split('/')[1]      #图片名称取到最后一位
            #图片存储路径
            imgPath = './tupianLibs'+img_name
            #持久化存储
            with open(imgPath,'wb') as fp:
                fp.write(img_data)
                print(img_name,'下载成功！！！')
