from selenium import webdriver
import requests
import os
import time
from bs4 import BeautifulSoup
def get_data(urls):
    driver=webdriver.Chrome()
    # url='https://www.pexels.com/zh-cn/search/woods/?page=1'
    img_path="D://photos/"
    headers={'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/91.0.4472.124 Safari/537.36'}

    if not os.path.exists(img_path):   #判断该文件是否存在
        os.mkdir(img_path)    #创建文件
    img_list=[]  #保存图片地址
    driver.get(urls)  #打开网页
    soup=BeautifulSoup(driver.page_source)  #页面内容解析
    imgs=soup.select('article > a.js-photo-link.photo-item__link > img')  #图片信息
    for img in imgs:
        photo_src=img.get('src')   #取出超链接
        img_list.append(photo_src)
    for img_url in img_list:
        img_data=requests.get(img_url,headers=headers)
        fp = open(img_path+img_url.split('?')[0][-11:-1],'wb')  #取出图片地址数字串和图片格式为文件名
        fp.write(img_data.content)
        fp.close()

if __name__=='__main__':
    a=input("请输入你要搜索的内容")
    b=int(input("由于是高清图片慎重选页数喔，请输入： "))
    for i in range(1,b+1):
        urls='https://www.pexels.com/zh-cn/search/{}/?page=1'.format(a,i)
        get_data(urls)
        time.sleep(2)
        print("已经爬取了{}页".format(i))














