# coding= utf-8

import requests
import bs4
import urllib.request
import lxml
import os

# 由指定网页地址利用requests获取该网页源代码
url = 'https://www.doutula.com/'
res = requests.get(url)
content = res.content

# 利用bs4进行处理,并将所有满足特征的网页标签(对应图片)装载在列表中
soup = bs4.BeautifulSoup(content,'lxml')
img_list = soup.find_all('img',attrs={'class':'img-responsive lazy image_dta'})


def install_img(url_temp):
    # 先分割动态唯一值存储地址(利用不同图片地址的后几位作为判定值)
    # 用'/'优先进行将字符串分开
    split_list1 = url_temp.split('/')
    # 接收弹出的列表最后一个选项(默认值是对应最后一个选项的)
    filename1 = split_list1.pop()
    # 用'!'再次进行字符串区分
    split_list2 = filename1.split('!')
    # 弹出列表第一个选项
    filename2 = split_list2.pop(0)
    # 拼接地址
    path = os.path.join('spider_one_page', filename2)
    # 下载网页(图片)信息至地址处
    urllib.request.urlretrieve(url_temp, path)


for img in img_list:
    # 遍历每个图片元素标签
    url_img = img['data-backup']
    # 进行每张图片的下载
    install_img(url_img)

