from DrissionPage import ChromiumPage
from bs4 import BeautifulSoup
import requests
import os

# 启动浏览器并获取页面
page = ChromiumPage()
url = 'https://fabiaoqing.com/biaoqing/lists/page/1.html'
page.get(url)

headers = {
    'Cookie': 'PHPSESSID=7c8nj8rf1rm23a414pf5fp19go; __gads=ID=b594155f6196cdf8:T=1747795357:RT=1747967732:S=ALNI_MY4DkwRhSs8FHoHWxXJBJJPFB4vCg; __gpi=UID=000010c9950145ec:T=1747795357:RT=1747967732:S=ALNI_MYWfeahL1V26b6wmlZuiUxxkPCnLg; __eoi=ID=41f8bcd8d5110aa6:T=1747795357:RT=1747967732:S=AA-AfjYCCCiQ-trYEWyrBOxNhxJq',
    'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/133.0.0.0 Safari/537.36',
    'Referer': 'https://www.fabiaoqing.com/' #Referer里记录的是请求的来路，所以通过设置Referer黑白名单，可以控制哪个页面或者域名过来的请求是可以访问的。
}

# 获取页面HTML
html_content = page.html

# 使用BeautifulSoup解析
soup = BeautifulSoup(html_content, 'html.parser')

# 提取所有img标签的src属性（包括data-original）
img_urls = []
for img in soup.find_all('img'):
    # 优先取data-original（懒加载图片），没有则取src
    img_url = img.get('data-original') or img.get('src')
    if img_url:
        img_urls.append(img_url)

images = 'img'
if not os.path.exists(images): #如果不存在就创建images目录
    os.mkdir('img') #使用os模块创建一个目录

# 打印结果
for i, url in enumerate(img_urls, 1):
    if url.startswith('http'):
        res = requests.get(url, headers=headers,timeout=10)
        with open(images + '/' + str(i) + '.jpg', 'wb') as f:
            f.write(res.content)
            print(str(i) + '.jpg')

print(f"\n共找到 {len(img_urls)} 张图片")

# 关闭浏览器
page.close()