# 这是一个示例 Python 脚本。

# 按 Shift+F10 执行或将其替换为您的代码。
# 按 双击 Shift 在所有地方搜索类、文件、工具窗口、操作和设置。


def print_hi(name):
    # 在下面的代码行中使用断点来调试脚本。
    print(f'Hi, {name}')  # 按 Ctrl+F8 切换断点。


# 按装订区域中的绿色按钮以运行脚本。
import pandas as pd
import requests
from bs4 import BeautifulSoup

# 从txt文件中读取网址
import pandas as pd
import requests
from bs4 import BeautifulSoup

# 读取网址列表
with open('urls.txt', 'r', encoding='utf-8') as f:
    urls = f.read().splitlines()

# 创建Excel写入器
writer = pd.ExcelWriter('novels_info.xlsx')

# 遍历网址并获取数据
for idx, url in enumerate(urls, start=1):
    response = requests.get(url)
    soup = BeautifulSoup(response.content, 'html.parser')

    # 尝试获取小说信息
    try:
        title = soup.find('title').text.strip()
        author = soup.find('meta', {'property': 'og:novel:author'}).get('content')
        status = soup.find('meta', {'property': 'og:novel:status'}).get('content')
        update_time = soup.find('meta', {'property': 'og:novel:update_time'}).get('content')

        # 创建DataFrame保存小说信息
        data = {'标题': [title], '作者': [author], '状态': [status], '更新时间': [update_time]}
        df = pd.DataFrame(data)

        # 写入Excel文档的不同sheet中
        sheet_name = f'网站{idx}'
        df.to_excel(writer, sheet_name=sheet_name, index=False)

        print(f'已获取并保存第 {idx} 个网站的数据：{title}')
    except Exception as e:
        print(f'获取网站数据时发生错误：{e}')

# 保存Excel文件
writer.close()
print('数据保存完成！')