import requests
from bs4 import BeautifulSoup
import pandas as pd

# 定义网页URL
url = 'http://localhost/result.html'

# 发送HTTP GET请求获取网页内容
response = requests.get(url)
response.raise_for_status()  # 如果请求失败，将引发HTTPError异常

# 解析HTML内容
soup = BeautifulSoup(response.text, 'html.parser')

# 这里需要根据实际的HTML结构来提取数据
# 假设我们有一个表格<table>，其行是<tr>，单元格是<td>
# 并且我们想要提取表格中的所有数据
table = soup.find('table')  # 找到第一个<table>标签
rows = table.find_all('tr')  # 找到所有的<tr>标签（即行）

# 初始化一个空列表来存储数据
data = []

# 遍历每一行
for row in rows:
    # 找到行中的所有<td>标签（即单元格）
    cells = row.find_all(['td', 'th'])  # 也可以包括表头<th>
    # 提取每个单元格的文本内容，并添加到当前行的列表中
    row_data = [cell.get_text(strip=True) for cell in cells]
    # 将当前行添加到数据列表中
    data.append(row_data)

# 如果第一行是表头，我们可以将其设置为DataFrame的列名
# 否则，你需要手动设置列名
if data:
    # 假设第一行是表头
    columns = data[0]
    # 移除表头行，只保留数据行
    data = data[1:]
    # 创建DataFrame
    df = pd.DataFrame(data, columns=columns)

    # 将DataFrame保存到Excel文件中
    output_file = 'result.xlsx'
    df.to_excel(output_file, index=False)

    print(f"数据已成功保存到 {output_file}")
else:
    print("未找到任何数据。")