import requests
from bs4 import BeautifulSoup
import json
import csv


def fetch_nba_rankings(url):
    # 发送HTTP请求并获取HTML内容
    response = requests.get(url)
    response.raise_for_status()  # 如果请求失败，抛出异常
    html_content = response.text

    # 解析HTML内容（这里只是一个示例，实际解析可能更复杂）
    soup = BeautifulSoup(html_content, 'html.parser')
    # 假设每个球队的数据都在一个特定的HTML元素中，如<div class="team">...</div>
    teams = []  # 用于存储球队数据的列表
    # 这里需要编写循环和选择器来提取每个球队的数据
    # ...

    # 假设teams列表已经填充了数据，接下来保存为JSON或CSV

    # 保存为JSON
    with open('nba_rankings.json', 'w', encoding='utf-8') as f:
        json.dump(teams, f, ensure_ascii=False, indent=2)

        # 保存为CSV（假设teams列表中的字典有'team_name', 'wins', 'losses'等键）
    with open('nba_rankings.csv', 'w', newline='', encoding='utf-8') as f:
        writer = csv.DictWriter(f, fieldnames=['team_name', 'wins', 'losses', 'other_fields'])  # 根据实际情况调整字段名
        writer.writeheader()
        for team in teams:
            writer.writerow(team)

        # 替换为实际的URL


url = 'https://slamdunk.sports.sina.com.cn/rank#type=conference'  # 注意：URL中的#及其后的内容通常不会被发送到服务器
fetch_nba_rankings(url)