import torch
import requests
# 打印 PyTorch 版本
print(f"PyTorch Version: {torch.__version__}")


# 检查是否有可用的 CUDA 设备
if torch.cuda.is_available():
    print("CUDA is available.")
    # 获取当前默认的 CUDA 设备(显卡型号)
    device = torch.device("cuda")
    print(f"Current CUDA Device: {torch.cuda.get_device_name(device)}")
    # 获取 CUDA 版本
    print(f"CUDA Version: {torch.version.cuda}")
    print(f"当前设备: {torch.cuda.current_device()}")
    print(f"设备名: {torch.cuda.get_device_name(0)}")
    
else:
    print("CUDA is not available. Using CPU instead.")
    device = torch.device("cpu")

# 如果有多个 GPU，可以列出所有可用的 GPU
if torch.cuda.device_count() > 1:
    print(f"Number of available GPUs: {torch.cuda.device_count()}")
    for i in range(torch.cuda.device_count()):
        print(f"GPU {i}: {torch.cuda.get_device_name(i)}")