import torch

print(torch.cuda.is_available())  # 是否有可用 GPU
print(torch.cuda.device_count())  # GPU 数量
print(torch.cuda.get_device_name(0))  # 第 0 张 GPU 的名称
print(torch.cuda.memory_allocated(0))  # 当前分配的显存（字节）
print(torch.cuda.memory_reserved(0))  # 当前保留的显存（字节）