import torch
print("Default Device:{}".format(torch.Tensor([4,5,6]).device))

device = torch.Tensor([1,2,3],device="cpu:0").device
print(device)

cpu1 = torch.device("cpu:0")  # 标注指定为cpu
print(cpu1)

gpu = torch.device(0)   # 直接指定为gpu，不需要声明
print(gpu.type)

gpu = torch.device("cuda:0")  # 指定哪块gpu
print(gpu)

print("Torch GPU Count:{}".format(torch.cuda.device_count()))    # 获取可用GPU设备数量

print("Torch CPU Count:{}".format(torch.cuda.os.cpu_count()))    # 获取可用CPU设备数量

print(torch.cuda.get_device_name(torch.device("cuda:0")))     # 获得GPU设备名称

print(torch.cuda.is_available())      # GPU设备是否可用

print(torch.cuda.memory_reserved(device="cuda")) #剩余内存

print(torch.cuda.device_count())
torch.cuda.empty_cache()
torch.cuda.mem_get_info()