import torch

# print(f"PyTorch 版本: {torch.__version__}")
# print(f"CUDA 可用: {torch.cuda.is_available()}")
# print(f"CUDA 版本: {torch.version.cuda}")
# print(f"GPU 设备: {torch.cuda.get_device_name(0)}")
#
# # 简单张量计算测试
# x = torch.rand(5, 3).cuda()
# print(f"张量计算:\n{x @ x.t()}")

# import pycuda.autoinit
# from pycuda.compiler import SourceModule
# print("CUDA is available and configured")

#
# print(f"PyTorch 版本: {torch.__version__}")
# print(f"CUDA 可用: {torch.cuda.is_available()}")
# print(f"CUDA 版本: {torch.version.cuda}")

import os
import torch

# 手动指定 CUDA 路径
os.environ["CUDA_HOME"] = "C:\\Program Files\\NVIDIA GPU Computing Toolkit\\CUDA\\v12.9"
os.environ["PATH"] = os.environ["CUDA_HOME"] + "\\bin;" + os.environ["PATH"]

# 初始化 CUDA
if not torch.cuda.is_available():
    torch.cuda.init()

print(f"CUDA 可用: {torch.cuda.is_available()}")
print(f"CUDA 版本: {torch.version.cuda}")