# 引入 PyTorch 库，用于检测 CUDA 是否可用（判断是否有 NVIDIA GPU）
import torch

# Whisper 模型的配置参数字典
WHISPER_CONFIG = {
    # 指定模型大小。可选值有 "tiny", "base", "small", "medium", "large"
    # 更大的模型通常会更准确，但需要更多的计算资源
    "model_size": "tiny",  # 可选 tiny/base/small/medium/large

    # 设置运行设备："cuda" 表示使用 GPU，"cpu" 表示使用 CPU
    # torch.cuda.is_available() 用于检测是否可以使用 GPU
    "device": "cuda" if torch.cuda.is_available() else "cpu",

    # 设置语言识别模式为自动检测
    # 如果设置具体语言如 "zh" 表示中文，"en" 表示英文等，则不会自动检测
    "language": "auto",  # 自动检测语言

    # 设置计算精度类型：GPU 使用 float16 节省内存并提高速度，CPU 使用 float32
    "compute_type": "float16" if torch.cuda.is_available() else "float32"
}