import whisper
import torch

# 检查是否有 GPU
device = "cuda" if torch.cuda.is_available() else "cpu"

# 加载 Whisper-large-v3 模型
model = whisper.load_model("large-v3").to(device)

# 指定音频文件路径，写你自己的，如果音频在同级目录下，直接声明即可，如果不在，要写完整的地址
audio_file = "dataset/口香糖开椰子.wmv"

# 强制设置语言为中文进行转录
result = model.transcribe(audio_file, language="zh", fp16=True if device == "cuda" else False)

# 打印识别结果
print("识别结果:", result["text"])

