Python Beispill Code

#2
by yvesg - opened

Gudde Mëtteg

wär et méiglech ee Beispill ze kréien, wéi een de Model richteg notzt.
E puer Zeilen python Code an déi genee Versioun vun den Librarien géif wierklech hëllefen

merci

@yvesg

Et gi verschidde Méiglechkeeten. Hei emol eng einfach:

import os
import torch
from transformers import pipeline

device = "cuda:0" if torch.cuda.is_available() else "cpu"

pipe = pipeline(
    "automatic-speech-recognition",
    model=PATH_TO_HUGGINGFACE_MODEL,
    chunk_length_s=30,
    device=device,
    max_new_tokens=100,
)

result = pipe(MP3_FILE)

print(result)

Alternativ kann een de Modell vum Huggingface-Format zréck an d'Original Whisper-Format konvertéieren. Detailer: https://huggingface.co/docs/transformers/main/en/model_doc/whisper#resources
Da gesäit et esou aus:

import os
import whisper

model = whisper.load_model(PATH_TO_WHISPER_MODEL, device="cuda")

result = model.transcribe(MP3_FILE)

print(result)

An da kann een de Modell och nach an d'CTranslate2-Format ëmwandelen an "Faster Whisper" notzen. Do ass hei méi ze fannen: https://github.com/SYSTRAN/faster-whisper

villmols merci.
da kucken ech mol, wat ech do fir Resultater kréien

Sign up or log in to comment