Exercice pratique

Dans cette unité, nous avons exploré les défis du finetuning des modèles d’ASR, en mettant en avant le temps et les ressources nécessaires pour finetuner un modèle comme Whisper (même un petit checkpoint) sur une nouvelle langue. Afin de fournir une expérience pratique, nous avons conçu un exercice qui vous permet de naviguer dans le processus de finetuning d’un modèle d’ASR tout en utilisant un jeu de données plus petit. L’objectif principal de cet exercice est de vous familiariser avec le processus plutôt que de vous attendre à des résultats de niveau production. Nous avons délibérément fixé une métrique basse pour que vous puissiez l’atteindre, même avec des ressources limitées.

Voici les instructions :

Une fois que vous avez finetuné un modèle, assurez-vous de le télécharger sur le 🤗 Hub avec les kwargs suivants :

kwargs = {
    "dataset_tags" : "PolyAI/minds14",
    "finetuned_from" : "openai/whisper-tiny",
    "tasks" : "automatic-speech-recognition",
}

Nous considérons cet exercice réussi si le WER normalisé (wer) de votre modèle est inférieur à 0.37.

N’hésitez pas à construire une démo de votre modèle obtenu et à la partager sur Discord ! Si vous avez des questions, posez-les dans le canal `#audio-study-group.