Le Hub abrite plusieurs centaines de modĂšles prĂ©-entraĂźnĂ©s pour la classification dâaudio. Dans cette section, nous passerons en revue certaines des tĂąches de classification dâaudio les plus courantes et suggĂ©rerons des modĂšles prĂ©-entraĂźnĂ©s appropriĂ©s pour chacune. En utilisant la classe pipeline()
, la commutation entre les modĂšles et les tĂąches est simple : une fois que vous savez comment utiliser pipeline()
pour un modĂšle, vous pourrez lâutiliser pour nâimporte quel modĂšle sur le Hub, sans modification du code ! Cela rend lâexpĂ©rimentation de la classe pipeline()
extrĂȘmement rapide, ce qui vous permet de sĂ©lectionner rapidement le meilleur modĂšle prĂ©-entraĂźnĂ© pour vos besoins.
Avant de passer aux diffĂ©rents problĂšmes de classification dâaudio, rĂ©capitulons rapidement les architectures de transformers gĂ©nĂ©ralement utilisĂ©es. Lâarchitecture standard de classification dâaudio est motivĂ©e par la nature de la tĂąche. Nous voulons transformer une sĂ©quence dâentrĂ©es audio (câest-Ă -dire notre rĂ©seau audio dâentrĂ©e) en une prĂ©diction dâĂ©tiquette de classe unique. Les modĂšles dâencodeur associent dâabord la sĂ©quence audio dâentrĂ©e dans une sĂ©quence de reprĂ©sentations Ă lâĂ©tat cachĂ© en faisant passer les entrĂ©es Ă travers un bloc transformer. La sĂ©quence de reprĂ©sentations dâĂ©tats masquĂ©s est ensuite associĂ©e Ă une sortie dâĂ©tiquette de classe en prenant la moyenne sur les Ă©tats masquĂ©s et en faisant passer le vecteur rĂ©sultant Ă travers une couche de classification linĂ©aire. Par consĂ©quent, il y a une prĂ©fĂ©rence pour les modĂšles encodeur pour la classification dâaudio.
Les modĂšles de dĂ©codeur introduisent une complexitĂ© inutile Ă la tĂąche car ils supposent que les sorties peuvent Ă©galement ĂȘtre une sĂ©quence de prĂ©dictions (plutĂŽt quâune prĂ©diction dâĂ©tiquette de classe unique), et gĂ©nĂšrent ainsi plusieurs sorties. Par consĂ©quent, ils ont une vitesse dâinfĂ©rence plus lente et ont tendance Ă ne pas ĂȘtre utilisĂ©s. Les modĂšles encodeur-dĂ©codeur sont largement omis pour la mĂȘme raison. Ces choix dâarchitecture sont analogues Ă ceux de NLP, oĂč les modĂšles dâencodeur tels que BERT sont privilĂ©giĂ©s pour les tĂąches de classification de sĂ©quences, et les modĂšles de dĂ©codeur tels que GPT rĂ©servĂ©s aux tĂąches de gĂ©nĂ©ration de sĂ©quences.
Maintenant que nous avons rĂ©capitulĂ© lâarchitecture du transformer standard pour la classification dâaudio, passons aux diffĂ©rents sous-ensembles de la classification dâaudio et couvrons les modĂšles les plus populaires !
Au moment de la rĂ©daction de cette section, les derniĂšres mises Ă jour requises pour le pipeline de classification dâaudio se trouvent uniquement sur la version « principale » du dĂ©pĂŽt đ€ Transformers, plutĂŽt que sur la derniĂšre version de PyPi. Pour nous assurer que nous avons ces mises Ă jour localement, nous allons installer Transformers Ă partir de la branche main
avec la commande suivante :
pip install git+https://github.com/huggingface/transformers
Le repĂ©rage de mots clĂ©s (KWS pour Keyword spotting) est la tĂąche dâidentifier un mot-clĂ© dans un discours. Lâensemble des mots-clĂ©s possibles forme lâensemble des Ă©tiquettes de classe prĂ©dites. Par consĂ©quent, pour utiliser un modĂšle de repĂ©rage de mots clĂ©s prĂ©-entraĂźnĂ©, vous devez vous assurer que vos mots-clĂ©s correspondent Ă ceux sur lesquels le modĂšle a Ă©tĂ© prĂ©-entraĂźnĂ©. Ci-dessous, nous prĂ©senterons deux jeux de donnĂ©es et modĂšles pour la dĂ©tection de mots clĂ©s.
Commençons en utilisant le mĂȘme jeu de donnĂ©es MINDS-14 explorĂ© dans lâunitĂ© prĂ©cĂ©dente. Si vous vous souvenez, MINDS-14 contient des enregistrements de personnes posant des questions Ă un systĂšme bancaire Ă©lectronique dans plusieurs langues et dialectes, et a indique une classe dâintention pour chaque enregistrement. Nous pouvons donc classer les enregistrements par intention de lâappel.
from datasets import load_dataset
minds = load_dataset("PolyAI/minds14", name="en-AU", split="train")
Nous allons charger le checkpoint "anton-l/xtreme_s_xlsr_300m_minds14"
, qui est un modĂšle XLS-R finetunĂ© sur MINDS-14 pendant environ 50 Ă©poques. Il atteint une prĂ©cision de 90% sur toutes les langues de MINDS-14 sur lâensemble dâĂ©valuation.
from transformers import pipeline
classifier = pipeline(
"audio-classification",
model="anton-l/xtreme_s_xlsr_300m_minds14",
)
Enfin, nous pouvons passer un échantillon au pipeline de classification pour faire une prédiction :
classifier(minds[0]["path"])
Sortie :
[
{"score": 0.9631525278091431, "label": "pay_bill"},
{"score": 0.02819698303937912, "label": "freeze"},
{"score": 0.0032787492964416742, "label": "card_issues"},
{"score": 0.0019414445850998163, "label": "abroad"},
{"score": 0.0008378693601116538, "label": "high_value_payment"},
]
Nous avons identifiĂ© que lâintention de lâappel Ă©tait de payer une facture, avec une probabilitĂ© de 96%. Vous pouvez imaginer que ce type de systĂšme de repĂ©rage de mots-clĂ©s soit utilisĂ© comme premiĂšre Ă©tape dâun centre dâappels automatisĂ©, oĂč nous voulons catĂ©goriser les appels entrants des clients en fonction de leur requĂȘte et leur offrir un support contextualisĂ© en consĂ©quence.
Speech Commands est un jeu de donnĂ©es de mots parlĂ©s conçu pour Ă©valuer les modĂšles de classification dâaudio sur des mots de commande simples. Le jeu de donnĂ©es se compose de 15 classes de mots-clĂ©s, dâune classe pour le silence et dâune classe inconnue pour inclure le faux positif. Les 15 mots-clĂ©s sont des mots uniques qui seraient gĂ©nĂ©ralement utilisĂ©s dans les paramĂštres sur lâappareil pour contrĂŽler les tĂąches de base ou lancer dâautres processus. Un modĂšle similaire fonctionne en continu sur votre tĂ©lĂ©phone mobile. Ici, au lieu dâavoir des mots de commande uniques, nous avons des mots de rĂ©veil spĂ©cifiques Ă votre appareil, tels que « Hey Google » ou « Hey Siri ». Lorsque le modĂšle de classification dâaudio dĂ©tecte ces mots de rĂ©veil, il dĂ©clenche votre tĂ©lĂ©phone pour commencer Ă Ă©couter le microphone et transcrire votre discours Ă lâaide dâun modĂšle de reconnaissance vocale. Le modĂšle de classification dâaudio est beaucoup plus petit et plus lĂ©ger que le modĂšle de reconnaissance vocale, souvent seulement quelques millions de paramĂštres contre plusieurs centaines de millions pour la reconnaissance vocale. Ainsi, il peut fonctionner en continu sur votre appareil sans vider votre batterie ! Ce nâest que lorsque le mot de rĂ©veil est dĂ©tectĂ© que le modĂšle de reconnaissance vocale plus large est lancĂ©, puis quâil est Ă nouveau arrĂȘtĂ©. Nous couvrirons les modĂšles de transformers pour la reconnaissance vocale dans la prochaine unitĂ©, donc Ă la fin du cours, vous devriez avoir les outils dont vous avez besoin pour construire votre propre assistant Ă commande vocale ! Comme pour tout jeu de donnĂ©es sur le Hub, nous pouvons avoir une idĂ©e de la tĂȘte des donnĂ©es sans avoir Ă les tĂ©lĂ©charger ou les avoir en mĂ©moire. AprĂšs avoir accĂ©dĂ© Ă la carte du jeu de donnĂ©es Speech Commands sur le Hub, nous pouvons utiliser la visionneuse de donnĂ©es pour faire dĂ©filer les 100 premiers Ă©chantillons du jeu de donnĂ©es, Ă©couter les fichiers audio et vĂ©rifier toute autre information de mĂ©tadonnĂ©es :
Lâaperçu du jeu de donnĂ©es est un moyen de dĂ©couvrir les jeux de donnĂ©es audio avant de sâengager Ă les utiliser. Vous pouvez choisir nâimporte quel jeu de donnĂ©es sur le Hub, faire dĂ©filer les Ă©chantillons et Ă©couter lâaudio pour les diffĂ©rents sous-ensembles et Ă©chantillons, en Ă©valuant sâil sâagit du bon jeu de donnĂ©es pour vos besoins. Une fois que vous avez sĂ©lectionnĂ© un jeu de donnĂ©es, il est trivial de tĂ©lĂ©charger les donnĂ©es afin de pouvoir commencer Ă les utiliser. Faisons cela et chargeons un Ă©chantillon du jeu de donnĂ©es Speech Commands en utilisant le mode streaming :
speech_commands = load_dataset(
"speech_commands", "v0.02", split="validation", streaming=True
)
sample = next(iter(speech_commands))
Nous allons charger un checkpoint dâun transformer dâaudio sous la forme de spectrogramme finetunĂ© sur le jeu de donnĂ©es Speech Commands :
classifier = pipeline(
"audio-classification", model="MIT/ast-finetuned-speech-commands-v2"
)
classifier(sample["audio"])
Sortie :
[{'score': 0.9999892711639404, 'label': 'backward'},
{'score': 1.7504888774055871e-06, 'label': 'happy'},
{'score': 6.703040185129794e-07, 'label': 'follow'},
{'score': 5.805884484288981e-07, 'label': 'stop'},
{'score': 5.614546694232558e-07, 'label': 'up'}]
On dirait que lâexemple contient le mot backward
avec une forte probabilitĂ©. Nous pouvons Ă©couter lâĂ©chantillon et vĂ©rifier quâil est correct:
from IPython.display import Audio
Audio(sample["audio"]["array"], rate=sample["audio"]["sampling_rate"])
Vous vous demandez peut-ĂȘtre comment nous avons sĂ©lectionnĂ© les modĂšles prĂ©-entraĂźnĂ©s montrĂ©s dans ces exemples de classification dâaudio. Câest trĂšs simple ! La premiĂšre chose que nous devons faire est de nous diriger sur le Hub et de cliquer sur lâonglet « Models »: https://huggingface.co/models Cela va faire apparaĂźtre tous les modĂšles sur le Hub :
Vous remarquerez sur le cĂŽtĂ© gauche que nous avons plusieurs onglets que nous pouvons sĂ©lectionner pour filtrer les modĂšles par tĂąche, bibliothĂšque, jeu de donnĂ©es, etc. Faites dĂ©filer vers le bas et sĂ©lectionnez la tĂąche « Classification dâaudio » dans la liste des tĂąches audio:
Nous voyons alors le sous-ensemble de modĂšles de classification dâaudio prĂ©sent sur le Hub. Pour affiner davantage cette sĂ©lection, nous pouvons filtrer les modĂšles par jeu de donnĂ©es. Cliquez sur lâonglet « Jeux de donnĂ©es », et dans la zone de recherche, tapez « speech_commands ». Lorsque vous commencez Ă taper, vous verrez la sĂ©lection pour âspeech_commandsâ apparaĂźtre sous lâonglet de recherche. Vous pouvez cliquer sur ce bouton pour filtrer tous les modĂšles de classification dâaudio finetunĂ© sur le jeu de donnĂ©es Speech Commands :
Bien, nous voyons que nous avons 6 modĂšles prĂ©-entraĂźnĂ©s Ă notre disposition pour ce jeu de donnĂ©es et cette tĂąche spĂ©cifiques. Le premier listĂ© est celui que nous avons utilisĂ© dans lâexemple prĂ©cĂ©dent. Ce processus de filtrage des modĂšles du Hub est exactement la façon dont nous avons procĂ©dĂ© pour choisir ce modĂšle.
Lâidentification de la langue est la tĂąche dâidentifier la langue parlĂ©e dans un Ă©chantillon audio Ă partir dâune liste de langues candidates. Cette tĂąche peut jouer un rĂŽle important dans de nombreux pipelines de parole. Par exemple, Ă©tant donnĂ© un Ă©chantillon audio dans une langue inconnue, un modĂšle dâidentification de langue peut ĂȘtre utilisĂ© pour catĂ©goriser la ou les langues parlĂ©es dans lâĂ©chantillon audio, puis sĂ©lectionner un modĂšle de reconnaissance vocale appropriĂ© entraĂźnĂ© sur cette langue pour transcrire lâaudio.
FLEURS (Few-shot Learning Evaluation of Universal Representations of Speech) est un jeu de donnĂ©es permettant dâĂ©valuer les systĂšmes de reconnaissance vocale dans 102 langues, dont beaucoup sont classĂ©es comme Ă faibles ressources. Jetez un coup dâĆil Ă la carte de FLEURS sur le Hub et explorez les diffĂ©rentes langues prĂ©sentes : google/fleurs. Pouvez-vous trouver votre langue maternelle ici ? Si ce nâest pas le cas, quelle est la langue la plus proche ? Chargeons un Ă©chantillon Ă partir de lâĂ©chantillon de validation de FLEURS en utilisant le mode streaming :
fleurs = load_dataset("google/fleurs", "all", split="validation", streaming=True)
sample = next(iter(fleurs))
GĂ©nial ! Nous pouvons maintenant charger notre modĂšle de classification dâaudio. Pour cela, nous utiliserons une version de Whisper finetunĂ© sur FLEURS, qui est actuellement le modĂšle de dĂ©tection de langue le plus performant sur le Hub:
classifier = pipeline(
"audio-classification", model="sanchit-gandhi/whisper-medium-fleurs-lang-id"
)
Nous pouvons ensuite passer lâaudio Ă travers notre classifieur et gĂ©nĂ©rer une prĂ©diction :
classifier(sample["audio"])
Sortie :
[{'score': 0.9999330043792725, 'label': 'Afrikaans'},
{'score': 7.093023668858223e-06, 'label': 'Northern-Sotho'},
{'score': 4.269149485480739e-06, 'label': 'Icelandic'},
{'score': 3.2661141631251667e-06, 'label': 'Danish'},
{'score': 3.2580724109720904e-06, 'label': 'Cantonese Chinese'}]
Nous pouvons voir que le modĂšle a prĂ©dit que lâaudio Ă©tait en Afrikaans avec une probabilitĂ© extrĂȘmement Ă©levĂ©e. FLEURS contient des donnĂ©es audio provenant dâun large Ă©ventail de langues : nous pouvons voir que les Ă©tiquettes de classe possibles incluent le sotho du Nord, lâislandais, le danois et le cantonais, entre autres. Vous pouvez trouver la liste complĂšte des langues ici : google/fleurs. Ă vous de jouer ! Quels autres checkpoints pouvez-vous trouver sur le Hub afin de dĂ©tecter les langues prĂ©sentes dans FLEURS ? Quels modĂšles de transformers utilisent-ils sous le capot ?
Dans le paradigme traditionnel de la classification dâaudio, le modĂšle prĂ©dit une Ă©tiquette de classe Ă partir dâun ensemble de classes prĂ©dĂ©finies possibles. Cela constitue un obstacle Ă lâutilisation de modĂšles prĂ©-entraĂźnĂ©s pour la classification dâaudio, car les Ă©tiquettes du modĂšle prĂ©-entraĂźnĂ© doit correspondre Ă celui de la tĂąche en aval. Pour lâexemple prĂ©cĂ©dent de dĂ©tection de langues, le modĂšle doit prĂ©dire lâune des 102 classes de langue sur lesquelles il a Ă©tĂ© entraĂźnĂ©. Si la tĂąche en aval nĂ©cessite en fait 110 langues, le modĂšle ne serait pas en mesure de prĂ©dire 8 des 110 langues, et nĂ©cessiterait donc un nouvel entraĂźnement pour atteindre une couverture complĂšte. Cela limite lâefficacitĂ© de lâapprentissage par transfert pour les tĂąches de classification dâaudio. La classification dâaudio zĂ©ro-shot est une mĂ©thode permettant de prendre un modĂšle de classification dâaudio prĂ©-entraĂźnĂ© entraĂźnĂ© sur un ensemble dâexemples Ă©tiquetĂ©s et de lui permettre de classer de nouveaux exemples de classes inĂ©dites. Voyons comment nous pouvons y parvenir. Actuellement, đ€ Transformers prend en charge un type de modĂšle pour la classification dâaudio en zĂ©ro-shot : le modĂšle CLAP. CLAP est un modĂšle basĂ© sur un transformer qui prend Ă la fois lâaudio et le texte comme entrĂ©es, et calcule la similitude entre les deux. Si nous passons une entrĂ©e de texte fortement corrĂ©lĂ©e Ă une entrĂ©e audio, nous obtiendrons un score de similaritĂ© Ă©levĂ©. Inversement, passer une entrĂ©e de texte qui nâa aucun rapport avec lâentrĂ©e audio renverra une faible similitude. Nous pouvons utiliser cette prĂ©diction de similaritĂ© pour la classification dâaudio en zĂ©ro-shot en passant une entrĂ©e audio au modĂšle et plusieurs Ă©tiquettes candidates. Le modĂšle renverra un score de similaritĂ© pour chacune des Ă©tiquettes candidates, et nous pouvons choisir celle qui a le score le plus Ă©levĂ© comme prĂ©diction.
Prenons un exemple oĂč nous utilisons une entrĂ©e audio du jeu de donnĂ©es Environmental Speech Challenge (ESC) :
dataset = load_dataset("ashraq/esc50", split="train", streaming=True)
audio_sample = next(iter(dataset))["audio"]["array"]
Nous dĂ©finissons ensuite nos Ă©tiquettes candidates, qui forment lâensemble des Ă©tiquettes de classification possibles. Le modĂšle renverra une probabilitĂ© de classification pour chacune des Ă©tiquettes que nous dĂ©finissons. Cela signifie que nous devons connaĂźtre a-priori lâensemble des Ă©tiquettes possibles dans notre problĂšme de classification, de sorte que lâĂ©tiquette correcte soit contenue dans lâensemble et se voie donc attribuer un score de probabilitĂ© valide. Notez que nous pouvons soit transmettre lâensemble complet des Ă©tiquettes au modĂšle, soit un sous-ensemble sĂ©lectionnĂ© Ă la main qui, selon nous, contient lâĂ©tiquette correcte. Passer lâensemble complet des Ă©tiquettes sera plus exhaustif, mais se fait au dĂ©triment dâune prĂ©cision de classification plus faible puisque lâespace de classification est plus grand (Ă condition que lâĂ©tiquette correcte soit notre sous-ensemble dâĂ©tiquettes choisi):
candidate_labels = ["Sound of a dog", "Sound of vacuum cleaner"]
Nous pouvons parcourir les deux modĂšles pour trouver lâĂ©tiquette candidate qui est la plus similaire Ă lâentrĂ©e audio:
classifier = pipeline(
task="zero-shot-audio-classification", model="laion/clap-htsat-unfused"
)
classifier(audio_sample, candidate_labels=candidate_labels)
Sortie :
[{'score': 0.9997242093086243, 'label': 'Sound of a dog'}, {'score': 0.0002758323971647769, 'label': 'Sound of vacuum cleaner'}]
Le modĂšle semble assez confiant (probabilitĂ© de 99,97%) que nous ayons le son dâun chien .Nous allons donc prendre cela comme notre prĂ©diction. Confirmons si nous avions raison en Ă©coutant lâĂ©chantillon audio (nâaugmentez pas trop le volume, sinon vous risquez de sursauter !):
Audio(audio, rate=16000)
Parfait ! Nous avons le son dâun chien qui aboie đ, ce qui correspond Ă la prĂ©diction du modĂšle. Jouez avec diffĂ©rents Ă©chantillons audio et diffĂ©rentes Ă©tiquettes candidates. Pouvez-vous dĂ©finir un ensemble dâĂ©tiquettes qui donnent une bonne gĂ©nĂ©ralisation Ă travers le jeu de donnĂ©es ESC ? Astuce : pensez Ă lâendroit oĂč vous pourriez trouver des informations sur les sons possibles dans ESC et construisez vos Ă©tiquettes en consĂ©quence. Vous vous demandez peut-ĂȘtre pourquoi nous nâutilisons pas le pipeline de classification dâaudio zero-shot pour toutes les tĂąches de classification dâaudio ? Il semble que nous puissions faire des prĂ©dictions pour nâimporte quel problĂšme de classification dâaudio en dĂ©finissant des Ă©tiquettes de classe appropriĂ©es Ă priori, contournant ainsi la contrainte dont notre tĂąche de classification a besoin pour correspondre aux Ă©tiquettes sur lesquelles le modĂšle a Ă©tĂ© prĂ©-entraĂźnĂ©. Cela se rĂ©sume Ă la nature du modĂšle CLAP utilisĂ© dans le pipeline zĂ©ro-shot. CLAP est prĂ©-entraĂźnĂ© sur des donnĂ©es de classification dâaudio gĂ©nĂ©riques, similaires aux sons environnementaux dans le jeu de donnĂ©es ESC, plutĂŽt que sur des donnĂ©es vocales spĂ©cifiques, comme nous lâavions dans la tĂąche de dĂ©tection de langue. Si vous lui donnez un discours en anglais et un discours en espagnol, CLAP saurait que les deux exemples Ă©taient des donnĂ©es vocales. Mais il ne serait pas capable de diffĂ©rencier les langues de la mĂȘme maniĂšre quâun modĂšle de dĂ©tection de langue dĂ©diĂ© Ă cette tĂąche.
Nous avons couvert un certain nombre de tĂąches de classification dâaudio, prĂ©sentĂ© les jeux de donnĂ©es et les modĂšles les plus pertinents que vous pouvez tĂ©lĂ©charger Ă partir du Hub et comment les utiliser en quelques lignes de code Ă lâaide de la classe pipeline()
. Ces tĂąches comprenent la dĂ©tection de mots-clĂ©s, lâidentification de la langue et la classification dâaudio en zĂ©ro-shot.
Mais que se passe-t-il si nous voulons faire quelque chose de nouveau ? Nous avons beaucoup travaillĂ© sur les tĂąches de traitement de la parole, mais ce nâest quâun aspect de la classification dâaudio. Un autre domaine populaire du traitement dâaudio est la musique. Bien que la musique ait des caractĂ©ristiques intrinsĂšquement diffĂ©rentes Ă la parole, bon nombre des mĂȘmes principes que nous avons dĂ©jĂ appris peuvent ĂȘtre appliquĂ©s.
Dans la section suivante, nous allons passer en revue un guide Ă©tape par Ă©tape sur la façon dont vous pouvez finetuner un transformer avec đ€ Transformers sur la tĂąche de classification de la musique. Ă la fin, vous aurez un checkpoint finetunĂ© que vous pourrez brancher dans la classe pipeline()
, vous permettant de classer les chansons exactement de la mĂȘme maniĂšre que nous avons classĂ© la parole ici.