ModĂšles et jeux de donnĂ©es prĂ©-entraĂźnĂ©s pour la classification d’audio

Le Hub abrite plusieurs centaines de modĂšles prĂ©-entraĂźnĂ©s pour la classification d’audio. Dans cette section, nous passerons en revue certaines des tĂąches de classification d’audio les plus courantes et suggĂ©rerons des modĂšles prĂ©-entraĂźnĂ©s appropriĂ©s pour chacune. En utilisant la classe pipeline(), la commutation entre les modĂšles et les tĂąches est simple : une fois que vous savez comment utiliser pipeline() pour un modĂšle, vous pourrez l’utiliser pour n’importe quel modĂšle sur le Hub, sans modification du code ! Cela rend l’expĂ©rimentation de la classe pipeline() extrĂȘmement rapide, ce qui vous permet de sĂ©lectionner rapidement le meilleur modĂšle prĂ©-entraĂźnĂ© pour vos besoins. Avant de passer aux diffĂ©rents problĂšmes de classification d’audio, rĂ©capitulons rapidement les architectures de transformers gĂ©nĂ©ralement utilisĂ©es. L’architecture standard de classification d’audio est motivĂ©e par la nature de la tĂąche. Nous voulons transformer une sĂ©quence d’entrĂ©es audio (c’est-Ă -dire notre rĂ©seau audio d’entrĂ©e) en une prĂ©diction d’étiquette de classe unique. Les modĂšles d’encodeur associent d’abord la sĂ©quence audio d’entrĂ©e dans une sĂ©quence de reprĂ©sentations Ă  l’état cachĂ© en faisant passer les entrĂ©es Ă  travers un bloc transformer. La sĂ©quence de reprĂ©sentations d’états masquĂ©s est ensuite associĂ©e Ă  une sortie d’étiquette de classe en prenant la moyenne sur les Ă©tats masquĂ©s et en faisant passer le vecteur rĂ©sultant Ă  travers une couche de classification linĂ©aire. Par consĂ©quent, il y a une prĂ©fĂ©rence pour les modĂšles encodeur pour la classification d’audio. Les modĂšles de dĂ©codeur introduisent une complexitĂ© inutile Ă  la tĂąche car ils supposent que les sorties peuvent Ă©galement ĂȘtre une sĂ©quence de prĂ©dictions (plutĂŽt qu’une prĂ©diction d’étiquette de classe unique), et gĂ©nĂšrent ainsi plusieurs sorties. Par consĂ©quent, ils ont une vitesse d’infĂ©rence plus lente et ont tendance Ă  ne pas ĂȘtre utilisĂ©s. Les modĂšles encodeur-dĂ©codeur sont largement omis pour la mĂȘme raison. Ces choix d’architecture sont analogues Ă  ceux de NLP, oĂč les modĂšles d’encodeur tels que BERT sont privilĂ©giĂ©s pour les tĂąches de classification de sĂ©quences, et les modĂšles de dĂ©codeur tels que GPT rĂ©servĂ©s aux tĂąches de gĂ©nĂ©ration de sĂ©quences. Maintenant que nous avons rĂ©capitulĂ© l’architecture du transformer standard pour la classification d’audio, passons aux diffĂ©rents sous-ensembles de la classification d’audio et couvrons les modĂšles les plus populaires !

đŸ€— Installation de Transformers

Au moment de la rĂ©daction de cette section, les derniĂšres mises Ă  jour requises pour le pipeline de classification d’audio se trouvent uniquement sur la version « principale » du dĂ©pĂŽt đŸ€— Transformers, plutĂŽt que sur la derniĂšre version de PyPi. Pour nous assurer que nous avons ces mises Ă  jour localement, nous allons installer Transformers Ă  partir de la branche main avec la commande suivante :

pip install git+https://github.com/huggingface/transformers

Repérage de mots-clés

Le repĂ©rage de mots clĂ©s (KWS pour Keyword spotting) est la tĂąche d’identifier un mot-clĂ© dans un discours. L’ensemble des mots-clĂ©s possibles forme l’ensemble des Ă©tiquettes de classe prĂ©dites. Par consĂ©quent, pour utiliser un modĂšle de repĂ©rage de mots clĂ©s prĂ©-entraĂźnĂ©, vous devez vous assurer que vos mots-clĂ©s correspondent Ă  ceux sur lesquels le modĂšle a Ă©tĂ© prĂ©-entraĂźnĂ©. Ci-dessous, nous prĂ©senterons deux jeux de donnĂ©es et modĂšles pour la dĂ©tection de mots clĂ©s.

MINDS-14

Commençons en utilisant le mĂȘme jeu de donnĂ©es MINDS-14 explorĂ© dans l’unitĂ© prĂ©cĂ©dente. Si vous vous souvenez, MINDS-14 contient des enregistrements de personnes posant des questions Ă  un systĂšme bancaire Ă©lectronique dans plusieurs langues et dialectes, et a indique une classe d’intention pour chaque enregistrement. Nous pouvons donc classer les enregistrements par intention de l’appel.

from datasets import load_dataset

minds = load_dataset("PolyAI/minds14", name="en-AU", split="train")

Nous allons charger le checkpoint "anton-l/xtreme_s_xlsr_300m_minds14", qui est un modĂšle XLS-R finetunĂ© sur MINDS-14 pendant environ 50 Ă©poques. Il atteint une prĂ©cision de 90% sur toutes les langues de MINDS-14 sur l’ensemble d’évaluation.

from transformers import pipeline

classifier = pipeline(
    "audio-classification",
    model="anton-l/xtreme_s_xlsr_300m_minds14",
)

Enfin, nous pouvons passer un échantillon au pipeline de classification pour faire une prédiction :

classifier(minds[0]["path"])

Sortie :

[
    {"score": 0.9631525278091431, "label": "pay_bill"},
    {"score": 0.02819698303937912, "label": "freeze"},
    {"score": 0.0032787492964416742, "label": "card_issues"},
    {"score": 0.0019414445850998163, "label": "abroad"},
    {"score": 0.0008378693601116538, "label": "high_value_payment"},
]

Nous avons identifiĂ© que l’intention de l’appel Ă©tait de payer une facture, avec une probabilitĂ© de 96%. Vous pouvez imaginer que ce type de systĂšme de repĂ©rage de mots-clĂ©s soit utilisĂ© comme premiĂšre Ă©tape d’un centre d’appels automatisĂ©, oĂč nous voulons catĂ©goriser les appels entrants des clients en fonction de leur requĂȘte et leur offrir un support contextualisĂ© en consĂ©quence.

Speech Commands

Speech Commands est un jeu de donnĂ©es de mots parlĂ©s conçu pour Ă©valuer les modĂšles de classification d’audio sur des mots de commande simples. Le jeu de donnĂ©es se compose de 15 classes de mots-clĂ©s, d’une classe pour le silence et d’une classe inconnue pour inclure le faux positif. Les 15 mots-clĂ©s sont des mots uniques qui seraient gĂ©nĂ©ralement utilisĂ©s dans les paramĂštres sur l’appareil pour contrĂŽler les tĂąches de base ou lancer d’autres processus. Un modĂšle similaire fonctionne en continu sur votre tĂ©lĂ©phone mobile. Ici, au lieu d’avoir des mots de commande uniques, nous avons des mots de rĂ©veil spĂ©cifiques Ă  votre appareil, tels que « Hey Google » ou « Hey Siri ». Lorsque le modĂšle de classification d’audio dĂ©tecte ces mots de rĂ©veil, il dĂ©clenche votre tĂ©lĂ©phone pour commencer Ă  Ă©couter le microphone et transcrire votre discours Ă  l’aide d’un modĂšle de reconnaissance vocale. Le modĂšle de classification d’audio est beaucoup plus petit et plus lĂ©ger que le modĂšle de reconnaissance vocale, souvent seulement quelques millions de paramĂštres contre plusieurs centaines de millions pour la reconnaissance vocale. Ainsi, il peut fonctionner en continu sur votre appareil sans vider votre batterie ! Ce n’est que lorsque le mot de rĂ©veil est dĂ©tectĂ© que le modĂšle de reconnaissance vocale plus large est lancĂ©, puis qu’il est Ă  nouveau arrĂȘtĂ©. Nous couvrirons les modĂšles de transformers pour la reconnaissance vocale dans la prochaine unitĂ©, donc Ă  la fin du cours, vous devriez avoir les outils dont vous avez besoin pour construire votre propre assistant Ă  commande vocale ! Comme pour tout jeu de donnĂ©es sur le Hub, nous pouvons avoir une idĂ©e de la tĂȘte des donnĂ©es sans avoir Ă  les tĂ©lĂ©charger ou les avoir en mĂ©moire. AprĂšs avoir accĂ©dĂ© Ă  la carte du jeu de donnĂ©es Speech Commands sur le Hub, nous pouvons utiliser la visionneuse de donnĂ©es pour faire dĂ©filer les 100 premiers Ă©chantillons du jeu de donnĂ©es, Ă©couter les fichiers audio et vĂ©rifier toute autre information de mĂ©tadonnĂ©es :

Diagram of datasets viewer.

L’aperçu du jeu de donnĂ©es est un moyen de dĂ©couvrir les jeux de donnĂ©es audio avant de s’engager Ă  les utiliser. Vous pouvez choisir n’importe quel jeu de donnĂ©es sur le Hub, faire dĂ©filer les Ă©chantillons et Ă©couter l’audio pour les diffĂ©rents sous-ensembles et Ă©chantillons, en Ă©valuant s’il s’agit du bon jeu de donnĂ©es pour vos besoins. Une fois que vous avez sĂ©lectionnĂ© un jeu de donnĂ©es, il est trivial de tĂ©lĂ©charger les donnĂ©es afin de pouvoir commencer Ă  les utiliser. Faisons cela et chargeons un Ă©chantillon du jeu de donnĂ©es Speech Commands en utilisant le mode streaming :

speech_commands = load_dataset(
    "speech_commands", "v0.02", split="validation", streaming=True
)
sample = next(iter(speech_commands))

Nous allons charger un checkpoint d’un transformer d’audio sous la forme de spectrogramme finetunĂ© sur le jeu de donnĂ©es Speech Commands :

classifier = pipeline(
    "audio-classification", model="MIT/ast-finetuned-speech-commands-v2"
)
classifier(sample["audio"].copy())

Sortie :

[{'score': 0.9999892711639404, 'label': 'backward'},
 {'score': 1.7504888774055871e-06, 'label': 'happy'},
 {'score': 6.703040185129794e-07, 'label': 'follow'},
 {'score': 5.805884484288981e-07, 'label': 'stop'},
 {'score': 5.614546694232558e-07, 'label': 'up'}]

On dirait que l’exemple contient le mot backward avec une forte probabilitĂ©. Nous pouvons Ă©couter l’échantillon et vĂ©rifier qu’il est correct:

from IPython.display import Audio

Audio(sample["audio"]["array"], rate=sample["audio"]["sampling_rate"])

Vous vous demandez peut-ĂȘtre comment nous avons sĂ©lectionnĂ© les modĂšles prĂ©-entraĂźnĂ©s montrĂ©s dans ces exemples de classification d’audio. C’est trĂšs simple ! La premiĂšre chose que nous devons faire est de nous diriger sur le Hub et de cliquer sur l’onglet « Models »: https://huggingface.co/models Cela va faire apparaĂźtre tous les modĂšles sur le Hub :

Vous remarquerez sur le cĂŽtĂ© gauche que nous avons plusieurs onglets que nous pouvons sĂ©lectionner pour filtrer les modĂšles par tĂąche, bibliothĂšque, jeu de donnĂ©es, etc. Faites dĂ©filer vers le bas et sĂ©lectionnez la tĂąche « Classification d’audio » dans la liste des tĂąches audio:

Nous voyons alors le sous-ensemble de modĂšles de classification d’audio prĂ©sent sur le Hub. Pour affiner davantage cette sĂ©lection, nous pouvons filtrer les modĂšles par jeu de donnĂ©es. Cliquez sur l’onglet « Jeux de donnĂ©es », et dans la zone de recherche, tapez « speech_commands ». Lorsque vous commencez Ă  taper, vous verrez la sĂ©lection pour ‘speech_commands’ apparaĂźtre sous l’onglet de recherche. Vous pouvez cliquer sur ce bouton pour filtrer tous les modĂšles de classification d’audio finetunĂ© sur le jeu de donnĂ©es Speech Commands :

Bien, nous voyons que nous avons 6 modĂšles prĂ©-entraĂźnĂ©s Ă  notre disposition pour ce jeu de donnĂ©es et cette tĂąche spĂ©cifiques. Le premier listĂ© est celui que nous avons utilisĂ© dans l’exemple prĂ©cĂ©dent. Ce processus de filtrage des modĂšles du Hub est exactement la façon dont nous avons procĂ©dĂ© pour choisir ce modĂšle.

Identification de la langue

L’identification de la langue est la tĂąche d’identifier la langue parlĂ©e dans un Ă©chantillon audio Ă  partir d’une liste de langues candidates. Cette tĂąche peut jouer un rĂŽle important dans de nombreux pipelines de parole. Par exemple, Ă©tant donnĂ© un Ă©chantillon audio dans une langue inconnue, un modĂšle d’identification de langue peut ĂȘtre utilisĂ© pour catĂ©goriser la ou les langues parlĂ©es dans l’échantillon audio, puis sĂ©lectionner un modĂšle de reconnaissance vocale appropriĂ© entraĂźnĂ© sur cette langue pour transcrire l’audio.

FLEURS

FLEURS (Few-shot Learning Evaluation of Universal Representations of Speech) est un jeu de donnĂ©es permettant d’évaluer les systĂšmes de reconnaissance vocale dans 102 langues, dont beaucoup sont classĂ©es comme Ă  faibles ressources. Jetez un coup d’Ɠil Ă  la carte de FLEURS sur le Hub et explorez les diffĂ©rentes langues prĂ©sentes : google/fleurs. Pouvez-vous trouver votre langue maternelle ici ? Si ce n’est pas le cas, quelle est la langue la plus proche ? Chargeons un Ă©chantillon Ă  partir de l’échantillon de validation de FLEURS en utilisant le mode streaming :

fleurs = load_dataset("google/fleurs", "all", split="validation", streaming=True)
sample = next(iter(fleurs))

GĂ©nial ! Nous pouvons maintenant charger notre modĂšle de classification d’audio. Pour cela, nous utiliserons une version de Whisper finetunĂ© sur FLEURS, qui est actuellement le modĂšle de dĂ©tection de langue le plus performant sur le Hub:

classifier = pipeline(
    "audio-classification", model="sanchit-gandhi/whisper-medium-fleurs-lang-id"
)

Nous pouvons ensuite passer l’audio Ă  travers notre classifieur et gĂ©nĂ©rer une prĂ©diction :

classifier(sample["audio"])

Sortie :

[{'score': 0.9999330043792725, 'label': 'Afrikaans'},
 {'score': 7.093023668858223e-06, 'label': 'Northern-Sotho'},
 {'score': 4.269149485480739e-06, 'label': 'Icelandic'},
 {'score': 3.2661141631251667e-06, 'label': 'Danish'},
 {'score': 3.2580724109720904e-06, 'label': 'Cantonese Chinese'}]

Nous pouvons voir que le modĂšle a prĂ©dit que l’audio Ă©tait en Afrikaans avec une probabilitĂ© extrĂȘmement Ă©levĂ©e. FLEURS contient des donnĂ©es audio provenant d’un large Ă©ventail de langues : nous pouvons voir que les Ă©tiquettes de classe possibles incluent le sotho du Nord, l’islandais, le danois et le cantonais, entre autres. Vous pouvez trouver la liste complĂšte des langues ici : google/fleurs. À vous de jouer ! Quels autres checkpoints pouvez-vous trouver sur le Hub afin de dĂ©tecter les langues prĂ©sentes dans FLEURS ? Quels modĂšles de transformers utilisent-ils sous le capot ?

Classification d’audio en zĂ©ro-shot

Dans le paradigme traditionnel de la classification d’audio, le modĂšle prĂ©dit une Ă©tiquette de classe Ă  partir d’un ensemble de classes prĂ©dĂ©finies possibles. Cela constitue un obstacle Ă  l’utilisation de modĂšles prĂ©-entraĂźnĂ©s pour la classification d’audio, car les Ă©tiquettes du modĂšle prĂ©-entraĂźnĂ© doit correspondre Ă  celui de la tĂąche en aval. Pour l’exemple prĂ©cĂ©dent de dĂ©tection de langues, le modĂšle doit prĂ©dire l’une des 102 classes de langue sur lesquelles il a Ă©tĂ© entraĂźnĂ©. Si la tĂąche en aval nĂ©cessite en fait 110 langues, le modĂšle ne serait pas en mesure de prĂ©dire 8 des 110 langues, et nĂ©cessiterait donc un nouvel entraĂźnement pour atteindre une couverture complĂšte. Cela limite l’efficacitĂ© de l’apprentissage par transfert pour les tĂąches de classification d’audio. La classification d’audio zĂ©ro-shot est une mĂ©thode permettant de prendre un modĂšle de classification d’audio prĂ©-entraĂźnĂ© entraĂźnĂ© sur un ensemble d’exemples Ă©tiquetĂ©s et de lui permettre de classer de nouveaux exemples de classes inĂ©dites. Voyons comment nous pouvons y parvenir. Actuellement, đŸ€— Transformers prend en charge un type de modĂšle pour la classification d’audio en zĂ©ro-shot : le modĂšle CLAP. CLAP est un modĂšle basĂ© sur un transformer qui prend Ă  la fois l’audio et le texte comme entrĂ©es, et calcule la similitude entre les deux. Si nous passons une entrĂ©e de texte fortement corrĂ©lĂ©e Ă  une entrĂ©e audio, nous obtiendrons un score de similaritĂ© Ă©levĂ©. Inversement, passer une entrĂ©e de texte qui n’a aucun rapport avec l’entrĂ©e audio renverra une faible similitude. Nous pouvons utiliser cette prĂ©diction de similaritĂ© pour la classification d’audio en zĂ©ro-shot en passant une entrĂ©e audio au modĂšle et plusieurs Ă©tiquettes candidates. Le modĂšle renverra un score de similaritĂ© pour chacune des Ă©tiquettes candidates, et nous pouvons choisir celle qui a le score le plus Ă©levĂ© comme prĂ©diction.

Prenons un exemple oĂč nous utilisons une entrĂ©e audio du jeu de donnĂ©es Environmental Speech Challenge (ESC) :

dataset = load_dataset("ashraq/esc50", split="train", streaming=True)
audio_sample = next(iter(dataset))["audio"]["array"]

Nous dĂ©finissons ensuite nos Ă©tiquettes candidates, qui forment l’ensemble des Ă©tiquettes de classification possibles. Le modĂšle renverra une probabilitĂ© de classification pour chacune des Ă©tiquettes que nous dĂ©finissons. Cela signifie que nous devons connaĂźtre a-priori l’ensemble des Ă©tiquettes possibles dans notre problĂšme de classification, de sorte que l’étiquette correcte soit contenue dans l’ensemble et se voie donc attribuer un score de probabilitĂ© valide. Notez que nous pouvons soit transmettre l’ensemble complet des Ă©tiquettes au modĂšle, soit un sous-ensemble sĂ©lectionnĂ© Ă  la main qui, selon nous, contient l’étiquette correcte. Passer l’ensemble complet des Ă©tiquettes sera plus exhaustif, mais se fait au dĂ©triment d’une prĂ©cision de classification plus faible puisque l’espace de classification est plus grand (Ă  condition que l’étiquette correcte soit notre sous-ensemble d’étiquettes choisi):

candidate_labels = ["Sound of a dog", "Sound of vacuum cleaner"]

Nous pouvons parcourir les deux modĂšles pour trouver l’étiquette candidate qui est la plus similaire Ă  l’entrĂ©e audio:

classifier = pipeline(
    task="zero-shot-audio-classification", model="laion/clap-htsat-unfused"
)
classifier(audio_sample, candidate_labels=candidate_labels)

Sortie :

[{'score': 0.9997242093086243, 'label': 'Sound of a dog'}, {'score': 0.0002758323971647769, 'label': 'Sound of vacuum cleaner'}]

Le modĂšle semble assez confiant (probabilitĂ© de 99,97%) que nous ayons le son d’un chien .Nous allons donc prendre cela comme notre prĂ©diction. Confirmons si nous avions raison en Ă©coutant l’échantillon audio (n’augmentez pas trop le volume, sinon vous risquez de sursauter !):

Audio(audio, rate=16000)

Parfait ! Nous avons le son d’un chien qui aboie 🐕, ce qui correspond Ă  la prĂ©diction du modĂšle. Jouez avec diffĂ©rents Ă©chantillons audio et diffĂ©rentes Ă©tiquettes candidates. Pouvez-vous dĂ©finir un ensemble d’étiquettes qui donnent une bonne gĂ©nĂ©ralisation Ă  travers le jeu de donnĂ©es ESC ? Astuce : pensez Ă  l’endroit oĂč vous pourriez trouver des informations sur les sons possibles dans ESC et construisez vos Ă©tiquettes en consĂ©quence. Vous vous demandez peut-ĂȘtre pourquoi nous n’utilisons pas le pipeline de classification d’audio zero-shot pour toutes les tĂąches de classification d’audio ? Il semble que nous puissions faire des prĂ©dictions pour n’importe quel problĂšme de classification d’audio en dĂ©finissant des Ă©tiquettes de classe appropriĂ©es Ă  priori, contournant ainsi la contrainte dont notre tĂąche de classification a besoin pour correspondre aux Ă©tiquettes sur lesquelles le modĂšle a Ă©tĂ© prĂ©-entraĂźnĂ©. Cela se rĂ©sume Ă  la nature du modĂšle CLAP utilisĂ© dans le pipeline zĂ©ro-shot. CLAP est prĂ©-entraĂźnĂ© sur des donnĂ©es de classification d’audio gĂ©nĂ©riques, similaires aux sons environnementaux dans le jeu de donnĂ©es ESC, plutĂŽt que sur des donnĂ©es vocales spĂ©cifiques, comme nous l’avions dans la tĂąche de dĂ©tection de langue. Si vous lui donnez un discours en anglais et un discours en espagnol, CLAP saurait que les deux exemples Ă©taient des donnĂ©es vocales. Mais il ne serait pas capable de diffĂ©rencier les langues de la mĂȘme maniĂšre qu’un modĂšle de dĂ©tection de langue dĂ©diĂ© Ă  cette tĂąche.

Et ensuite ?

Nous avons couvert un certain nombre de tĂąches de classification d’audio, prĂ©sentĂ© les jeux de donnĂ©es et les modĂšles les plus pertinents que vous pouvez tĂ©lĂ©charger Ă  partir du Hub et comment les utiliser en quelques lignes de code Ă  l’aide de la classe pipeline(). Ces tĂąches comprenent la dĂ©tection de mots-clĂ©s, l’identification de la langue et la classification d’audio en zĂ©ro-shot. Mais que se passe-t-il si nous voulons faire quelque chose de nouveau ? Nous avons beaucoup travaillĂ© sur les tĂąches de traitement de la parole, mais ce n’est qu’un aspect de la classification d’audio. Un autre domaine populaire du traitement d’audio est la musique. Bien que la musique ait des caractĂ©ristiques intrinsĂšquement diffĂ©rentes Ă  la parole, bon nombre des mĂȘmes principes que nous avons dĂ©jĂ  appris peuvent ĂȘtre appliquĂ©s. Dans la section suivante, nous allons passer en revue un guide Ă©tape par Ă©tape sur la façon dont vous pouvez finetuner un transformer avec đŸ€— Transformers sur la tĂąche de classification de la musique. À la fin, vous aurez un checkpoint finetunĂ© que vous pourrez brancher dans la classe pipeline(), vous permettant de classer les chansons exactement de la mĂȘme maniĂšre que nous avons classĂ© la parole ici.