La tâche de synthèse vocale comporte une série de défis.
Tout d’abord, tout comme dans la reconnaissance automatique de la parole discutée précédemment, l’alignement entre le texte et la parole peut être délicat.
Cependant, contrairement à l’ASR, le TTS est un problème d’association un-à-plusieurs, c’est-à-dire que le même texte peut être synthétisé de différentes manières. Pensez à la diversité des voix et des styles de parole dans le discours que vous entendez quotidiennement : chaque personne a une façon différente de prononcer la même phrase, mais elles sont toutes valides et correctes. Même des sorties différentes (spectrogrammes ou formes d’ondes audio) peuvent correspondre à la même réalité de terrain. Le modèle doit apprendre à générer la durée et le timing corrects pour chaque phonème, mot ou phrase, ce qui peut être difficile, en particulier pour les phrases longues et complexes.
Ensuite, il y a le problème de la dépendance : la langue a un aspect temporel, et comprendre le sens d’une phrase nécessite souvent de tenir compte du contexte des mots environnants. Il est crucial de s’assurer que le modèle de TTS capture et conserve les informations contextuelles sur de longues séquences pour générer un discours cohérent et naturel.
Enfin, l’apprentissage des modèles de TTS nécessite généralement des paires de texte et des enregistrements vocaux correspondants. En plus de cela, pour s’assurer que le modèle peut générer un discours qui sonne naturel pour différents locuteurs et styles de parole, les données doivent contenir des échantillons de discours divers et représentatifs de plusieurs locuteurs. La collecte de ces données est coûteuse, prend du temps et, pour certaines langues, n’est pas réalisable. Vous vous demandez peut-être, pourquoi ne pas simplement prendre un jeu de données conçu pour l’ASR et l’utiliser pour entraîner un modèle TTS ? Malheureusement, ces jeux de données ne sont pas la meilleure option. Les caractéristiques qui le rendent bénéfique pour l’ASR, telles qu’un bruit de fond excessif, sont généralement indésirables dans le TTS. C’est génial de pouvoir transcrire la parole à partir d’un enregistrement bruyant d’une rue par exemple, mais pas tellement si votre assistant vocal vous répond avec des voitures qui klaxonnent et des bruits de travaux en arrière-plan. Néanmoins, certains jeux de données ASR peuvent parfois être utiles pour finetuner, car trouver des jeux de données de TTS de haute qualité, multilingues et multi-locuteurs peut être assez difficile. Explorons quelques ensembles de données adaptés au TTS que vous pouvez trouver sur le Hub.
LJSpeech est un jeu de données composé de 13 100 échantillons audio de langue anglaise jumelés à leurs transcriptions correspondantes. Le jeu de données contient l’enregistrement d’un seul locuteur lisant des phrases de 7 livres en anglais. LJSpeech est souvent utilisé comme référence pour évaluer les modèles de TTS en raison de sa haute qualité audio et de son contenu linguistique diversifié.
VCTK est un jeu de données spécialement conçu pour la recherche et le développement de synthèse vocale. Il contient des enregistrements audio de 110 anglophones avec divers accents. Chaque orateur lit environ 400 phrases, qui ont été choisies dans un journal, et un paragraphe d’élicitation utilisé pour les archives de l’accent de la parole. C’est une ressource précieuse pour l’entraînement de modèles de TTS avec des voix et des accents variés, permettant une synthèse vocale plus naturelle et diversifiée.
La conception d’un bon jeu de données pour le TTS n’est pas une tâche facile car un tel jeu de données devrait posséder plusieurs caractéristiques clés :
La bonne nouvelle est qu’il est peu probable que vous ayez à entraîner un modèle de TTS à partir de zéro. Dans la section suivante, nous examinerons les modèles pré-entraînés disponibles sur le Hub.