Files changed (1) hide show
  1. README.md +49 -0
README.md ADDED
@@ -0,0 +1,49 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ ---
2
+ license: mpl-2.0
3
+ language:
4
+ - fr
5
+ ---
6
+ Click here to read this model card in English.
7
+
8
+ Modèle Français de transcription vocale ajusté sur plus de 2'500 heures d'audio (en français) à partir du modèle de base Wav2Vec2 XLSR 53 du laboratoire R&D de MetaAI.
9
+
10
+ Ce modèle à été entraîné sur les mêmes sets de données que le [modèle français 0.9]() afin de comparer les performances de l'architecture DeepSpeech2 (DeepSpeech/STT+KenLM) et du decoder CTC de Wav2Vec2.
11
+
12
+ Il s'agit d'une distribution uniquement déstinée à des fins de recherches et d'évaluation regie par la licence publique de Mozilla dans sa version 2.0.
13
+
14
+ ## Jeux de données :
15
+
16
+ - Lingua Libre (~40h)
17
+ - Common Voice FR (v9.0) (~850h)
18
+ - Training Speech (~180h)
19
+ - African Accented French (~15h)
20
+ - M-AILABS French (~315h)
21
+ - Att-HACK (~75h)
22
+ - Multilingual LibriSpeech (~1'100h)
23
+
24
+ Total : ~2'573h
25
+
26
+ ## Paramètres
27
+
28
+
29
+ ## Licence :
30
+
31
+ [Mozilla Public License (MPL) 2.0](https://github.com/common-voice/commonvoice-fr/blob/5699e59244d14bb14d5b7603b91c934b761c9194/DeepSpeech/LICENSE.txt)
32
+
33
+ ## Résultats sur les sets de test:
34
+
35
+ Test effectué avec le module d'évaluation de TranScorerLM sur les données pré-transformées au format d'entraînement CSV de DeepSpeech/STT.
36
+
37
+ ## Notes de l'entraîneur
38
+
39
+ Cette version 0.99-pre du modèle français utilise une nouvelle architecture à l'instar des distributions précédentes basées sur l'architecture DeepSpeech2 avec un modèle de langage KenLM; cette nouvelle distribution utilise l'architecture Wav2vec2.
40
+
41
+ Utilisant également un decoder CTC en tant que scorer en sortie d'un modèle acoustique, Wav2vec2, à l'avantage de KenLM, tire pleinement parti des avancées introduites depuis la démocratisation des transformers dans l'application de l'art.
42
+
43
+ Ces avancées se perçoivent dans les mesures du taux d'erreur par mot (WER) et par caractère (CER) mais également lors de l'utilisation du modèle.
44
+
45
+ La prochaine étape consiterait à ajouter, mettre à jour et augmenter les données du modèle acoustique avec une ou plusieurs couches de bruit de fond provenant de divers environnements source de bruit (un ventilateur, une voiture, une foule de gens, etc - c.f. Modèle 0.9 - ) mais également en applicant des transformations plus essentielles tel que l'echo et autres diverses diformations de l'entrée. Nous pourrions profiter des avancées dans le domaine des transformers pour identifier le bruit et entraîner un modèle pour le supprimer et ne garder que le discours. Nous pourrions alors utiliser la sortie d'un tel modèle en entrée de celui-ci. Cela améliorerait grandement la precision de la transcription dans des conditions de bruit extrême.
46
+
47
+ Pour améliorer les performence du modèle sur vos données il est préconisé de l'ajuster sur celles-ci.
48
+
49
+ Fonctionne avec Transformers.