Edit model card

Modèle de Masking sur les données Twitch FR

L'expérimentation menée au sein de Lincoln avait pour principal objectif de mettre en œuvre des techniques NLP from scratch sur un corpus de messages issus d’un chat Twitch. Ces derniers sont exprimés en français, mais sur une plateforme internet avec le vocabulaire internet que cela implique (fautes, vocabulaire communautaires, abréviations, anglicisme, emotes, ...).

Nos contraintes sont celles d’une entreprise n’ayant pas une volumétrie excessive de données et une puissance infinie de calcul. Il a été nécessaire de construire un nouveau tokenizer afin de mieux correspondre à notre corpus plutôt qu’un tokenizer français existant.

Note corpus étant faible en volumétrie par rapport aux données habituelles pour entrainer un modèle BERT, nous avons opté pour l’entrainement d’un modèle dit « small ». Et il a été montré dans la littérature qu’un corpus de quelques giga octets peut donner de bons résultats, c’est pourquoi nous avons continué avec notre corpus.

La limite de la puissance de calcul a été contourné à l’aide d’une nouvelle architecture d’apprentissage basée sur un double modèle générateur / discriminateur.

Ceci nous a permis d’entrainer un modèle de langue ConvBERT sur nos données, ainsi qu’un modèle de masking en quelques heures sur une carte GPU V100.

Nous garantissons pas la stabilité du modèle sur le long terme. Modèle réalisé dans le cadre d'un POC.

Données

Streamer Nbr de messages Categories notables en 2021
Ponce 2 604 935 Chatting/Mario Kart/FIFA
Domingo 1 209 703 Chatting/talk-shows/FM2O21
Mistermv 1 205 882 Isaac/Special events/TFT
Zerator 900 894 New World/WOW/Valorant
Blitzstream 821 585 Chess
Squeezie 602 148 Chatting / Minecraft
Antoinedaniellive 548 497 Geoguessr
Jeanmassietaccropolis/jeanmassiet 301 387 Talk-shows/chatting/special events
Samueletienne 215 956 chatting

Sur la période du 12/03/2021 au 22/07/2021. La totalité des messages comptent 9 410 987 messages sur ces neufs streamers. Ces messages sont issus du canal IRC, donc n’ont pas subi de modération

Les données d'entrainement du modèle de masking contient 899 652 instances de train et 99 962 instances de test. Les données ont été formaté en concaténant les messages sur une fenêtre de 10s. Cette fenêtre correspond à une fenêtre courte qui regroupe des messages très « proches » temporellement.

  • 512 tokens max
  • Probabilité du « mask » : 15%

Application

Voir github public lincoln/twitchatds pour les détails d'implémentation et les résultats.

Remarques

  • Expérimentation ponctuelle
  • Les métriques d'entrainement sont disponibles dans l'onglet Training metrics
  • Pour une meilleure stabilité, les données doivent être plus hétérogènes et volumineuse. Le modèle doit être entrainé + de 24h.
  • Le token <mask> fonctionne probablement mieux sans laisser d'espace à gauche. Cela est dû au fait que lstrip=False pour ce token spécial.

Usage

from transformers import AutoTokenizer, ConvBertForMaskedLM 
from transformers import pipeline

model_name = 'lincoln/2021twitchfr-conv-bert-small-mlm'
tokenizer_name = 'lincoln/2021twitchfr-conv-bert-small'

loaded_tokenizer = AutoTokenizer.from_pretrained(tokenizer_name)
loaded_model = ConvBertForMaskedLM.from_pretrained(model_name)

nlp = pipeline('fill-mask', model=loaded_model, tokenizer=loaded_tokenizer)
nlp('<mask> les gens !')

Modèles:

Downloads last month
9