English
stringlengths
2
2.26k
French
stringlengths
2
1.87k
Modeling uncertainty
Modélisation de l’incertitude
Automatic evaluation
Évaluation automatique
Budget computation
Calcul du budget
Modeling the tails
Modélisation des queues
Efficiency
Efficacité
MAD Cycle of Research
Cycle de recherche MAD
There are 3 pillars in the cycle of research:
Le cycle de recherche repose sur 3 piliers :
1. Data: We collect data that we want to explore.
1. Données : nous collectons les données que nous voulons explorer.
2. Model: We feed the collected data and use the data distribution, develop algorithms and build models.
2. Modèle : nous fournissons les données collectées et utilisons la distribution des données, nous développons des algorithmes et construisons des modèles.
3. Analysis: After we get the model, we test the model by checking how well it fits with the data distribution or how well it performs using different metrics.
3. Analyse : après avoir obtenu le modèle, nous le testons en vérifiant son adéquation avec la distribution des données ou ses performances à l’aide de différentes métriques.
This process is iterated several times to get a good a performance.
Ce processus est itéré plusieurs fois pour obtenir une bonne a performance.
The highlighted examples in the Figure 14 will be discussed more in detail in the following sections.
Les exemples mis en évidence dans la figure 14 seront discutés plus en détail dans les sections suivantes.
Data
Données
Going back to the same example of English-Nepali news translation, we collect data belonging to different domains. Here, dataset of Bible and GNOME, Ubuntu won’t be of much help for news translation.
Pour revenir à l’exemple de traduction d’actualités en anglais-népalais, nous collectons des données appartenant à différents domaines. Ici, le jeu de données de la Bible, de GNOME/Ubuntu ne seront pas d’une grande aide pour la traduction d’actualités.
The question here is how can we evaluate the part of dataset that is not there on the right side (Nepali)? This lead to creation of FLoRes Evaluation Benchmark. It contains texts (taken from Wikipedia documents) from Nepali, Sinhala, Khmer, Pashto.
La question ici est : comment pouvons-nous évaluer la partie de l’ensemble de données absente sur le côté droit (népalais) ?
Note: These are not parallel dataset
Cette question a conduit à la création du FLoRes Evaluation Benchmark. Il contient des textes (tirés d’articles de Wikipédia) en népalais, singhalais, khmer et pachto. Il ne s’agit pas de jeux de données parallèles.
These sentences are translated and the quality of the translations are determined using the automatic checks and human evaluation. There are several techniques in automatic checks, a model was trained on each language and perplexity was measured. If the perplexity is too high, then we go back to translation stage as shown above. Other checks are transliteration, using Google Translate, etc. There is no criteria or conditions for when this loop is stopped, essentially it depends on the perplexity and any outliers.
Ces phrases sont traduites et la qualité des traductions est déterminée à l’aide de contrôles automatiques et d’évaluations humaines. Il existe plusieurs techniques dans les vérifications automatiques. Un modèle a été entraîné sur chaque langue et la perplexité a été mesurée. Si la perplexité est trop élevée, nous revenons à l’étape de traduction comme indiqué ci-dessus. D’autres vérifications sont la translittération, l’utilisation de Google Translate, etc. Il n’y a pas de critères ou de conditions pour savoir quand cette boucle doit s’arrêter, cela dépend essentiellement de la perplexité et des éventuelles valeurs aberrantes.
Figure 17 shows some examples. As we can see, they are not really fluent. One more issue with these is that the wikipedia articles of Sinhala language mostly contain topics of very limited number of domains (like their religion, country, etc.)
La figure 17 montre quelques exemples. Comme on peut le constater, elles ne sont pas vraiment fluides. Un autre problème est que les articles Wikipedia de la langue singhalaise contiennent surtout des sujets d’un nombre très limité de domaines (comme la religion, l’histoire du pays, etc.).
Low Resource Machine Translation II
Traduction automatique à faibles ressources II
We start with standard machine learning algorithms can be applied in the realm of machine translation translation. Then, we take a deeper look into understanding different perspectives on this application. Our setting consists of multiple languages and multiple domains, but eventually we want to maximize translation accuracy of a certain domain in a language class.
Nous commençons par les algorithmes d’apprentissage automatique standard qui peuvent être appliqués dans le domaine de la traduction automatique. Ensuite, nous approfondissons la compréhension des différentes perspectives de cette application. Notre cadre porte en plusieurs langues et plusieurs domaines, mais finalement nous voulons maximiser la précision de la traduction d’un certain domaine dans une classe de langue.
NLP/MT Data
Données pour la traduction automatique
Parallel dataset
Jeu de données parallèles
monolingual Data
Données monolingues
Multiple language pairs
Paires de langues multiples
Multiple Domains
Domaines multiples
ML Techniques
Techniques d’apprentissage automatique
Supervised learning
Apprentissage supervisé
Semi-supervised Learning
Apprentissage semi-supervisé
Multi-task/multi-modal learning
Apprentissage multi-tâches/multimodal
Domain adaptation
Adaptation au domaine
Taking a deeper look at the type of data we are presented with in machine translation, we can better understand how these applications can be mapped to machine learning techniques. For example, if we have a parallel dataset in the space of machine translation, then we have its equivalent in supervised learning. Second, we could have monolingual data in machine translation–this translates to semi-supervised learning within the machine learning framework. Third, if we have multiple language paris in machine translation, we can closely compare this to multi-task learning within the ML space. And lastly, if we have multiple domains in machine translation, we can compare this to domain adaptation in machine learning. When you have many domains, you naturally also want to use different domain adaptation techniques
En examinant de plus près le type de données qui nous sont présentées dans le domaine de la traduction automatique, nous pouvons mieux comprendre comment ces applications peuvent être mises en correspondance avec les techniques d’apprentissage automatique. Par exemple, si nous avons un jeu de données parallèles dans l’espace de la traduction automatique, nous avons son équivalent dans l’apprentissage supervisé. Deuxièmement, nous pourrions avoir des données monolingues en traduction automatique, ce qui se traduit par un apprentissage semi-supervisé dans le cadre de l’apprentissage automatique. Troisièmement, si nous avons des paires multilingues dans la traduction automatique, nous pouvons comparer cela à l’apprentissage multi-tâches. Et enfin, si nous avons plusieurs domaines en traduction automatique, nous pouvons comparer cela à l’adaptation de domaine dans l’apprentissage automatique. Lorsque vous avez plusieurs domaines, vous souhaitez naturellement utiliser différentes techniques d’adaptation.
Case Studies
Études de cas : traduction de l’anglais au népalais
Let’s start with a simple case study within the realm of supervised learning. For example, let’s say that we have a sentence in English and we want to translate it to Nepali. This is similar to multitask learning in the sense that you have one task, and then you add another task you’re interested in. Since we have multiple domains we can start thinking about domain adaptation techniques and analyzing which domain adaptation techniques are applicable to machine translation.
Commençons par une étude de cas simple dans le domaine de l’apprentissage supervisé. Par exemple, disons que nous avons une phrase en anglais et que nous voulons la traduire en népalais. Ceci est similaire à l’apprentissage multitâche dans le sens où nous avons une tâche, puis nous ajoutons une autre tâche qui vous intéresse. Puisque nous avons plusieurs domaines, nous pouvons commencer à réfléchir aux techniques d’adaptation au domaine et analyser quelles techniques d’adaptation au domaine sont applicables à la traduction automatique.
We can define our supervised learning method as the following when translating from English to Nepali:
Nous pouvons définir notre méthode d’apprentissage supervisé comme suit lors de la traduction de l’anglais au népalais :
Our per-sample loss using the usual attention-based transformer is defined as the following:
Notre perte par échantillon, en utilisant le transformer habituel basé sur l’attention, est définie comme suit :
We can regularize the model using:
Nous pouvons régulariser le modèle en utilisant :
Dropout
le dropout
Label Smoothing
le lissage d’étiquette
Beginning with a supervised learning setting, we can use the aforementioned example of translation. Our dataset is
En commençant par le cadre d’apprentissage supervisé, nous pouvons utiliser l’exemple de traduction mentionné plus haut. Notre jeu de données est :
We can train this model using maximum likelihood, where we want to maximize y∣x.
Nous pouvons entraîner ce modèle en utilisant le maximum de vraisemblance où nous voulons maximiser y∣x.
One way to represent this methodology is by the diagram, where you have a blue encoder that processes English sentences, and a red decoder that processes Nepali. From here, we want to compute our cross-entropy loss and update our model parameters. We may also want to regularize the model using either dropout or label smoothing. Additionally, we may need to regularize using the log loss
Une façon de représenter cette méthodologie est via un diagramme où nous avons un encodeur bleu qui traite les phrases anglaises et un décodeur rouge qui traite le népalais. À partir de là, nous voulons calculer notre perte d’entropie croisée et mettre à jour les paramètres de notre modèle. Nous pouvons également vouloir régulariser le modèle en utilisant le dropout ou le lissage d’étiquettes. En outre, nous pouvons avoir besoin de régulariser en utilisant la perte logarithmique :
Note: Transliteration is not word per word translation. It means that you’re using the characters from one language to make a logical translation of the word in a different language.
Remarque : la translittération n’est pas une traduction mot à mot. Cela signifie que vous utilisez les caractères d’une langue pour traduire logiquement le mot dans une autre langue.
How can we improve generalization?
Comment améliorer la généralisation ?
We can get additional source side monolingual data with this approach as well.
Nous pouvons également obtenir des données monolingues supplémentaires côté source avec cette approche.
When using the DAE learning framework, we an either pre-train or add a DAE loss to the supervised cross entropy term:
Lorsque nous utilisons le cadre d’apprentissage semi-supervisé, nous pouvons soit pré-entraîner, soit ajouter une perte au terme d’entropie croisée supervisé :
One way to leverage an additional dataset is by trying to model p(x) with a semi-supervised approach. One way to model p(x) is via the denoising of an auto-encoder. This is particularly useful because the encoder and decoder share a similar machine translation methodology. In the semi-supervised learning approach, going from English to Nepali, we have:
Une façon d’exploiter un jeu de données supplémentaire est d’essayer de modéliser p(x) avec une approche semi-supervisée. Une façon de modéliser p(x) est via un auto-encodeur débruiteur (DAE pour denoising auto-encoder). Cette méthode est particulièrement utile car l’encodeur et le décodeur partagent une méthodologie de traduction automatique similaire. Dans l’approche d’apprentissage semi-supervisé, en passant de l’anglais au népalais, nous avons :
And when we want to predict missing labels using decoding and training noise, we can use cross-entropy loss as such:
Lorsque nous voulons prédire les étiquettes manquantes à l’aide du bruit de décodage et d’entraînement, nous pouvons utiliser la perte d’entropie croisée comme suit :
Another approach would be via self-training or pseudolearning. This is an algorithm from the 90s and the idea is that you take your sentence from the monolingual dataset and then you inject noise to it, you encode the poor translation you made and then make a prediction to produce the desired outcome. You can tune the parameters by minimizing the standard cross entropy loss on the labeled data. In other words, we are minimizing Lsup(θ)+λLSTθ. We are basically using a stale version of our model to produce the desired output y.
Une autre approche serait via l’auto-entraînement ou le pseudo-apprentissage. Il s’agit d’un algorithme des années 90. L’idée est de prendre la phrase du jeu de données monolingue, d’y injecter du bruit, puis d’encoder la mauvaise traduction effectuée. On effectue une prédiction pour produire le résultat souhaité. Il est possible de régler les paramètres en minimisant la perte d’entropie croisée standard sur les données étiquetées. En d’autres termes, nous minimisons Lsup(θ)+λLSTθ. En fait, nous utilisons une version périmée de notre modèle pour produire le résultat souhaité, à savoir y.
This method works because: (1) when we produce y, we typically trying to learn the search procedure (2) we insert noise which creates smoothing for the output space
Cette méthode fonctionne car : (1) lorsque nous produisons y, nous essayons typiquement d’apprendre la procédure de recherche (2) nous insérons du bruit qui crée un lissage de l’espace de sortie
If we are working on the other hand with monolingual data, first we would need to train a reverse machine learning translation system of backward machines.
Si nous travaillons d’autre part avec des données monolingues, nous devons d’abord entraîner un système de rétrotraduction automatique.
Two benefits from adding target-side monolingual data
L’ajout de données monolingues côté cible présente deux avantages :
Decoder learns a good language model
le décodeur apprend un bon modèle de langage
Better generalization via data augmentation
il y a une meilleure généralisation grâce à l’augmentation de données
The algorithm would stay the same as above, where we have smaller systems of encoders and decoders.
L’algorithme reste le même que ci-dessus, avec des systèmes d’encodeurs et de décodeurs plus petits :
This is the learning framework for multilingual training, which shares encoder and decoder across all the language pairs, prepends a target language identifier to the source sentence to inform decoder of desired language and concatenates all the datasets together.
Voici le cadre d’apprentissage pour l’entraînement multilingue qui partage l’encodeur et le décodeur à travers toutes les paires de langues. On prépointe un identifiant de la langue cible à la phrase source pour informer le décodeur de la langue désirée et qui concatène tous les ensembles de données ensemble.
Mathematically, the train uses standard cross-entropy loss:
Mathématiquement, l’entraînement utilise la perte standard d’entropie croisée :
How do we deal with domain adaptation?
Comment traiter l’adaptation de domaine ?
If you have small data in domain validation, what you can do is fine-tuning, which is super effective. Basically train on domain A and finetune on domain B by continuing training for a little bit on the validation set.
Si nous avons de petites données dans la validation de domaine, nous pouvons finetuner. En gros, on entraîne sur le domaine A et on finetune sur le domaine B en poursuivant l’entraînement pendant un petit moment sur l’ensemble de validation.
Unsupervised MT
Traduction non supervisée
Let’s consider English and French.
Considérons l’anglais et le français.
Iterative BT
Rétrotraduction itérative
The following architecture first translate French to some random unknown English words. Since there is no ground truth reference, what could do is feeding this translation to another machine translation system goes from English to French.
L’architecture suivante traduit d’abord le français en quelques mots anglais inconnus et aléatoires. Puisqu’il n’y a pas de référence de base, ce qui peut être fait est de donner cette traduction à un autre système de traduction automatique allant de l’anglais au français.
DAE
Auto-encodeur débruiteur (DAE)
DAE adds a constraint on the xˉ to make sure that decoder outputs fluently in the desired language. One way is adding denoising of the encoding turn to the loss function. This may not work since decoder may behave differently when fed with representations from French encoder vs English encoder (lack of modularity)
Le DAE ajoute une contrainte sur xˉ pour s’assurer que le décodeur produit couramment dans la langue désirée. Une façon de faire est d’ajouter le débruitage d’encodage à la fonction de perte. Cela peut ne pas fonctionner car le décodeur peut se comporter différemment lorsqu’on lui donne des représentations provenant d’un encodeur français par rapport à un encodeur anglais (manque de modularité).
Multi-Lingual
Approche multilingue
One way to fix is by sharing all parameters of encoder and decoder so that the feature space share no matter whether you feed the French or English sentence (only one encoder and decoder now)
Une façon de résoudre le problème est de partager tous les paramètres de l’encodeur et du décodeur afin que l’espace des caractéristiques soit partagé, peu importe si on donne une phrase en français ou en anglais (un seul encodeur et décodeur maintenant).
BLEU score
Score BLEU
This graph tells why machine translation is very large scale learning, because you need to compensate for the lack of direct supervision by adding more and more data.
Ce graphique explique pourquoi la traduction automatique est un apprentissage à très grande échelle. Il faut compenser le manque de supervision directe en ajoutant de plus en plus de données.
FLoRes Ne-En
FLoRes Ne-En
The unsupervised learning doesn’t work at all in this case because two monolingual for the stats are from different domains and there is no way to find correspondences.
L’apprentissage non supervisé ne fonctionne pas du tout dans ce cas car deux monolingues sont issus de domaines différents et il n’y a aucun moyen de trouver des corresponances.
If adding English-Hindi data since Hindi and Nepali are similar, all four models dramatically improve (Red).
Si l’on ajoute des données en anglais et en hindi, puisque l’hindi et le népalais sont similaires, les quatre modèles s’améliorent considérablement (en rouge).
If you want to add language that is less related, you need to add so much. Since low-resource MT requires big data and big compute!
Si nous voulons ajouter une langue qui est moins apparentée, nous devons en ajouter autant. La traduction automatique à faibles ressources nécessite de grandes données et de grands calculs !
In conclusion, the less labeled data you have, the more data you need to use:
En conclusion, moins vous avez de données étiquetées, plus vous devez utiliser de données :
Supervised Learning
L’apprentissage supervisé :
Each datum yields X bits of information useful to solve the task
Chaque donnée fournit x bits d’information utiles pour résoudre la tâche
Need N samples
Besoin de N échantillons
Need model of size YB.
Besoin d’un modèle de taille YB
Unsupervised Learning
Apprentissage non supervisé :
Each datum yields X/1000 bits
Chaque donnée fournit X/1000 bits
Need N*1000 samples
Besoin de N×1000 échantillons
Need model of size Y*f(1000) MB.
Besoin d’un modèle de taille Y×f(1000) MB
Perspectives
Perspectives
Typically, in machine learning and machine translation, we always consider a domain mismatch between the training and the test distribution. When we have a slightly different domain, we need to do domain adaptation (e.g. domain tagging and finetuning). Here we will talk about a different domain mismatch which is:
En général, dans le domaine de l’apprentissage automatique et de la traduction automatique, nous considérons un décalage de domaine entre la distribution d’entraînement et la distribution de test. Lorsque nous avons un domaine légèrement différent, nous devons procéder à une adaptation au domaine (par exemple, l’étiquetage du dommaine ou le finetuning).
MPC (EBM version)
Commande à modèle prédictif (version EBM)
Action plan
Plan d’action
Model predictive control [Here we are today]
Commande à modèle prédictif [Nous sommes ici dans cette section].
Backprop through kinematic equation
Rétropropagation par l’équation cinématique
Minimisation of the latent
Minimisation de la latence
Truck backer-upper
Truck backer-upper
Learning an emulator of the kinematics from observations
Apprentissage d’un émulateur de la cinématique à partir d’observations
Training a policy
Entraînement d’une politique
PPUU
Prédiction ét apprentissage d’une politique sous incertitude (PPUU de l’anglais « Prediction and Policy learning Under Uncertainty »)
Stochastic environment
Environnement stochastique
Uncertainty minimisation
Minimisation des incertitudes
Latent decoupling
Découplage latent
State transition equations – Evolution of the state
Equations de transition d’état - Evolution de l’état
Here we discuss a state transition equation where x represents the state, u represents control. We can formulate the state transition function in a continuous-time system where x(t) is a function of continuous variable t.
Nous abordons ici une équation de transition d’état où x représente l’état et u représente la commande. Nous pouvons formuler la fonction de transition d’état dans un système à temps continu où x(t) est une fonction de la variable continue t.
We use a tri-cycle as the example to study it. The orange wheel is the control u, (xc,yc) is the instantaneous center of rotation. You can also have two wheels in the front. For simplicity, we use one wheel as the example.
Nous utilisons un tricycle comme exemple pour l’étudier. La roue orange est la commande u, (xc,yc) est le centre de rotation instantané. On peut aussi avoir deux roues à l’avant. Pour simplifier, nous utilisons une roue comme exemple.
In this example x=(x,y,θ,s) is the state, u=(ϕ,α) is the control.
Dans cet exemple, x=(x,y,θ,s) est l’état, u=(ϕ,α) est la commande.
We can reformulate the differential equation from continuous-time system to discrete-time system
Nous pouvons reformuler l’équation différentielle du système à temps continu en système à temps discret :