English
stringlengths
2
2.26k
French
stringlengths
2
1.87k
above two together work in a virtuous cycle
les deux éléments ci-dessus fonctionnent ensemble dans un cycle vertueux.
The CTC Loss
La perte Connectionist Temporal Classification
Given some input speech utterance X, which consists of T frames of audio. We desire to produce a transcription y and we’ll think of our transcription as consisting of the letters of a sentence, so y1​ is the first letter yU​ is the last letter.
Étant donné un audio en entrée x composé de T trames d’audio, nous souhaitons produire une transcription y~. Nous considérerons que notre transcription est constituée de lettres donc y1​ est la première lettre yU​ est la dernière lettre.
Compute conditional probability(the score) to evaluate transcription, we want to maximize the probability.
Nous voulons maximiser la probabilité conditionnelle (le score) pour évaluer la transcription :
Example 1
Exemple 1
XX has three frames, y has three letters, the number of inputs matches the number of outputs, it’s easy to compute the probability by one to one mapping.
X a trois images, y a trois lettres. Le nombre d’entrées correspond au nombre de sorties, c’est donc facile de calculer la probabilité par correspondance un à un.
Example 2
Exemple 2
Which alignment should we use to compute the score? All of them. We’re going to try to increase the score of all alignments and then hope the model sorts things out internally. The model can decide to optimize these different alignments and weight them accordingly and learn which one is the best.
Quel alignement devons-nous utiliser pour calculer le score ? Tous. Nous allons essayer d’augmenter le score de tous les alignements et espérer que le modèle fera le tri en interne. Le modèle peut décider d’optimiser ces différents alignements, les pondérer en conséquence et apprendre lequel est le meilleur.
Reminder: use actual-softsoftmax to sum log probabilities.
Rappel : utilisez l’actual-softsoftmax pour additionner les probabilités logarithmiques.
Alignment graph
Graphe d’alignement
Alignment graph is a way to encode the set of possible alignments to an arbitrary length input.
Le graphe d’alignement est un moyen de coder l’ensemble des alignements possibles sur une entrée de longueur arbitraire.
This graph is sometimes called weighted finite state acceptor (WFSA). The bold state marked 0 at the beginning is a start state, the concentric circle marked 3 is an accepting state. On each edge, there’re a label and a weight on both sides of a slash. Any path in this graph is an encoding of an alignment.
Ce graphe est parfois appelé « accepteur d’états finis pondérés » (ou WFSA pour weighted finite state acceptor). L’état gras 0 au début est un état de départ, le cercle concentrique 3 est un état d’acceptation. Sur chaque arête, il y a une étiquette et un poids de part et d’autre d’une barre oblique (tous les poids valant 0 dans l’image ci-dessus). Tout chemin dans ce graphe est un encodage d’un alignement.
Problem: too many alignments
Problème : trop d’alignements
There’s a problem when using all of the alignments. The x input audio can have lots of frames, in practice they can be as high as thousands. The y transcription can have lots of letters, in practice it can be hundreds or more. This is an astronomically large number of alignments, so we can’t compute individual score and sum all of them.
Il y a un problème lorsque l’on utilise tous les alignements. L’entrée audio x peut avoir beaucoup de trames (en pratique elles peuvent être des milliers). La transcription y peut contenir beaucoup de lettres (en pratique des centaines ou plus). Il s’agit donc d’un nombre astronomique d’alignements, nous ne pouvons donc pas calculer un score individuel et tous les additionner.
Solution: the forward algorithm(dynamic programming)
Solution : l’algorithme forward (programmation dynamique)
Define forward variable αtu​, the subscript t is where we are in the input and the superscript u is where we are in the output. This represents the score for all alignments of length t which end in the output yu​.
Dans la variable forward αtu​, l’indice t est l’endroit où nous sommes dans l’entrée et l’exposant u est l’endroit où nous sommes dans la sortie. Elle représente le score pour tous les alignements de longueur t qui se terminent dans la sortie yu​.
Suppose X=[x1,x2,x3,x4],Y=[c,a,t], the forward variable α2c​ represents the score of all possible alignments of length two up to the first two frames that ends in c in the first output of the transcription. There’s only one possible alignment for that x1→c, x2→c. This is simple to compute.
Supposons que X=[x1​,x2​,x3​,x4​], Y=[c,a,t], la variable forward α2c​ représente le score de tous les alignements possibles de longueur deux jusqu’aux deux premières trames qui se termine par c dans la première sortie de la transcription. Il n’y a qu’un seul alignement possible pour ce x1→c, x2→c. C’est donc simple à calculer :
where P(at∣X) are the output logits of a system such as an RNN. That is, to compute the likelihood of the transcript y we must marginalize over an intractably large number of alignments. We may do this with a recursive decomposition of the forward variable.
où P(at∣X) sont les logits de sortie d’un système tel qu’un RNN. En d’autres termes, pour calculer la vraisemblance de la transcription y~, nous devons marginaliser sur un nombre irréductiblement grand d’alignements. Nous pouvons le faire avec une décomposition récursive de la variable directe.
Now, suppose yi=yi+1​, so that z contains a subsequence yi,ϵ,yi+1​, and suppose yi+1​ occurs at psosition s in Z. Then the alignment for αst​ can be arrived at by one of two ways: either the prediction at time t−1 can be yi+1​ (in which case the repetition is collapsed) or else the prediction at time t−1 can be epsilon. So, we may decompose:
Supposons maintenant que yi​=yi+1​, de sorte que z contient une sous-séquence yi,ϵ,yi+1​, et supposons que yi+1 se trouve à la position s dans Z. Alors l’alignement pour αst peut être obtenu de deux manières : soit la prédiction au temps t−1 peut être yi+1​ (auquel cas la répétition est collapsée), soit la prédiction au temps t−1 peut être epsilon. On peut donc décomposer :
where the elements of the sum represent the two possible prefixes to the alignment. If, on the other hand, we have yi≠yi+1​ then there is the additional third possibility that the prediction at time t−1 is equal to yi​. So, we have the decomposition
où les éléments de la somme représentent les deux préfixes possibles de l’alignement. Si, d’autre part, nous avons yi≠yi+1​ alors il y a la troisième possibilité supplémentaire que la prédiction au temps t−1 soit égale à yi​. Ainsi, nous avons la décomposition
By computing α∣Z∣T​, we may effectively marginalize over all possible alignments between the transcript y and the audio X, allowing efficient training and inference. This is called Connectionist Temporal Classification, or CTC.
En calculant α∣Z∣T, nous pouvons effectivement marginaliser tous les alignements possibles entre la transcription y et l’audio X, ce qui permet un apprentissage et une inférence efficaces. C’est ce qu’on appelle la Connectionist Temporal Classification ou CTC.
Speech Recognition and Graph Transformer Network II
Reconnaissance vocale et Graph Transformer Network II
Inference Time
Temps d’inférence
The inference of a transcription from a given audio signal can be formulated using 2 distributions:
L’inférence pour obtenir la transcription d’un signal audio donné peut être formulée en utilisant deux distributions :
The acoustic model (audio to transcription), represented as P(Y∣X)
Le modèle acoustique (de l’audio à la transcription), représenté par P(Y∣X).
The language model, P(Y)
Le modèle de langage, représenté par P(Y).
The final inference is obtained by taking sum of the log probabilities of the above two, i.e.
L’inférence finale est obtenue en prenant la somme des probabilités logarithmiques de ces deux modèles, c’est-à-dire :
We use the additional term to ensure the transcription is consistent with the rules of the language. Else we may get grammatically wrong transcription.
Nous utilisons le terme supplémentaire pour nous assurer que la transcription est conforme aux règles de la langue. Sinon, nous risquons d’obtenir une transcription grammaticalement incorrecte.
Beam Search
Recherche en faisceau
While returning an output sequence, we can follow the greedy approach, where we take the maximum value of P(yt∣yt−1…y1)
Lors de la génération d’une séquence, nous pouvons suivre l’approche gloutonne où nous prenons la valeur maximale de P(yt∣yt−1…y1).
However, we can end up missing out a good sequence, which may not have the maximum value of P(yt∣…), as illustrated by the example below.
Cependant, nous pouvons manquer une bonne séquence qui peut ne pas avoir la valeur maximale de P(yt∣…) comme l’illustre l’exemple ci-dessous.
To remedy this, we employ beam search. Essentially, we consider maximum k tokens in terms of probability at each step t of the sequence. For each of these n-grams, we proceed further and find out the maximum.
Pour remédier à cela, nous employons la recherche en faisceau. Grossièrement, nous considérons les jetons maximum k en termes de probabilité à chaque étape t de la séquence. Pour chacun de ces n-grammes, nous poursuivons la recherche et trouvons le maximum.
The illustration below shows how Beam Search can lead to a better sequence.
L’illustration ci-dessous montre comment la recherche en faisceau peut conduire à une meilleure séquence.
This lecture introduces the topic of Neural Machine Translation with the help of an example. We then discuss language modelling, model architecture, NMT inference. Further, we discuss the issues faced because of the languages and the need for Low Resource Machine Translation. Also, we examine a case study and the challenges faced in Low Resource MT, different stages in the cycle of research, how they can be used for Machine Translation.
Cette conférence introduit le sujet de la traduction automatique neuronale à l’aide d’un exemple. Nous abordons la modélisation du langage, l’architecture du modèle et l’inférence de la traduction automatique neuronale. En outre, nous discutons des problèmes rencontrés en raison des langues et de la nécessité d’une traduction automatique à faibles ressources. Nous examinons également une étude de cas, les différentes étapes du cycle de recherche et la manière dont elles peuvent être utilisées pour la traduction automatique.
The first part of Lecture B focuses on understanding low resource machine translation, and the second half discusses potential domain mismatches in machine learning and machine translation.
La première partie de cette partie B se concentre sur la compréhension de la traduction automatique à faibles ressources et la seconde partie discute des incompatibilités potentielles entre les domaines de l’apprentissage automatique et de la traduction automatique.
We introduced the state transition function and the way to model a physical system with state and control. We discussed how to achieve optimal control by inference using Kelley-Bryson algorithm, which utilizes backprop through time and gradient descent. Finally, we explained the notebook of Optimization_Path_Planner, in which various cost functions are defined and path planning is implemented to guide a tri-cycle to reach the desired position with the specified speed.
Nous introduisons la fonction de transition d’état et la manière de modéliser un système physique avec état et contrôle. Nous avons discuté de la manière d’obtenir un contrôle optimal par inférence en utilisant l’algorithme de Kelley-Bryson qui utilise la rétropropagation dans le temps et la descente de gradient. Enfin, nous voyons dans un notebook diverses fonctions de coût et la planification d’une trajectoire pour guider un tricycle afin qu’il atteigne la position souhaitée avec la vitesse spécifiée.
Low Resource Machine Translation I
Traduction automatique à faibles ressources I
Neural Machine Translation (NMT)
Traduction automatique neuronale
Neural Machine Translation (NMT) is an end-to-end learning approach for automated translation, with the potential to overcome many of the weaknesses of conventional phrase-based translation systems. Its architecture typically consists of two parts, one to consume the input text sequence (encoder) and one to generate translated output text (decoder). NMT is often accompanied by an attention mechanism which helps it cope effectively with long input sequences. The decoder learns to (soft) align via attention. A translation example from Italian to English is shown in the figure below:
La traduction automatique neuronale (NMT pour Neural Machine Translation) est une approche d’apprentissage de bout en bout pour la tâche de traduction ayant le potentiel de surmonter bon nombre des faiblesses des systèmes de traduction conventionnels basés sur les phrases. Son architecture se compose généralement de deux parties, l’une prenant la séquence de texte d’entrée (encodeur) et l’autre pour générer le texte de sortie traduit (décodeur). La NMT est souvent accompagnée d’un mécanisme d’attention qui l’aide à faire face efficacement aux longues séquences d’entrée. Le décodeur apprend à s’aligner (en douceur) par le biais de l’attention. Un exemple de traduction de l’italien vers l’anglais est présenté dans la figure ci-dessous :
Parallel Dataset
Jeux de données parallèles
A parallel dataset contains a collection of original texts in language L1 and their translations into languages L2 (or consist of texts of more than two languages). As shown in the figure below, it can be used as labelled data to train NMT systems.
Un jeu de données parallèles contient une collection de textes originaux dans une langue L1 et leurs traductions dans une langue L2 (ou consiste en des textes de plus de deux langues). Comme le montre la figure ci-dessous, il peut être utilisé comme données étiquetées pour entraîner les systèmes de NMT.
Train NMT
Entraîner la NMT
The standard way of training NMT is by using maximum likelihood. Give a source sentence x and the model parameters θ, we will seek to maximize the log likelihood of the joint probability of all the ordered sequence of tokens in the target sentence y~, as illustrated by the equation below:
La méthode standard d’entraînement de la NMT consiste à utiliser le maximum de vraisemblance. Étant donné une phrase source x et les paramètres du modèle θ, nous chercherons à maximiser la vraisemblance logarithmique de la probabilité conjointe de toutes les séquences ordonnées de tokens dans la phrase cible y~. L’équation ci-dessous l’illustre :
It is used as a score to indicate how likely the target sentence actually to be a translation from the source sentence. A minus sign is added in front of the equation to turn this into a minimization problem.
C’est utilisé comme un score pour indiquer la probabilité que la phrase cible soit réellement une traduction de la phrase source. Un signe moins est ajouté devant l’équation pour transformer celle-ci en un problème de minimisation.
Language Model
Modèle de langage
In language modelling, given a token xt​ at time t, we are trying to predict the next word yt​. As shown in the figure below, hidden state zt is generated by a RNN/CNN/Transformer block depending on the input vector xt​ and the previous hidden state zt−1​.
Dans la modélisation du langage, étant donné un token xt​ au temps t, nous essayons de prédire le mot suivant yt​. Comme le montre la figure ci-dessous, l’état caché zt est généré par un bloc RNN/ConvNet/Transformer en fonction du vecteur d’entrée xt​ et de l’état caché précédent zt−1​.
Encoder-Decoder Architecture (Seq2Seq)
Architecture encodeur-décodeur (Seq2Seq)
Given a parallel dataset (with source sentences and target sentences), we can make use of the source sentences to train a seq2seq model.
Étant donné un jeu de données parallèles (avec des phrases sources et des phrases cibles), nous pouvons utiliser les phrases sources pour entraîner un modèle seq2seq.
Step 1: Represent source Represent each word in the source sentence as embeddings via source encoder.
Étape 1 : Représentation de la source Représenter chaque mot de la phrase source en tant qu’enchâssement via l’encodeur source.
Step 2: Score each source word (attention) Take the dot product between target hidden representation zt+1​ and all the embeddings from source sentence. Then use softmax to get a distribution over source tokens (attention).
Etape 2 : Attribuer un score à chaque mot source (attention) Prendre le produit scalaire entre la représentation cachée cible zt+1​ et tous les enchâssements de la phrase source. Puis utiliser la fonction SoftMax pour obtenir une distribution sur les tokens source (attention).
Step 3: Combine target hidden with source vector Take weighted sum (weights are in the attention score vector) of the source embeddings and combine it with target hidden representation zt+1​. After final transformation G(z), we get a distribution yt+1​ over the next word.
Etape 3 : combiner la cible cachée avec le vecteur source. Prendre la somme pondérée (les poids sont dans le vecteur de score d’attention) des enchâssements source et la combiner avec la représentation cachée cible zt+1​. Après transformation finale G(z), on obtient une distribution yt+1​ sur le mot suivant.
Alignment is learnt implicitly in seq2seq model. All tokens can be processed in parallel efficiently with CNNs or Transformers.
L’alignement est appris implicitement dans le modèle seq2seq. Tous les tokens peuvent être traités en parallèle efficacement avec des ConvNets ou des transformers.
Test NMT
Tester notre NMT
After we have the translation model, and know how good they are doing on the training set, we will want to test to see how the model will actually generate translations from the source sentences.
Une fois que nous disposons du modèle de traduction et que nous connaissons son efficacité sur l’ensemble d’apprentissage, nous souhaitons le tester pour voir comment le modèle va réellement générer des traductions à partir des phrases sources.
Beam Decoding is used to search in the space of y according to
Le décodage en faisceau est utilisé pour rechercher dans l’espace des y selon la formule suivante :
Each potential choice (the number of words in vocabulary) has a probability score. At every step, beam search selects the top k scoring among all the branches (maintain a queue with k top scoring paths), then expand each of them and retain the top k scoring paths. As illustrated by the example below:
Chaque choix potentiel (le nombre de mots dans le vocabulaire) a un score de probabilité. À chaque étape, la recherche en faisceau (beam search en anglais) sélectionne les k meilleurs scores parmi toutes les branches (maintient une file d’attente avec k chemins les mieux notés), puis développe chacun d’entre eux et conserve les k meilleurs scores. Comme l’illustre l’exemple ci-dessous :
Let k=2
Soit k=2
1. Start from symbol /s, pick the top 2 scoring from all the possible choices (Life, Today)
1. Partant du symbole /s, elle choisit les 2 meilleurs scores parmi tous les choix possibles (Vie, Aujourd’hui).
2. Continue from Life and Today, expand each of them and calculate the path score back to the start symbol, pick the top 2 scoring path (“Like was” and “Like is”)
2. On continue à partir de Vie et Aujourd’hui et on développe chacun de ces deux mots. On calcule le score du chemin de retour au symbole de départ. On choisit les 2 chemins les mieux notés (Vie est et Vie était).
3. So on and so for, keep proceeding until hit the end of the sentence
3. Et ainsi de suite, jusqu’à atteindre la fin de la phrase.
4. At the very last step, select the highest scoring path
4. À la toute dernière étape, on sélectionne le chemin le plus performant.
Beam search is a greedy procedure and it is very effective in practice. There is a trade-off between computational cost and approximation error (the larger the value of k, the better the approximation and the higher the computational cost).
La recherche en faisceau est une procédure avide et très efficace en pratique. Il existe un compromis entre le coût de calcul et l’erreur d’approximation (plus la valeur de k est grande, meilleure est l’approximation et plus élevé est le coût de calcul).
Issues of Beam Search: Beam search will always select the highest scoring path. Thus, the solution will be biased because of such strategy. It doesn’t handle uncertainty well.
Problèmes de la recherche en faisceau : La recherche en faisceau sélectionnera toujours le chemin ayant le score le plus élevé. Ainsi, la solution sera biaisée à cause de cette stratégie. Elle ne gère pas bien l’incertitude.
Other decoding methods: sampling, top-k sampling, generative and discriminative reranking
Autres méthodes de décodage : échantillonnage, échantillonnage top-k, reclassement génératif et discriminatif.
NMT Training & Inference Summary
Résumé de l’entraînement et de l’inférence d’une NMT
Training: predict one target token at the time and minimize cross-entropy loss
Apprentissage : prédire une phrase cible à la fois et minimiser la perte d’entropie croisée.
Inference: find the most likely target sentence (approximately) using beam search
Inférence : trouver la phrase cible la plus probable (approximativement) en utilisant la recherche en faisceau.
Evaluation: compute BLEU on hypothesis returned by the inference procedure
Évaluation : calcul du score BLEU sur les hypothèses retournées par la procédure d’inférence.
We first compute the geometric average of the modified n-gram precisions, pn​
Nous calculons d’abord la moyenne géométrique des précisions modifiées des n-grammes, pn​.
Candidate translations longer than their references are already penalized by the modified n-gram precision measure: there is no need to penalize them again. Consequently, we introduce a multiplicative brevity penalty factor, BP (denoted as fBP​ in the formula). With BP in place, a high-scoring candidate translation must now match the reference translations in length, in word choice, and in word order.
Les traductions candidates plus longues que leurs références sont déjà pénalisées par la mesure de précision n-gram modifiée Il n’est pas nécessaire de les pénaliser à nouveau. Par conséquent, nous introduisons un facteur multiplicatif de pénalité de brièveté, BP (désigné par fBP​ dans la formule). Avec BP en place, une traduction candidate bien notée doit maintenant correspondre aux traductions de référence en termes de longueur, de choix de mots et d’ordre des mots.
In brief, BLEU score (denoted as sBLEU​ in the formula) measures the similarity between the translation generated by the model and a reference translation created by a human.
En bref, le score BLEU (désigné par sBLEU​ dans la formule) mesure la similarité entre la traduction générée par le modèle et une traduction de référence créée par un humain.
Machine Translation in Other Languages
Traduction automatique dans d’autres langues
The above theory has 2 assumptions:
La théorie ci-dessus repose sur deux hypothèses :
1. The languages that we considered are English and Italian, both of which are European languages with some commonality.
1. Les langues que nous avons considérées sont l’anglais et l’italien, qui sont toutes deux des langues européennes ayant des points communs.
2. We have a lot of data because, in general, we need three data points to estimate a parameter and these models have hundreds of millions of parameters.
2. Nous avons beaucoup de données car, en général, nous avons besoin de trois points de données pour estimer un paramètre et ces modèles ont des centaines de millions de paramètres.
If we consider the statistics, there are more than 6000 languages in the world and not more than 5% of the world population speaks native English. There are a number of languages for which we don’t have much data available and Google Translate performs poorly. The other issue with these languages is that they are mostly spoken and not written.
Si l’on considère les statistiques, il y a plus de 6000 langues dans le monde et seuelement 5% de la population mondiale a l’anglais comme langue maternelle. Il y a un certain nombre de langues pour lesquelles nous n’avons pas beaucoup de données disponibles et les performances de Google Translate sont faibles. L’autre problème de ces langues est qu’elles sont surtout parlées et non écrites.
Machine Translation in Practice
La traduction automatique en pratique
Let’s consider an English to Nepali Machine Translation system where we translate English news to Nepali. Nepali is a low resource language and the amount of parallel data for training is very small.
Prenons l’exemple d’un système de traduction automatique dans lequel nous traduisons des actualités de l’anglais vers le népalais. Le népalais est une langue à faible ressource et la quantité de données parallèles pour l’entraînement est très faible.
The open parallel corpus is a place where we can get these datasets. There are 2 issues here:
L’Open Parallel Corpu est un endroit où nous pouvons obtenir ces jeux de données. Il y a 2 problèmes ici :
1. Now, if we look for Nepali dataset, we see that either there is very less amount of quality data set or huge dataset with no useful content.
1. si nous cherchons un jeu de données de données en népalais, nous voyons que soit il y en a très peu de qualité, soit un grand sans contenu utile.
2. There are possibilities that the source and target data are not parallel. We might have more data in English in some categories, more data in Nepali in other categories. There are cases these two don’t match.
2. il est possible que les données source et cible ne soient pas parallèles. Nous pouvons avoir plus de données en anglais dans certaines catégories, plus de données en népalais dans d’autres catégories. Il y a des cas où ces deux ne correspondent pas.
One way to solve these issues is to make use of other languages related to Nepali. For example, Hindi is a much higher resource language and belongs to the same family as Nepali. We can extend this to other languages also.
Une façon de résoudre ces problèmes est de faire appel à d’autres langues liées au népalais. Par exemple, l’hindi est une langue aux ressources beaucoup plus élevées et appartient à la même famille que le népalais. Nous pouvons étendre cela à d’autres langues également.
Low Resource Machine Translation
Traduction automatique à faibles ressources
In practice, whenever a model is being trained, there is a lot of effort that goes in analyzing the model and the properties of the data. This whole thing is an iterative process and the machine learning practitioner needs to view this with a complete picture. Secondly, if there is less data, we can downscale the model, which isn’t desirable. We need to come up with ways to enlarge the dataset somehow or use unsupervised techniques.
En pratique, chaque fois qu’un modèle est entraîné, de nombreux efforts sont déployés pour analyser le modèle et les propriétés des données. Il s’agit d’un processus itératif nécessitant d’avoir une vue d’ensemble de la situation. Deuxièmement, s’il y a moins de données, nous pouvons réduire l’échelle du modèle, ce qui n’est pas souhaitable. Nous devons trouver des moyens d’élargir le jeu de données d’une manière ou d’une autre ou utiliser des techniques non supervisées.
Challenges
Défis
Loose definition of Low Resource MT: A language pair can be considered low resource when the number of parallel sentences is in the order of 10,000 or less.
Définition approximative de la traduction automatique à faibles ressources : une paire de langues peut être considérée comme à faibles ressources lorsque le nombre de phrases parallèles est de l’ordre de 10 000 ou moins.
Challenges encountered in Low Resource Machine Translation tasks:
Défis rencontrés dans les tâches de traduction automatique à faibles ressources :
Datasets
Jeux de données :
Sourcing data to train on
Trouver des données pour l’entraînement
High quality evaluation datasets
Trouver des données d’évaluation de haute qualité
Metrics
Métrique :
Human evaluation
Évaluation humaine
Automatic evaluation
Évaluation automatique
Modeling
Modélisation :
Learning paradigm
Paradigme d’apprentissage
Domain adaption
Adaptation au domaine
Generalization
Généralisation
Scaling
Mise à l’échelle
Additionally, there will be challenges that are encountered in general Machine Translation tasks:
En outre, il y a des défis qui sont rencontrés dans les tâches générales de traduction automatique :
Exposure bias (training for generation)
Biais d’exposition (entraînement pour la génération)