English
stringlengths
2
2.26k
French
stringlengths
2
1.87k
In Constrastive Learning, each sample has corresponding positives and negatives, and the aim of the learning task is to try and bring together positive embeddings, while pushing apart negative embeddings. Essentially we are creating groups within the feature space.
Dans l’apprentissage constrastif, chaque échantillon comporte des éléments positifs et négatifs correspondants. Le but de la tâche d’apprentissage est d’essayer de rassembler les enchâssemnts positifs tout en repoussant les enchâssemnts négatifs. Nous créons donc essentiellement des groupes dans l’espace des caractéristiques.
Clustering, on the other hand, is a more direct way to achieve grouping, as it naturally creates groups in the feature space.
Le clustering est un moyen plus direct de réaliser le regroupement car il crée naturellement des groupes dans l’espace des caractéristiques.
SwAV
SwAV
The SwAV (Swapping Assignments between Views) algorithm is an online clustering method. The idea here is to maximize the similarity of a given image i and augmentation of that image augment(I) and, in doing so, ensure they belong to the same cluster.
L’algorithme SwAV (Swapping Assignments between Views) est une méthode de clustering en ligne. L’idée ici est de maximiser la similarité d’une image donnée i et de l’augmentation de cette image augment(I) et, ce faisant, de s’assurer qu’elles appartiennent au même cluster.
Samples and their augmentations are represented by different shades of the same color. The similarity of each sample’s embedding with each of the prototypes (cluster-centers) is computed. The sample is then assigned to the prototype with the highest similarity. The aim of the network is to assign an image and its augmentation to the same prototype.
Les échantillons et leurs augmentations sont représentés par différentes nuances de la même couleur. La similarité de l’enchâssement de chaque échantillon avec chacun des prototypes (centres des clusters) est calculée. L’échantillon est alors assigné au prototype ayant la plus grande similarité. L’objectif du réseau est d’affecter une image et son augmentation au même prototype.
Can it lead to any trivial solution?
Peut-il conduire à une solution triviale ?
A trivial solution is possible where every sample is assigned to the same group/cluster/prototype. This would cause a collapsed representation for any given input.
Une solution triviale est possible lorsque chaque échantillon est affecté au même groupe/cluster/prototype. Cela entraîne une représentation effondrée pour toute entrée donnée.
How to avoid trivial solution?
Comment éviter la solution triviale ?
Equipartition constraint
Contrainte d’équipartition
Given n samples and k partitions, each cluster is allowed to have a maximum of n/k samples. Embeddings are equally partitioned and this prevents the single cluster trivial solution. Optimal-transport based clustering methods such as the Sinkhorn-Knopp algorithm inherently guarantees the constraint.
Étant donné N échantillons et kk partitions, chaque cluster est autorisé à avoir un maximum de n/k échantillons. Les enchâssements sont partitionnés de manière égale ce qui empêche la solution triviale du cluster unique. Les méthodes de clustering basées sur le transport optimal, comme l’algorithme de Sinkhorn-Knopp, garantissent intrinsèquement la contrainte.
Soft assignment
Affectation douce
1. In soft assignment, a sample belongs to all prototypes with some proportion of each, such that they all sum up to 1.0. The composition values can be treated as a code that indicates how each embedding is encoded in the ‘prototype’ space.
1. Dans l’affectation douce, un échantillon appartient à tous les prototypes avec une certaine proportion de chacun d’entre eux, de sorte que leur somme soit égale à 1. Les valeurs de composition peuvent être traitées comme un code qui indique comment chaque enchâssement est codé dans l’espace prototype.
Consider the case where we have a high class imbalance. If we use the equipartition method, then won’t that give inacurate results?
Considérons le cas où nous avons un déséquilibre de classe élevé. Si nous utilisons la méthode d’équipartition, cela ne donnera-t-il pas des résultats inexacts ?
Soft assignment solves this problem by representing a lot more classes (logically) than hard assignment. It gives a richer representation and is less sensitive to k (number of classes) and hence k/n. However, if hard assignment is used, the class imbalance and the fixed value of n/k will create inaccuracies.
L’affectation douce résout ce problème en représentant beaucoup plus de classes que l’affectation dure. Elle donne une représentation plus riche et est moins sensible à k (nombre de classes) et donc à k/n. Cependant, si l’affectation dure est utilisée, le déséquilibre des classes et la valeur fixe de n/k créeront des imprécisions.
Training SwAV:
Entraînement de SwAV :
2 crops from an image are passed through the network to compute the corresponding codes. The 2nd2nd code is then predicted from the 1st embedding and vice versa. This task forces the network to become invariant to data augmentations. Gradients are backpropagated onto the prototypes as well. Hence this model is updated in an online manner.
Deux patchs d’une image sont passés par le réseau pour calculer les codes correspondants. Le code 22 est alors prédit à partir de l’enchâsement 1 et vice versa. Cette tâche force le réseau à devenir invariant aux augmentations de données. Les gradients sont également rétropropagés sur les prototypes. Ce modèle est donc mis à jour en ligne.
Advantages of SwAV:
Avantages de SwAV :
1. No explicit negatives needed
1. Pas besoin de négations explicites
2. Optimal transport methods avoid trivial solutions.
2. Les méthodes de transport optimales évitent les solutions triviales
3. Faster convergence than contrastive learning.
3. Convergence plus rapide que l’apprentissage contrastif
The code space imposes more constraints and the embeddings are not directly compared.
L’espace des codes impose plus de contraintes et les enchâsements ne sont pas directement comparés
4. Less compute requirements.
4. Moins d’exigences en matière de calcul
5. Smaller number (4-8) of GPUs required.
5. Un plus petit nombre (4-8) de GPUs est nécessaire
Pretraining on ImageNet without labels:
Pré-entraînement sur ImageNet sans étiquettes :
Even though ImageNet without labels can be used for self supervised learning, there is an inherent bias in the dataset due to the curation/hand-selection process involved.
Même si ImageNet sans étiquettes peut être utilisé pour l’apprentissage autosupervisé, il existe un biais inhérent dans le jeu de données en raison du processus de sélection impliqué.
1. Images belong to 1000 specific classes
1. Les images appartiennent à 1000 classes spécifiques
2. Images contain a prominent object
2. Les images contiennent un objet proéminent
3. Images have very limited clutter and very few background concepts
3. Les images ont un encombrement très limité et très peu de concepts de fond
Pretraining on Non-ImageNet data
Pré-entraînement sur des données non-ImageNet
Pretraining on Non-ImageNet data hurts performance.
Le pré-entraînement sur des données non-ImageNet nuit aux performances.
Consider the above image. One crop has a refrigerator and the other crop could be that of a table/chair. The algorithm would try to create similar embeddings for both of them, because they belong to the same image. This is not what we expect from the training process.
Considérons l’image ci-dessus. Un patch présente un réfrigérateur et l’autre pourrait être celui d’une table/chaise. L’algorithme essaie de créer des enchâssements similaires pour les deux car ils appartiennent à la même image. Ce n’est pas ce que nous attendons du processus d’entraînement.
Real world data has very different distributions. They may sometimes even be cartoon images or memes, and there is no guarantee that an image will contain a single (or sometimes, any) prominent object.
Les données du monde réel ont des distributions très différentes. Il peut même s’agir d’images de dessins animés ou de memes et rien ne garantit qu’une image contiendra un seul (ou parfois, n’importe quel) objet proéminent.
SEER, AVID + CMA, Distillation, Barlow Twins
SEER, AVID + CMA, Distillation, Barlow Twins
SEER: Learning from uncharted Images
SEER : Apprendre à partir d’images non répertoriées
Compared to Imagenet dataset, real world images may have different distributions (cartoons, memes) and may or may not have a prominent object. In order to verify if the models work well on images outside of Imagenet dataset we decided to test Swav method on large scale data. SEER is Swav method tested on billions of unfiltered images.
Par rapport au jeu de données Imagenet, les images du monde réel peuvent avoir des distributions différentes (dessins animés, memes) et avoir ou non un objet proéminent. Afin de vérifier si les modèles fonctionnent bien sur des images en dehors de la base de données Imagenet, les auteurs de SEER ont décidé de tester la méthode SWAV sur des données à grande échelle. SEER (SElf-supERvised) est donc la méthode SWAV testée sur des milliards d’images non filtrées.
Following graph compares the fine tune performance of the four models when transferred to Imagenet. Using SEER method, a model can be trained with more than a billion parameters which are going to transfer really well to Imagenet.
Le graphique suivant compare les performances des quatre modèles finetunés sur Imagenet. En utilisant la méthode SEER, un modèle peut être entraîné avec plus d’un milliard de paramètres qui vont se transférer très bien à Imagenet.
As shown in the following table, the performance of SEER is comparable to the networks trained on curated data with weak supervision.
Comme le montre le tableau suivant, les performances de SEER sont comparables à celles des réseaux entraînés sur des données organisées avec une supervision faible.
AVID + CMA
AVID + CMA
Audio Visual Instance Discrimination with Cross Modal Agreement is a method that combines contrastive learning and clustering techniques.
Audio Visual Instance Discrimination with Cross Modal Agreement est une méthode qui combine l’apprentissage contrastif et les techniques de clustering.
For contrastive leaning on an Audio-Video dataset, when the (audio-video) inputs are passed to the two encoders (fa,fv​) we will get two embeddings (audio and video). The embeddings from the same sample should be close in feature space compared to embeddings from different samples.
Pour l’apprentissage contrastif sur un jeu de données audio-vidéo, lorsque les entrées (audio-vidéo) sont transmises aux deux encodeurs (fa,fv), nous obtenons deux enchâssements (audio et vidéo). Les enchâssements d’un même échantillon doivent être proches dans l’espace des caractéristiques par rapport aux enchâssements de différents échantillons.
To introduce the clustering, the notion of the positives and negatives is expanded as shown in the following image. Computing the similarities in the video and audio embeddings from a reference point to all the other samples results in Positive Set and Negative Set. A sample falls into positive set when both its audio and video embeddings are similar to the reference embeddings.
Pour introduire le clustering, la notion de positifs et négatifs est étendue comme le montre l’image suivante. Le calcul des similarités dans les enchâssements vidéo et audio à partir d’un point de référence vers tous les autres échantillons donne lieu à un ensemble positif et un ensemble négatif. Un échantillon tombe dans l’ensemble positif lorsque ses enchâssements audio et vidéo sont tous deux similaires aux enchâssements de référence.
Distillation
Distillation
Distillation methods are similarity maximization based methods. Like other SSL methods distillation tries to prevent trivial solutions. It does so by asymmetry in two different ways.
Les méthodes de distillation sont des méthodes basées sur la maximisation de la similarité. Comme les autres méthodes d’apprentissage autosupervisé, la distillation tente d’empêcher les solutions triviales. Elle le fait par l’asymétrie de deux manières différentes :
Asymmetric learning rule between student teacher
1. Règle d’apprentissage asymétrique entre l’étudiant et l’enseignant.
Asymmetric architecture between student teacher
2. L’architecture asymétrique entre l’étudiant et l’enseignant.
BYOL
BYOL
BYOL is a distillation technique whose architecture is shown below.
BYOL (Bootstrap Your Own Latent) est une technique de distillation dont l’architecture est présentée ci-dessous.
There is an asymmetry in architecture between student teacher as student has an additional prediction head. The gradient backpropagation only happens through Student encoder clearly creating an asymmetry in learning rate. In BYOL there is an additional source of asymmetry which is in weights of student encoder and teacher encoder. Teacher encoder is created as moving average of student encoder. These asymmetries will prevent the model from trivial solutions.
Il y a une asymétrie dans l’architecture entre l’étudiant et l’enseignant car l’étudiant a une tête de prédiction supplémentaire. La rétropropagation du gradient ne se fait qu’à travers l’encodeur de l’étudiant créant clairement une asymétrie dans le taux d’apprentissage. Dans BYOL, il y a une source supplémentaire d’asymétrie qui se trouve dans les poids de l’encodeur de l’étudiant et de l’encodeur de l’enseignant avec l’encodeur de l’enseignant qui est créé comme une moyenne mobile de l’encodeur de l’étudiant. Ces trois asymétries vont empêcher le modèle d’avoir des solutions triviales.
SimSiam
SimSiam
Recent studies showed that all the three sources of asymmetry discussed in BYOL are not needed to prevent the trivial solutions. In SimSiam architecture the student and teacher share the same set of weights and there are two sources of asymmetry.
Des études récentes ont montré que les trois sources d’asymétrie présentes dans BYOL ne sont pas nécessaires pour empêcher les solutions triviales. Dans l’architecture SimSiam (Simple Siamese), l’étudiant et l’enseignant partagent le même ensemble de poids et il existe deux sources d’asymétrie :
In architecture of student encoder with an additional predictor head.
1. Dans l’architecture de l’encodeur de l’étudiant avec une tête de prédiction supplémentaire.
In learning rate, when backpropagating the gradients are passed only through student encoder but not the teacher encoder. After each epoch, the weights of student encoder are copied to the teacher encoder.
2. Dans le taux d’apprentissage, lors de la rétropropagation, où les gradients ne passent que par l’encodeur de l’étudiant mais pas par celui de l’enseignant. Après chaque époque, les poids de l’encodeur étudiant sont copiés dans l’encodeur de l’enseignant.
Barlow Twins
Barlow Twins
Hypothesis from information theory
Hypothèse issue de la théorie de l’information
The efficient coding hypothesis was proposed by Horace Barlow in 1961 as a theoretical model of sensory coding in the brain. Within the brain, neurons communicate with each other by sending electrical impulses called spikes. Barlow hypothesised that the spikes in the sensory system form a neural code for efficiently representing sensory information. By efficient, Barlow meant that the code minimises the number of spikes needed to transmit a given signal.
L’hypothèse du codage efficace a été proposée par Horace Barlow en 1961 comme modèle théorique du codage sensoriel dans le cerveau. Barlow a émis l’hypothèse que les impulsions électriques dans le cerveau forment un code neuronal permettant de représenter efficacement les informations sensorielles. C’est-à-dire que ce code minimise le nombre d’impulsions nécessaires pour transmettre un signal donné notamment d’un point de vue énergétique notamment. Cette hypothèse est basée sur la théorie de l’information.
Implementation
Mise en œuvre
The Barlow Twins method proposes an objective function that naturally avoids such collapse by measuring the cross-correlation matrix between the outputs of two identical networks fed with distorted versions of a sample and making them as close as possible to the identity matrix.
La méthode des Barlow Twins propose une fonction objectif qui évite naturellement l’effondrement causé par les solutions triviales. Elle mesure la matrice de corrélation croisée entre les sorties des deux réseaux identiques (ayant préalablement eu en entrée des versions déformées d’un échantillon) et en les rendant aussi proches que possible de la matrice d’identité.
Barlow’s redundancy-reduction principle applied to a pair of identical networks. The objective function measures the cross-correlation matrix between the output features of two identical networks fed with distorted versions of a batch of samples and attempts to bring this matrix close to the identity. This causes the representation vectors of distorted versions of a sample to be similar, while minimizing the redundancy between the components of these vectors (Figure 7).
Les vecteurs de représentation des versions déformées d’un échantillon sont ainsi similaires, tout en minimisant la redondance entre les composantes de ces vecteurs (figure 7).
More formally, it produces two distorted views for all images of a batch X. The distorted views are obtained via a distribution of data augmentations T. The two batches of distorted views YA and YB are then fed to a function fθ​, typically a deep network with trainable parameters θ, producing batches of representations ZA and ZB respectively.
Plus formellement, cela produit deux vues déformées pour toutes les images d’un batch X. Les vues déformées sont obtenues via une distribution d’augmentations de données T. Les deux batchs de vues déformées YA et YB sont ensuite soumis à une fonction fθ​, typiquement un réseau profond avec des paramètres entraînables θ, produisant respectivement des batchs de représentations ZA et ZB.
The loss function LBT​ contains a invariance and redundancy reduction:
La fonction de perte LBT​ contient un terme d’invariance et un terme de réduction de la redondance :
where Λ is a constant controlling the importance of the first and second terms of the loss, and where c is the cross-correlation matrix computed between the outputs of the two identical networks along the batch dimension:
où Λ est une constante contrôlant l’importance des premier et deuxième termes de la perte. Et on a c la matrice de corrélation croisée calculée entre les sorties des deux réseaux identiques le long de la dimension du batch :
where b indexes batch samples and i,j index the vector dimension of the networks’ outputs. c is a square matrix with size the dimensionality of the network’s output. In other words
où b indexe les échantillons de batch et i,j indexe la dimension vectorielle des sorties des réseaux. c est une matrice carrée dont la taille correspond à la dimension de la sortie du réseau.
Intuitively, the invariance term of the objective, by trying to equate the diagonal elements of the cross-correlation matrix to 1, makes the representation invariant to the distortions applied. The redundancy reduction term, by trying to equate the off-diagonal elements of the cross-correlation matrix to 0, decorrelates the different vector components of the representation. This decorrelation reduces the redundancy between output units, so that the output units contain non-redundant information about the sample.
Intuitivement, en essayant d’égaliser les éléments diagonaux de la matrice de corrélation croisée à 1, le terme d’invariance de l’objectif rend la représentation invariante aux distorsions appliquées. En essayant d’égaliser les éléments hors diagonale de la matrice de corrélation croisée à 0, le terme de réduction de la redondance décorréle les différentes composantes vectorielles de la représentation. Cette décorrélation réduit la redondance entre les unités de sortie, de sorte que les unités de sortie contiennent des informations non redondantes sur l’échantillon.
Transformer Encoder-predictor-decoder architecture
Architecture encodeur-predicteur-décodeur d'un transformer
The Transformer
Le transformer
Before elaborating the encoder-predictor-decoder architecture, we are going to review two models we’ve seen before.
Avant d’élaborer l’architecture encodeur-prédicteur-décodeur, nous allons passer en revue deux modèles que nous avons déjà vus.
Conditional EBM latent variable architecture
Architecture d’un EBM conditionnel à variable latente
We should be familiar with the terminology of these modules from the previous lectures. In the conditional EBM latent variable architecture, we have x the conditional variable which goes into a predictor. We have y which is the target value. The decoder modules will produce y~​ when fed with a latent variable z and the output of the predictor. EE is the energy function which minimizes the energy between y~​ and y~.
Dans l’architecture d’un EBM conditionnel à variable latente, nous avons x la variable conditionnelle qui va dans un prédicteur. Nous avons y qui est la valeur cible. Les modules de décodage produisent y~​ lorsqu’on leur donne une variable latente z et la sortie du prédicteur. E est la fonction d’énergie qui minimise l’énergie entre y~​ et y~.
Autoencoder architecture
Architecture d’un auto-encodeur
In Autoencoder architecture , we observed there is no conditional input but only a target variable. The entire architecture is trying to learn the structure in these target variables. The target value y is fed through an encoder module which transforms into a hidden representation space, forcing only the most important information through. And the decoder will make these variables come back to the original target space with a y~​. And the cost function will try to minimize the distance between y~​ and y~.
Dans l’architecture d’un auto-encodeur, nous avons observé qu’il n’y a pas d’entrée conditionnelle mais seulement une variable cible. L’architecture entière essaie d’apprendre la structure de ces variables cibles. La valeur cible y est introduite dans un module encodeur qui la transforme en un espace de représentation caché, ne laissant passer que les informations les plus importantes. Et le décodeur fera en sorte que ces variables reviennent à l’espace cible original avec une valeur y~​. La fonction de coût va essayer de minimiser la distance entre y~​ et y~.
Encoder-predictor-decoder architecture
Architecture de l’encodeur-prédicteur-décodeur
In a transformer, y (target sentence) is a discrete time signal. It has discrete representation in a time index. The y is fed into a unit delay module succeeded by an encoder. The unit delay here transforms y[j]↦y[j−1]. The only difference with the autoencoder here is this delayed variable. So we can use this structure in the language model to produce the future when given the past.
Dans un transformer, y (phrase cible) est un signal temporel discret. Il a une représentation discrète dans un index temporel. Le y est introduit dans un module de retard unitaire suivi d’un encodeur. Le retard unitaire transforme ici y[j]↦y[j−1] La seule différence avec l’auto-encodeur ici est cette variable retardée. Nous pouvons donc utiliser cette structure dans le modèle de langage pour produire le futur lorsqu’on nous donne le passé.
The observed signal, x (source sentence) , is also fed through an encoder. The output of both encoder and delayed encoder are fed into the predictor, which gives a hidden representation h. This is very similar to denoising autoencoder as the delay module acts as noise in this case. And x here makes this entire architecture a conditional delayed denoising autoencoder.
Le signal observé, x (phrase source) passe également par un encodeur. La sortie de l’encodeur et de l’encodeur retardé est introduite dans le prédicteur qui donne une représentation cachée h. Ceci est très similaire à l’auto-encodeur débruiteur car le module de retard agit comme un bruit dans ce cas. x fait de cette architecture entière un auto-encodeur débruiteur conditionnel retardé.
Encoder module
Module encodeur
You can see the detailed explanation of these modules from last year’s slides here.
Vous pouvez voir l’explication détaillée de ce module dans les notes de l’année dernière disponibles ici.
Predictor Module
Module prédicteur
The transformer predictor module follows a similar procedure as the encoder. However, there is one additional sub-block (i.e. cross-attention) to take into account. Additionally, the output of the encoder modules acts as the inputs to this module.
Le module prédicteur du transformer suit une procédure similaire à celle de l’encodeur. Cependant, il y a un sous-bloc supplémentaire (c’est-à-dire l’attention croisée) à prendre en compte. De plus, la sortie des modules encodeurs agit comme les entrées de ce module.
Cross attention
Attention croisée
You can see the detailed explanation of cross attention from last year’s slides cross-attention.
Vous pouvez consulter l’explication détaillée de l’attention croisée dans les notes de l’année dernière disponibles ici.
Decoder module
Module décodeur
Contrary to what authors of the Transformer paper define, the decoder module consists of 1D-convolution and Add, Norm blocks. The output of the predictor module is fed to the decoder module and the output of the decoder module is the predicted sentence. We can train this by providing the delayed target sequence.
Contrairement à ce que les auteurs du papier du transformer définissent, le module décodeur est composé de blocs 1D-convolution et Add, Norm. La sortie du module prédicteur est introduite dans le module décodeur et la sortie du module décodeur est la phrase prédite. On peut l’entraîner en fournissant la séquence cible retardée.
We provide an introduction to the problem of speech recognition using neural models, emphasizing the CTC loss for training and inference when input and output sequences are of different lengths.
Nous présentons une introduction au problème de la reconnaissance de la parole à l’aide de modèles neuronaux en mettant l’accent sur la perte CTC (Connectionist Temporal Classification) pour l’entraînement et l’inférence lorsque les séquences d’entrée et de sortie sont de longueurs différentes.
We discuss beam search for use during inference, and how that procedure may be modeled at training time using a Graph Transformer Network. Graph transformers networks are basically weighted finite-state automata with automatic differentiation, that allows us to encode priors into a graph. There are different type of weighted finite-state and different operations including union, Kleene closure, intersection, compose, and forward score. The loss function is usually the difference between to functions. We can easily implement these networks using GTN library.
Nous discutons de l’utilisation de la recherche en faisceau pendant l’inférence ainsi que de la façon dont cette procédure peut être modélisée au moment de l’entraînement d’un Graph Transformer Network (GTN). Les GTNs sont essentiellement des « accepteur d’état fini pondéré » (WFSA pour « Weighted Finite State Acceptor ») avec différenciation automatique permettant d’encoder des a priori dans un graphe. Il existe différents types d’états finis pondérés et opérations, notamment l’union, l’étoile de Kleene, l’intersection, la composition et le score forward. La fonction de perte est généralement la différence entre deux fonctions. Nous pouvons facilement implémenter ces réseaux en utilisant la bibliothèque gtn.
Speech Recognition and Graph Transformer Network I
Reconnaissance vocale et Graph Transformer Network I
Modern Speech Recognition
Reconnaissance de la parole moderne
Automatic speech recognition has greatly improved since 2012
La reconnaissance automatique de la parole s’est grandement améliorée depuis 2012
Machine performance can be as good or better than human level performance
La performance de la machine peut être aussi bonne ou meilleure que la performance humaine.
Speech recognition still struggles in
La reconnaissance vocale a encore des difficultés dans le cadre :
conversational speech
d’un discours conversationnel,
multiple speakers
de plusieurs locuteurs,
lots of background noise
de beaucoup de bruit de fond,
the accent of the speakers
de l’accent des locuteurs,
certain features not well represented in the training data
de certaines caractéristiques ne sont pas bien représentées dans les données d’entraînement.
Pre 2012 speech recognition systems consisted of lots of many hand engineered components
Les systèmes de reconnaissance vocale d’avant 2012 étaient constitués d’un grand nombre de composants conçus à la main :
larger dataset is not useful so datasets remain small
un grand ensemble de données n’est pas utile donc les jeux de données sont petits,
combining modules only at inference time instead of learning them together allowed for errors to cascade
la combinaison des modules uniquement au moment de l’inférence (au lieu de les apprendre ensemble) a entraîné des erreurs en cascade,
researchers hard to know how to improve complex systems
les chercheurs ont du mal à savoir comment améliorer les systèmes complexes.
Post 2012 speech recognition systems improvements
Améliorations des systèmes de reconnaissance vocale après 2012 :
replaced a lot of the traditional components
remplacement d’une grande partie des composants traditionnels,
add more data
ajout de plus de données,