English
stringlengths
2
2.26k
French
stringlengths
2
1.87k
To be clear, we show the units of x,u.
Pour être clair, nous montrons les unités de x,u.
Let’s take a look at different examples. We use different color for variables we care about.
Jetons un coup d’oeil à différents exemples. Nous utilisons une couleur différente pour les variables qui nous intéressent.
Kelley-Bryson algorithm
Algorithme de Kelley-Bryson
What if we want the tri-cycle to reach a specified destination with a specified speed?
Que faire si l’on veut que le tricycle atteigne une destination donnée à une vitesse donnée ?
This can be achieved by inference using Kelley-Bryson algorithm, which utilizes backprop through time and gradient descent.
Cela peut être réalisé par inférence à l’aide de l’algorithme de Kelley-Bryson, qui utilise la rétropropation à travers le temps et la descente de gradient.
Recap of RNN
Récapitulation des réseaux de neurones récurrents (RNNs)
We can compare the inference process here with the training process of RNN.
Nous pouvons comparer le processus d’inférence ici avec le processus d’entraînements des RNNs.
Below is an RNN schematic chart. We feed variable x[t] and the previous state h[t−1] into the predictor, while h[0] is set to be zero. The predictor outputs the hidden representation h[t].
Voici le schéma d’un RNN. Nous introduisons la variable x[t] et l’état précédent h[t−1] dans le prédicteur, tandis que h[0] est fixé à zéro. Le prédicteur sort la représentation cachée h[t].
Optimal control (inference)
Contrôle optimal (inférence)
Backprop is implemented in both RNN and Optimal Control. However, gradient descent is implemented with respect to predictor’s parameters in RNN, and is implemented wrt latent variable z in optimal control.
La rétropropagation est implémentée à la fois dans le RNN et dans le contrôle optimal. Cependant, la descente de gradient est implémentée par rapport aux paramètres du prédicteur dans le RNN et est implémentée par rapport à la variable latente z dans le contrôle optimal.
Unfolded version of optimal control
Version dépliée du contrôle optimal
In unfolded version of optimal control, cost can be set to either the final step of the tri-cycle or every step of the tri-cycle. Besides, cost functions can take many forms, such as Average Distance, Softmin, etc.
Dans la version dépliée du contrôle optimal, le coût peut être fixé soit à l’étape finale du tricycle, soit à chaque étape du tricycle. En outre, les fonctions de coût peuvent prendre de nombreuses formes, telles que la distance moyenne, la softmin, etc.
Set the cost to the final step
Fixer le coût à l’étape finale
From the figure below, we can see there is only one cost c set in the final step (step 5), which measures the distance of our target y and state x[5]x[5] with control z[5]z[5]
Sur la figure ci-dessous, nous pouvons voir qu’il n’y a qu’un seul coût c fixé à l’étape finale (étape 5) mesurant la distance de notre cible y et de l’état x[5] avec le contrôle z[5].
(1) If the cost function only involves the final position with no restrictions on the final speed, we can obtain the results after inference shown as below.
(1) Si la fonction de coût ne fait intervenir que la position finale sans restriction sur la vitesse finale, nous pouvons obtenir les résultats après inférence présentés comme ci-dessous.
From the figure above, it is seen that when T=5 or T=6, the final position meets the target position, but when T is above 6 the final position does not.
D’après la figure ci-dessus, on constate que lorsque T=5 ou T=6, la position finale respecte la position cible. Mais lorsque T est supérieur à 6, la position finale ne le fait pas.
(2) If the cost function involves the final position and zero final speed, we can obtain the results after inference shown as below.
(2) Si la fonction de coût fait intervenir la position finale et la vitesse finale nulle, on peut obtenir les résultats après inférence présentés ci-dessous.
From the figure above, it is seen that when T=5 or T=6, the final position roughly meets the target position, but when T is above 6 the final position does not.
D’après la figure ci-dessus, on constate que lorsque T=5 ou T=6, la position finale correspond à peu près à la position cible. Mais que lorsque T est supérieur à 6, la position finale ne correspond pas.
Set the cost to every step
Définir le coût à chaque étape
From the figure below, we can see there is a cost c set in every step.
D’après la figure ci-dessous, nous pouvons voir qu’il y a un coût c fixé à chaque étape.
In this section, we discussed Visual Representation Learning, focused on self-supervised visual representation learning. This can be classified into Generative models, Pretext Tasks and Joint Embedding methods. In generative models, you train the model to reconstruct the original image from the noisy image. In pretext tasks, you train the model to figure out a smart way to generate pseudo labels. Joint Embedding methods try to make their backbone network robust to certain distortions and are invariant to data augmentation. JEM training methods can be classified into four types: contrastive methods, non-contrastive methods, clustering methods and Other methods. He concluded the lecture by discussing contrastive methods which push positive pairs closer and negative pairs away.
Dans cette section, nous abordons l’apprentissage de représentations visuelles en nous concentrant sur l’apprentissage autosupervisé. Les méthodes applicables peuvent être classées en modèles génératifs, tâches de prétexte et méthodes d’enchâssements joints. Dans les modèles génératifs, on entraîne le modèle à reconstruire l’image originale à partir de l’image bruitée. Dans les tâches de prétextes, on entraîne le modèle à trouver un moyen intelligent de générer des pseudo-étiquettes. Les méthodes d’enchâssements joints tentent de rendre leur backbone robuste à certaines distorsions et invariant à l’augmentation des données. Les méthodes d’entraînement des JEMs peuvent être classées en quatre types : méthodes contrastives, méthodes non-contrastives, méthodes de clustering et les « autres méthodes ». Nous concluons en discutant des méthodes contrastives qui rapprochent les paires positives et éloignent les paires négatives.
In this section, we discussed non-contrastive methods which are based on information theory and don’t require special architectures or engineering techniques. Then, he went on to discuss clustering methods which prevent trivial solution by quantizing the embedding space. Finally, he discussed “Other” methods which are local and don’t create problem with distributed training unlike previous methods. He concluded the lecture by suggesting various improvisations for JEMs w.r.t Data augmentation and network architecture.
Dans cette section, nous abordons les méthodes non-contrastives qui sont basées sur la théorie de l’information et ne nécessitent pas d’architectures ou de techniques d’ingénierie particulières. Ensuite, nous voyons les méthodes de clustering qui empêchent une solution triviale en quantifiant l’espace d’enchâssement. Enfin, nous parlons d’« autres méthodes » qui sont locales et ne créent pas de problème pour l’entraînement distribué contrairement aux méthodes précédentes. Nous concluons en suggérant diverses améliorations pour les JEMs par rapport à l’augmentation de données et l’architecture des réseaux.
Joint Embedding Methods - Contrastive
Méthodes d'enchâssements joints contrastives
Visual Representation Learning
Apprentissage de représentations visuelles
Representation learning trains a system to produce the representations required for feature detection or classification from raw data. Visual representation learning is about the representations of images or videos in particular.
L’apprentissage de représentation consiste à entraîner un système à produire des représentations, pour la détection de caractéristiques ou pour la classification, à partir de données brutes. L’apprentissage de représentations visuelles concerne les représentations d’images ou de vidéos en particulier.
This can be broadly classified as shown above and the focus of the lecture would be on self-supervised visual representation learning.
On peut les classer comme indiqué ci-dessus et ce qui suit portera essentiellement sur l’apprentissage autosupervisé de représentation visuelle.
Self-supervised Visual Representation Learning
Apprentissage autosupervisé de représentations visuelles
It is a two stage process comprising pretraining and evaluation
Il s’agit d’un processus en deux étapes comprenant un pré-entraînement et une évaluation.
Step1: Pretraining
Etape 1 : pré-entraînement
Uses a large amount of unlabeled data to train a backbone network. Different methods will produce the backbone network differently
Utilisation d’une grande quantité de données non étiquetées pour entraîner un réseau backbone. Différentes méthodes produiront le backbone différemment.
Step2: Evaluation
Etape 2 : évaluation
It can be performed in two ways: feature extraction and finetuning. Both these methods generate representation from ​​the image and then use it to train DsTH ( Downstream Task Head ). The learning of the downstream task would thus be in the representation space instead of the image space. The only difference between the two methods is the stop gradient before the encoder. In finetuning, we can change the encoder unlike in feature extraction.
Elle peut être réalisée de deux manières : l’extraction de caractéristiques et le finetuning. Ces deux méthodes génèrent une représentation à partir de l’image et l’utilisent ensuite pour entraîner la tête de tâche en aval (DsTH pour Downstream Task Head). L’apprentissage de la tâche en aval se fait donc dans l’espace de représentation au lieu de l’espace d’image. La seule différence entre ces deux méthodes est l’arrêt du gradient avant l’encodeur. Dans le finetuning, nous pouvons changer l’encodeur, contrairement à l’extraction de caractéristiques.
Generative Models
Modèles génératifs
The popular one is the denoising autoencoder. You train the model to reconstruct the original image from the noisy image. After the training, we retain the encoder for the downstream task.
Le plus Populaire est l’auto-encodeur débruiteur. On entraîne le modèle à reconstruire l’image originale à partir de l’image bruitée. Après l’entraînement, on réentraîne l’encodeur pour la tâche en aval.
Issues:
Problèmes
The model tries to solve a problem that is too hard. For example: For a lot of downstream tasks, you don’t have to reconstruct the image, which is a tougher problem than the downstream task itself. Also, sometimes the loss function is not good enough. For example: the Euclidean distance used as a reconstruction loss metric isn’t a good metric for comparing the similarity between two images.
Le modèle tente de résoudre un problème qui est trop difficile. Par exemple, pour beaucoup de tâches en aval, il ne faut pas reconstruire l’image qui est un problème plus complexe que la tâche en aval elle-même. De même, il arrive que la fonction de perte ne soit pas assez bonne. Par exemple, la distance euclidienne utilisée comme métrique de perte de reconstruction n’est pas une bonne métrique pour comparer la similarité entre deux images.
Pretext Tasks
Tâches de prétexte
It’s almost the same as above but you train the model to figure out a smart way to generate pseudo labels. For example: Given the image of a tiger, the shuffled image is the input x, and the output y would be the correct way of labeling the patches. The network successfully reinventing the patches indicates that it understands the image.
C’est presque la même chose que ci-dessus mais on entraîne le modèle à trouver un moyen intelligent de générer des pseudo-étiquettes. Par exemple, étant donné l’image d’un tigre, l’image mélangée est l’entrée x et la sortie y serait la bonne manière d’étiqueter les patchs. Le fait que le réseau réussisse à réinventer les patchs indique qu’il comprend l’image.
Issues:
Problèmes
Designing the pretext task is tricky. if you design the task too easy, the network won’t learn good representation. But if you design the task hard, it can become harder than the downstream task and the network wouldn’t be trained well. Also, the representations generated via this method will be tailored to the specific downstream task.
La conception de la tâche de prétexte est délicate. Si vous la concevez trop facile, le réseau n’apprendra pas une bonne représentation. Mais si vous la concevez trop difficile, elle peut devenir plus difficile que la tâche en aval et le réseau ne sera pas bien entraîné. En outre, les représentations générées par cette méthode seront adaptées à la tâche spécifique en aval.
Joint Embedding Methods
Les méthodes d’enchâssements joints
Joint Embedding methods try to make their backbone network robust to certain distortions and are invariant to data augmentation.
Les méthodes d’enchâssements joints tentent de rendre leur backbone robuste à certaines distorsions et invariant à l’augmentation des données.
As an example, as shown in the image below, for an image of a dog, you take two distorted versions of the image, then encode them with your backbone network to generate representations and you make them to be close to each other. Thus, ensuring the two images share some semantic information.
Par exemple, comme le montre l’image ci-dessous, pour l’image d’un chien, vous prenez deux versions déformées de l’image, puis vous les passez dans les backbones pour générer des représentations et vous faites en sorte qu’elles soient proches les unes des autres. Ainsi, vous vous assurez que les deux images partagent certaines informations sémantiques.
They also prevent trivial solutions. The network could collapse with just the above condition, as the network can become invariant not only to distortions but to the input altogether i.e., irrespective of the input, it could generate the same output. JEMs try to prevent this trivial solution in different ways.
Le réseau pourrait s’effondrer avec la seule condition ci-dessus car il peut devenir invariant non seulement aux distorsions mais aussi à l’entrée dans son ensemble, c’est-à-dire que, quelle que soit l’entrée, il pourrait générer la même sortie. Les JEMs essaient d’empêcher cette solution triviale de différentes manières.
Instead of considering only local energy ( between two pairs of distorted images ), these methods get a batch of the images and ensure that the collection of the representation, HxHx​, doesn’t have the same rows or columns. ( which is the trivial solution )
Au lieu de considérer uniquement l’énergie locale (entre deux paires d’images déformées), ces méthodes ont un batch d’images et s’assurent que la collection de la représentation, HxHx​, n’a pas les mêmes lignes ou colonnes (ce qui correspond à la solution triviale).
Components:
Composants :
Every Joint Embedding Method has the following components:
Chaque méthode d’enchâssements joints a les composantes suivantes :
1. Data augmentation ( x and y ): The way you generate the two distorted versions of the image.
1. Augmentation des données (x et y) : la façon dont vous générez les deux versions déformées de l’image.
2. Backbone Network ( BB ) - The definition of the backbone
2. Le backbone (BB) : la définition du backbone.
3. Energy function ( D ) - The definition of the distance between the two representations.
3. La fonction d’énergie (D) : la définition de la distance entre les deux représentations.
4. Loss functionals ( A and B ) - The definition of the loss functionals calculated per batch of size N.
4. Les fonctions de perte (A et B) : la définition des fonctions de perte calculées par batch de taille N.
Joint Embedding Loss Functions:
Fonctions de perte des méthodes d’enchâssements joints :
Joint Embedding Loss Functions contain two components:
Les fonctions de perte des méthodes d’enchâssements joints contiennent deux composantes :
1. A term that pushes the positive pair closer
1. Un terme qui rapproche la paire positive
2. An (implicit) term that prevents the trivial solution (constant output) - implicit because a lot of “other methods” do not have an explicit term to prevent the trivial solution.
2. Un terme (implicite) qui empêche la solution triviale (sortie constante). Le terme est implicite car beaucoup d’« autres méthodes » n’ont pas de terme explicite pour empêcher la solution triviale.
To make the training stable, people usually normalize the embeddings or put a hinge on the loss function to prevent the norm of embeddings from becoming too large or too small
Pour rendre l’entraînement stable, les gens normalisent généralement les enchâssements ou mettent un seuil sur la fonction de perte pour empêcher la norme des enchâssements de devenir trop grande ou trop petite.
Training Methods
Méthodes d’entraînement
The training methods can be further classified into the following four types:
Les méthodes d’entraînement peuvent être classées en quatre types différents :
1. Contrastive methods
1. Les méthodes contrastives
2. Non-Contrastive methods
2. Les méthodes non-contrastives
3. Clustering methods
3. Les méthodes de regroupement (clustering)
4. Other methods
4. Les « autres méthodes »
Contrastive methods
Méthodes contrastives
Contrastive methods push positive pairs closer and negative pairs away. More details about the contrastive methods including MoCo, PIRL, and SimCLR have been discussed here.
Les méthodes contrastives rapprochent les paires positives et éloignent les paires négatives. Plus de détails sur les méthodes contrastives, y compris MoCo, PIRL et SimCLR, sont disponibles dans l’édition 2020 du cours.
The InfoNCE loss function:
La fonction de perte InfoNCE :
Both SimCLR and MoCO use the InfoNCE loss function.
SimCLR et MoCo utilisent tous deux la fonction de perte InfoNCE.
The first term indicates the similarity between positive pairs and the second term is the softmax between all the negative pairs. We would like to minimize this whole function.
Le premier terme indique la similarité entre les paires positives. Le second terme est la fonction softmax entre toutes les paires négatives. Nous voulons minimiser cette fonction entière.
Notice that it gives different weights to different negative samples. The negative pair that has high similarity is pushed much harder than the negative pair with low similarity because there’s a softmax. Also, the similarity measurement here is the inner product between the two representations, and to prevent the gradient explosion, the norm is normalized. Thus, even if the vector grew long, the term ensures that it is a unit vector.
Remarquons qu’elle donne des poids différents aux différents échantillons négatifs. La paire négative qui a une forte similarité est poussée beaucoup plus fort que la paire négative avec une faible similarité parce qu’il y a la softmax. De plus, la mesure de similarité est ici le produit scalaire hermitien entre les deux représentations que l’on normalise pour éviter l’explosion du gradient. Ainsi, même si le vecteur est devenu long, le terme garantit qu’il s’agit d’un vecteur unitaire.
Memory Bank:
Banque mémoire
As already mentioned, these models require negative samples. However, finding negative pairs becomes difficult as the embedding spaces become large.
Comme déjà mentionné, ces modèles nécessitent des échantillons négatifs. Cependant, trouver des paires négatives devient difficile lorsque les espaces d’enchâssements deviennent grands.
To handle this, SimCLR and MoCO use large batch sizes to find the samples. The difference between SimCLR and MoCO is the way they deal with the large batch size. SimCLR uses 8192 as the batch size. However, MoCO tries to solve the requirement of a large batch size without actually using a large batch size by using a memory bank. It uses a small batch size but instead of using negative samples from only the current batch, it collects them even from previous batches. For example: with a 256 batch size, aggregating the previous 32 batches of negative samples results essentially in a batch size of 8192. This method saves memory and avoids the effort to generate the negative samples again and again.
Pour résoudre ce problème, SimCLR et MoCo utilisent des batchs de grande taille pour trouver les échantillons. La différence entre SimCLR et MoCo est la façon dont ils traitent la grande taille des batchs. SimCLR utilise une taille de batchs de 8192. Cependant, MoCo essaie de résoudre l’exigence d’une grande taille de batch sans en utiliser réellement une grâce à une banque mémoire. Au lieu d’utiliser des échantillons négatifs provenant uniquement du batch actuel, on en collecte dans les batchs précédents. Par exemple : pour un batch de taille 256, l’agrégation des 32 batchs précédents d’échantillons négatifs donne une taille de 8192. Cette méthode permet d’économiser de la mémoire et évite d’avoir à générer les échantillons négatifs encore et encore.
Issue: Because B is updated every step, the backbone is updated every step, and thus, after a while, the old negative samples are not valid anymore and can lead to a decrease in performance. To avoid this, MoCO uses a momentum backbone that slows down the training of the right backbone. In that case, the difference between the older momentum backbone and the new momentum backbone is not that different, retaining the validitiy of the negative sample even after a while.
Problème : Parce que B est mis à jour à chaque pas de temps, le backbone est mis à jour à chaque pas de temps, alors après un certain temps, les vieux échantillons négatifs ne sont plus encore valides ce qui peut mener à une baisse des performances. Pour éviter cela, MoCo utilise un backbone avec momentum qui ralentit l’entraînement du backbone de droite. Dans ce cas, la différence entre le vieux backbone avec momentum et le nouveau backbone avec momentum n’est pas grande, conservant la validité des échantillons négatifs même après un certain temps.
Disadvantages of Contrastive methods:
Désavantages des méthodes contrastifs
In practice, people found out that contrastive methods need a lot of setup to make them work. They require techniques such as weight sharing between the branches, batch normalization, feature-wise normalization, output quantization, stop gradient, memory banks etc.,.This makes it hard to analyze. Also, they are not stable without the use of those techniques.
En pratique, les méthodes contrastives nécessitent une énorme configuration pour fonctionner. Elles requièrent des techniques comme le partage de poids entre les branches, de la normalisation par batch, normalisation par caractéristiques, quantification de sortie, arrêt du gradient, banque mémoire, etc. Ces méthodes sont difficiles à analyser et sont instables sans toutes ces techniques.
Joint Embedding Methods - Regularised
Méthodes d'enchâssements joints régularisées
Non-Contrastive methods
Méthodes non contrastives
Non-Contrastive methods and information theory:
Méthodes non contrastives et théorie de l’information
Most of the non-contrastive methods are based on information theory. For example: Redundancy reduction ( Barlow Twins ) and Information. They don’t require special architectures or engineering techniques.
La plupart des méthodes non contrastives sont basées sur la théorie de l’information. Par exemple la réduction de la redondance (Barlow Twins) et de l’information. Elles ne nécessitent pas d’architectures spéciales ou de techniques d’ingénierie.
VicReg:
VicReg
It tries to maximize the information content of the embeddings by producing embedding variables that are decorrelated to each other. If the variables are correlated to each other, they covariate together and the information content is reduced. Thus, it prevents an informational collapse in which the variables carry redundant information. Also, this method requires a comparatively small batch size.
La méthode essaie de maximiser le contenu informationnel des enchâssements en produisant des variables d’enchâssement qui sont décorrélées les unes des autres. Si les variables sont corrélées les unes aux autres, elles covarient ensemble et le contenu informationnel est réduit. Ainsi, cette méthode empêche un effondrement informationnel dans lequel les variables portent des informations redondantes. De plus, cette méthode nécessite une taille de batch relativement faible.
Two types of collapse can occur in these architectures:
Deux types d’effondrement peuvent se produire dans ces architectures :
Type 1: Irrespective of the input, the network generates the same representation
Type 1: Indépendamment de l’entrée, le réseau génère la même représentation.
Type 2: Special collapse - Although different images have different representations, the information content is really low in each representation.
Type 2: Effondrement spécial où bien que des images différentes aient des représentations différentes, le contenu en information est vraiment faible dans chaque représentation.
Loss function:
Fonction de perte
The loss function is pushing:
La fonction de perte :
1. Positive pairs closer - to be invariant to data augmentation
1. rapproche les paires positives afin d’être invariant à l’augmentation de données
2. The variance of the embeddings large by pushing all of the diagonal terms of the covariance matrix large - to prevent the first kind of collapse
2. rend la variance des enchâssements grande en poussant tous les termes diagonaux de la matrice de covariance afin d’empêcher le premier type d’effondrement.
3. The covariance of the embeddings small by pushing all off the diagonal terms of the covariance matrix small- to prevent the second kind of collapse.
3. rend la covariance des enchâssements faible en poussant tous les termes diagonaux de la matrice de covariance afin d’éviter le second type d’effondrement.
Clustering methods
Méthodes de clustering
SwAV
SwAV
This method prevents trivial solution by quantizing the embedding space. SwAV does the following:
Cette méthode empêche la solution triviale en quantifiant l’espace d’incorporation et fonctionne de la façon suivante :
1. Generates representations and stack the generated representations ( into Hx​ and Hy​ ).
1. On génère des représentations et on les empile (pour former Hx​ et Hy​).
2. Applies sinkhorn clustering method to each of the stacked representation to generate corresponding clustered Q matrices where each row ( qx​ ) represents a one hot vector indicating the cluster the corresponding representation belongs to
2. On applique la méthode de clustering de l’algorithme de Sinkhorn à chacune des représentations empilées afin de générer les matrices Q correspondantes. Chaque ligne (qx) de ces matrices représente un vecteur one-hot indiquant le cluster auquel appartient la représentation correspondante.
4. Minimizes the loss function which is the sum of two crossentropy functions between qxqx​ and qx​~​ and qy​ and qy​~​.
4. on minimise la fonction de perte qui est la somme de deux fonctions d’entropie croisée entre qxqx​ et qx~​ et qy et qy​~​.
The Loss function:
La fonction de perte
Sinkhorn algorithm: Sinkhorn algorithm can distribute samples to not just one cluster but to every cluster. Thus, it can help us prevent all the data clustering into a single centroid or any such nonuniform distribution. It takes in hyperparameters that allow us to deploy different levels of uniform distribution across clusters degenerating to K-means algorithm on one extreme and to the perfectly uniform distribution on the other extreme
L’algorithme de Sinkhorn : L’algorithme de Sinkhorn permet de distribuer les échantillons non pas à un seul cluster mais à tous les clusters. Ainsi, il peut nous aider à éviter que toutes les données se regroupent en un seul centroïde ou toute autre distribution non uniforme. Il prend en compte des hyperparamètres qui nous permettent de déployer différents niveaux de distribution uniforme entre les clusters, revenant à équivaloir à l’algorithme K-means à un extrême et à la distribution uniforme à l’autre extrême.
Softargmax clustering: Each hy​ is normalized. Why​ indicates similarity between hy and all other centroids. Softargmax turns the cosine similarly ( positive or negative ) into a probability.
Clustering softargmax : Chaque hy​ est normalisé. L’indice Why indique la similarité entre hy​ et tous les autres centroïdes. La fonction softargmax transforme la similarité cosinus (positif ou négatif) en une probabilité.
Interpretation of clusters:
Interprétation des clusters
This method partitions latent space into a few clusters automatically without labels and the hope is that these clusters will be related to the actual classes. Thus, later, we would just need a few labeled data samples to assign each cluster to the corresponding label under supervised learning.
Cette méthode partitionne automatiquement l’espace latent en quelques clusters sans étiquettes et notre espoir est que ces clusters seront liés aux classes réelles. Ainsi, plus tard, nous n’aurons besoin que de quelques échantillons de données étiquetées pour affecter chaque cluster à l’étiquette correspondante dans le cadre de l’apprentissage supervisé.
Invariance to data augmentation:
Invariance à l’augmentation de données