English
stringlengths 2
2.26k
| French
stringlengths 2
1.87k
⌀ |
---|---|
Recall the free energy for VAE, | Rappelons l’énergie libre pour le VAE : |
To regularise the expressivity of the latent, we include KL-divergence between the Gaussian of latent variable and a Normal distribution (N(0,1)). (Also see Week 8-Practicum for bubble explanation of VAE loss) | Pour régulariser la variable latente, nous incluons la divergence KL entre la gaussienne de la variable latente et une distribution normale (N(0,1)). (Voir également la semaine 8 pour une explication sous forme de bulles de la perte VAE). |
Therefore, we define the loss function as | Par conséquent, nous définissons la fonction de perte comme suit : |
Since, VAE is a generative model, we sample from the distribution to generate the following digits: | Puisque le VAE est un modèle génératif, nous échantillonnons à partir de la distribution pour générer les chiffres suivants : |
The regions (classes) get segregated as the reconstruction term forces the latent space to get well defined. The data gets clustered into classes without actually using the labels. | Les classes sont séparées car le terme de reconstruction force l’espace latent à être bien défini. Les données sont regroupées en classes sans utiliser réellement les étiquettes. |
Generative Adversarial Nets (GANs) | Réseaux antagonistes génératifs (GANs pour Generative Adversarial Networks) |
GANs have the same feel as DAE with some tweaks. DAE involves generating corrupt samples using the input and a distribution followed by denoising them using a decoder. GANs instead directly sample the distribution (without the input) to produce output y^ using the Generator (or decoder in DAE terms). The input y and y^ are provided to the Cost network separately to measure incompatibility between them. | Les GANs ont le même aspect que les DAEs avec quelques modifications. Le DAE implique la génération d’échantillons corrompus à partir de l’entrée et d’une distribution, suivie d’un débruitage à l’aide d’un décodeur. Au lieu de cela, les GANs échantillonnent directement la distribution (sans l’entrée) pour produire une sortie y^ en utilisant le générateur (ou décodeur en termes de DAE). Les entrées y et y^ sont fournies au réseau Cost séparément pour mesurer l’incomptabilité entre elles. |
Similarly, we can extend the analogy with VAE. In contrast to VAE where the sampler is conditioned on the output of the encoder, in GANs there is an unconditioned sampler and again, decoder corresponds to Generator. | De la même manière, nous pouvons étendre l’analogie avec le VAE. Contrairement au VAE où l’échantillonneur est conditionné à la sortie de l’encodeur, dans les GANs, il y a un échantillonneur non conditionné. Là encore, le décodeur correspond au générateur. |
The Generator maps the latent space to data space: | Le générateur fait correspondre l’espace latent à l’espace des données : |
The observed y and y^ are fed to a Cost network to measure incompatibility: | Les y et y^ observés sont introduits dans un réseau de coût pour mesurer l’incompatibilité : |
Training GANs | Entraînement des GANs |
We define the loss functional for the Cost Network (Discriminator): | Nous définissons la fonctionnelle de perte pour le réseau de coût (discriminateur) : |
The aim is to push down sample of y and push up the energy of y^ upto mm (if C≥m no gradient is received as ReLU(⋅) would result the output to 0). | Le but est de diminuer l’échantillon de y et d’augmenter l’énergie de y^ jusqu’à mm (si C≥m aucun gradient n’est reçu car ReLU(⋅) entraînerait la sortie à 0). |
For training the generator, the aim is to simply minimize the cost: | Pour l’entraînement du générateur, l’objectif est simplement de minimiser le coût : |
A possible choice of C(y) can be | Un choix possible de C(y) peut être |
The cost network would push good samples to 0 and bad sample to energy level m. Using the above C(y), there would exist a quadratic distance between the points on manifold, vy and points generated by the generator y^. During the training, generator is updated to try to produce samples that would gradually have low energy as y guided by C. Once trained, the generator should produce samples near to data manifold. | Le réseau de coût pousse les bons échantillons à 0 et les mauvais échantillons au niveau d’énergie m. En utilisant la formule ci-dessus C(y), il existerait une distance quadratique entre les points de la variété vy et les points générés par le générateur y^. Au cours de l’apprentissage, le générateur est mis à jour pour essayer de produire des échantillons qui auraient progressivement une énergie faible à mesure que y est guidé par C. Une fois entraîné, le générateur devrait produire des échantillons proches de la variété de données. |
Adopting another analogy , the generative model can be thought as team of counterfeiters, trying to produce fake currency. Their aim to produce fake currency which is indistinguishable from real currency. The discriminator can be viewed as police, trying to detect among counterfeit and fake currency bills. Gradients from backprop can be seen as spies that give opposite direction to counterfeiters (generator) in order to fool the police (discriminator). | En adoptant une autre analogie, le modèle génératif peut être considéré comme une équipe de faussaires essayant de produire de la fausse monnaie. Leur objectif est de produire de la fausse monnaie qui ne se distingue pas de la vraie. Le disciminateur peut être considéré comme la police qui essaie de détecter les billets de banque contrefaits et faux. Les gradients de la rétropropagation peuvent être considérés comme des espions qui donnent une direction opposée aux contrefacteurs (générateur) afin de tromper la police (discriminateur). |
Implementating Deep Convolutional Generative Adversarial Nets (DCGANs) | Implémentation de réseaux antagonistes génératifs convolutifs profonds (DCGANs) |
Follow this link for complete code. | Voir ici pour le code complet. |
The Generator upsamples the input using several nn.ConvTranspose2d modules to produce image from random vector nz (noise). | Le générateur suréchantillonne l’entrée en utilisant plusieurs modules nn.ConvTranspose2d pour produire une image à partir d’un vecteur aléatoire nz (bruit). |
Discriminator is essentially a image classifier that uses nn.Sigmoid() to classify the input as real/fake. | Le discriminateur est essentiellement un classifieur d’images qui utilise nn.Sigmoid() pour classer l’entrée comme vraie/fausse. |
We use Binary Cross Entropy to train the networks. | Nous utilisons l’entropie croisée binaire pour entraîner les réseaux. |
We have two optimizers for each network. (We want to push up the energy of bad (recognizable fake images) samples and push down energy of good samples (real looking images). | Nous avons deux optimiseurs pour chaque réseau. Nous voulons augmenter l’énergie des mauvais échantillons (images fausses reconnaissables) et diminuer l’énergie des bons échantillons (images réelles). |
For training, we first train the discriminator with real images and labels stating the images being real. Followed by generator generating fake images from noise. The discriminator is again trained but this time with fake images and labels stating them as fake. | Pour l’entraînement, nous entraînons d’abord le discriminateur avec des images réelles et des étiquettes indiquant que les images sont réelles. Ensuite, nous générons de fausses images à partir de bruit. Le discriminateur est à nouveau entraîné, mais cette fois avec des images fausses et des étiquettes indiquant qu’elles sont fausses. |
To train the generator, we compute the error by incompatibility between characteristics of real image and fake image as identified by the discriminator. Such that the generator can use this discrepancy measure to better fool the discriminator. | Pour entraîner le générateur, nous calculons l’erreur par incompatibilité entre les caractéristiques de l’image réelle et de l’image fausse telles qu’identifiées par le discriminateur. De sorte que le générateur puisse utiliser cette mesure d’incompatibilité pour mieux tromper le discriminateur. |
A brief introduction to self-supervised learning and pretext tasks and discussion of associated trivial solutions. Categorization of recent self-supervised methods: Introduction to Contrastive Learning and the loss function used. Brief overviews of PIRL, SimCLR and MoCo followed by SwAV which is a Clustering based method. Pretraining on Imagenet and non-Imagenet data is also discussed towards the end. | Une brève introduction à l’apprentissage autosupervisé et aux tâches de prétexte ainsi qu’une discussion à propos des solutions triviales associées. Puis une catégorisation des méthodes autosupervisées récentes avec une introduction à l’apprentissage contrastif et à la fonction de perte utilisée. Nous poursuivons avec de brèves présentations de PIRL, SimCLR et MoCo suivies de SwAV qui est une méthode basée sur du clustering. Le pré-entraînement sur les données ImageNet et non-ImageNet est également discuté à la fin. |
We introduce attention, focusing on self-attention and its hidden layer representations of the inputs. Then, we introduce the key-value store paradigm and discuss how to represent queries, keys, and values as rotations of an input. Finally, we use attention to interpret the transformer architecture taking a forward pass through a basic transformer through an EBM perspective,, and comparing the encoder-predictor-decoder paradigm to sequential architectures. | Nous présentons l’attention en nous concentrant sur l’auto-attention et ses représentations des entrées dans la couche cachée. Ensuite, nous introduisons le paradigme clé-valeur et discutons de la manière de représenter les requêtes, les clés et les valeurs comme des rotations d’une entrée. Enfin, nous utilisons l’attention pour interpréter l’architecture du transformer. Pour cela nous passons par le biais d’un transformer de base dans la perspective des EBMs et en comparant le paradigme encodeur-prédicteur-décodeur aux architectures séquentielles. |
Self Supervised Learning in Computer Vision | Apprentissage autosupervisé en vision par ordinateur |
The current focus in Computer Vision lies in learning of visual representation from supervised data and using these representations/model weights as initializations for other tasks which lack availability of labelled data. Labelling data can be expensive, for instance, the Imagenet dataset has ~14 million images and 22,000 categories taking ~22 human years to label. | La vision par ordinateur se concentre actuellement sur l’apprentissage de représentations visuelles à partir de données supervisées et sur l’utilisation de ces représentations/poids comme initialisations pour d’autres tâches qui ne disposent pas de données étiquetées. Cet étiquetage des données peut s’avérer coûteux. Par exemple, le jeu de données ImageNet compte environ 14 millions d’images et 22000 catégories et son étiquetage a nécessité environ 22 années de travail. |
Pretext Task | Tâche de prétexte |
The pretext task is a self-supervised learning task solved to learn visual representations, with the aim of using the learned representations or model weights obtained in the process, for other downstream tasks. The pretext task is usually performed on a property that is inherent in the dataset itself. | La tâche de prétexte est une tâche d’apprentissage autosupervisée effectuée dans le but d’apprendre des représentations visuelles afin de les utiliser pour d’autres tâches en aval (c’est-à-dire la classification, la détection d’objets, etc.). La tâche de prétexte est généralement effectuée sur une propriété inhérente au jeu de données lui-même. |
Popular pretext tasks for images: | Tâches de prétextes populaires pour les images : |
1. Predicting relative position of patches within an image | 1. Prédire la position relative des patchs dans une image. |
2. Predicting permutation type of image patches (Jigsaw Puzzles) | 2. Prédire le type de permutation des patchs de l’image (puzzles). |
3. Predicting the kind of rotation applied | 3. Prédire le type de rotation appliquée |
What is missing from pretext tasks? | Qu’est-ce qui manque aux tâches de prétextes ? |
There is a fairly big mismatch between what is being solved in the pretext tasks and what needs to be achieved by the transfer tasks. Thus, the pre-training is not suitable for final tasks. Performance at each layer can be assessed (using linear classifiers) to figure out which layer’s features to use for the transfer tasks. | Il y a un décalage assez important entre ce qui est résolu avec les tâches de prétextes et ce qui doit être réalisé par les tâches de transfert. Ainsi, le pré-entraînement n’est pas adaptée aux tâches finales. Les performances de chaque couche peuvent être évaluées (à l’aide de classifieurs linéaires) afin de déterminer les caractéristiques de la couche à utiliser pour les tâches de transfert. |
Pre-trained features should satisfy two fundamental properties: | Les caractéristiques pré-entraînées doivent satisfaire deux propriétés fondamentales : |
1. Must represent how images relate to one another | 1. elles doivent représenter la façon dont les images sont liées les unes aux autres |
2. Be robust to nuisance factors | 2. être robuste aux facteurs de nuisance |
Popular method for self-supervised learning | Méthode populaire pour l’apprentissage autosupervisé |
A popular and common method for self supervised learning is to learn features that are robust to data augmentation. Learn features such that, | Une méthode populaire et commune en apprentissage autosupervisé consiste à apprendre des caractéristiques qui sont robustes à l’augmentation de données. C’est à dire apprendre des caractéristiques telles que : |
Features produced by the network for an image should be stable under different types of data augmentation techniques. This property is extremely useful because the features are going to be invariant to the nuisance factors. | Les caractéristiques produites par le réseau pour une image doivent être stables sous différents types de techniques d’augmentation de données. Cette propriété est extrêmement utile car les caractéristiques vont être invariantes aux facteurs de nuisance. |
Take an image, apply two different data augmentations to it, feed it through encoder, compute the similarity. Get the gradients and backpropagate. The network then learns to produce a constant representation for both augmentations. | Prenez une image, appliquez-lui deux augmentations de données différentes, faites-la passer par un encodeur, calculez la similarité. Puis faites une rétropropagation avec les gradients obtenus. Le réseau apprend alors à produire une représentation constante pour les deux augmentations. |
Categorization of recent self-supervised methods: | Catégorisation des méthodes autosupervisées récentes : |
1. Maximize Similarity Objective | 1. Objectif de maximisation de la similarité |
2. Redundancy Reduction Objective | 2. Objectif de réduction de la redondance |
For evaluation, a subset of the Imagenet dataset (1.3 million images over 1000 categories) without labels is used to pre-train a randomly initialized Resnet-50 model. | Pour l’évaluation, un sous-ensemble d’ImageNet (1,3 million d’images dans 1000 catégories) non étiqueté est utilisé pour pré-entraîner un modèle Resnet-50 initialisé de manière aléatoire. |
What are the different ways to perform transfer learning and evaluate its performance? | Quelles sont les différentes façons de réaliser l’apprentissage par transfert et d’évaluer ses performances? |
We can do one of 2 things: | Nous pouvons faire l’une des deux choses suivantes : |
1. Linear classifier on top of fixed features output by the network (For classification tasks) | 1. Un classifieur linéaire sur les caractéristiques fixes produites par le réseau (pour les tâches de classification). |
2. Finetune the entire pretrained network on the target task (For detection tasks) | 2. Finetuner l’ensemble du réseau pré-entraîné sur la tâche cible (pour les tâches de détection). |
Contrastive Learning | Apprentissage contrastif |
Loss function: Embeddings from related images should be closer than embeddings from unrelated images. | Fonction de perte : les enchâssements d’images liées doivent être plus proches que les enchâssements d’images non liées. |
Different Contrastive Learning methods include: | Les différentes méthodes d’apprentissage contrastif comprennent : |
1. Pretext-Invariant Representation Learning (PIRL) | 1. PIRL (Pretext-Invariant Representation Learning) |
2. SimCLR | 2. SimCLR (Simple Framework for Contrastive Learning of Visual Representations) |
3. MoCo | 3. MoCo (Momentum Contrast) |
An image i and its augmentation ItIt is passed through the network and the contrastive learning loss is applied in such a way that the network becomes invariant to the pretext task. The aim is to achieve high similarity for image and patch features belonging to the same image. And low similarity for features from other random images. The pretext task of PIRL tries to achieve invariance over data augmentations rather than predicting the data augmentation. | Une image i et son augmentation ItIt sont passées à travers le réseau et la perte d’apprentissage contrastive est appliquée de manière à ce que le réseau devienne invariant à la tâche de prétexte. L’objectif est d’obtenir une similarité élevée pour les caractéristiques de l’image et du patch appartenant à la même image ainsi qu’une faible similarité pour les caractéristiques provenant d’autres images aléatoires. La tâche prétexte de PIRL essaie d’obtenir une invariance sur les augmentations de données plutôt que de prédire l’augmentation des données. |
Semantic Features | Caractéristiques sémantiques |
A linear classifier is used at each layer to probe and compute the accuracy. One is trained using PIRL and other using Jigsaw. | Un classifieur linéaire est utilisé à chaque couche pour sonder et calculer la précision. L’un est entraîné en utilisant PIRL et l’autre en utilisant Jigsaw (tâche consistant à résoudre un puzzle). |
Jigsaw is trying to predict the permutation, whereas PIRL is trying to be invariant to it. | Jigsaw essaie de prédire la permutation, tandis que PIRL essaie d’y être invariant. |
Performance for PIRL keeps increasing indicating that the feature is becoming increasingly aligned to the downstream classification tasks. | Les performances de PIRL ne cessent d’augmenter, ce qui indique que la fonction est de plus en plus alignée sur les tâches de classification en aval. |
Jigsaw is trying to retain pretext information, the performance plateaues and then drops down sharply and it ends up not performing well for the transfer tasks. | Jigsaw essaie de retenir les informations de la tâche de prétexte, les performances plafonnent puis chutent brusquement. Il finit par ne pas être performant pour les tâches de transfert. |
Sampling Positives and Negatives | Échantillonnage des positifs et des négatifs |
There are many ways to obtain samples that make up related (positive) and unrelated (negative) pairs: | Il existe plusieurs façons d’obtenir des échantillons qui constituent des paires apparentées (positives) et non apparentées (négatives) : |
1. Crops of an image: Contrastive Predictive Coding (CPC) based models use patches from one image that are close-by as positives (related) and patches that are far-away from each other as negatives (unrelated). | 1. Patchs d’une image : les modèles basés sur le codage prédictif contrastif (CPC, Contrastive Predictive Coding en anglais) utilisent les zones d’une image qui sont proches les unes des autres comme positives (liées) et les zones qui sont éloignées les unes des autres comme négatives (non liées). |
2. Crops across images: Patches from within one image are considered related and patches from 2 different images are considered unrelated. Used in MoCo and SimCLR | 2. Patchs d’images : les patchs d’une même image sont considérés comme apparentés et les patchs de 2 images différentes sont considérés comme non apparentés. Utilisé dans MoCo et SimCLR |
3. Videos: Frames that are closeby in temporal space are related, and those far-away are unrelated | 3. Vidéos : les images qui sont proches dans l’espace temporel sont liées et celles qui sont éloignées ne sont pas liées. |
4. Multimodal - Video and Audio: Video sequences along with their corresponding audio are related. Video sequences from one video and audio from another are unrelated. | 4. Multimodal - Vidéo et audio : les séquences vidéo et les séquences audio correspondantes sont liées. Les séquences vidéo d’une vidéo et les séquences audio d’une autre vidéo ne sont pas liées. |
5. Video Object Tracking: An object is tracked through multiple frames in a video. Detection patches from the same video are related. Detection patches from different videos are unrelated. | 5. Pistage (tracking) d’objets vidéo : un objet est suivi à travers plusieurs images d’une vidéo. Les zones de détection d’une même vidéo sont liées. Les patchs de détection de différentes vidéos ne sont pas liés. |
What is the fundamental property of Contrastive Learning that prevents trivial solutions? | Quelle est la propriété fondamentale de l’apprentissage contrastif qui empêche les solutions triviales ? |
The objective function of Contrastive Learning is designed to prevent trivial solutions. The aim of the function is to make sure the distance between positive embedding pairs are smaller than the distance between negative embedding pairs. Hence, a trivial solution, where a constant distance is assigned to all embedding pairs, is impossible to attain through a minimization process on the given objective function. However, research has shown that good negative pairs are crucial for Contrastive Learning to work well. | La fonction objectif de l’apprentissage contrastif est conçue pour éviter les solutions triviales. L’objectif de la fonction est de s’assurer que la distance entre les paires d’enchâssements positives est inférieure à la distance entre les paires d’enchâssements négatives. Par conséquent, une solution triviale où une distance constante est attribuée à toutes les paires d’enchâssements est impossible à atteindre par un processus de minimisation de la fonction objective donnée. Cependant, les recherches ont montré que de bonnes paires négatives sont cruciales pour que l’apprentissage contrastif fonctionne bien. |
SimCLR | SimCLR |
In SimCLR, Simple Framework for Contrastive Learning of Visual Representations, two correlated views of an image are created using augmentations like random cropping, resize, color distortions and Gaussian blur. A base encoder is used along with a projection head to obtain representations that are used to perform contrastive learning. | Dans SimCLR, deux vues corrélées d’une image sont créées en utilisant des augmentations telles que des patchs aléatoire, le redimensionnement, les distorsions de couleur et le flou gaussien. Un encodeur de base est utilisé avec une tête de projection pour obtenir des représentations qui sont utilisées pour effectuer un apprentissage contrastif. |
It utilizes a large batch size to generate negative samples. The batch can be spread across multiple GPUs independently. Images from one GPU could be considered as negatives for those from another GPU. | Il utilise une grande taille de batch pour générer des échantillons négatifs. Le batch peut être réparti sur plusieurs GPUs de manière indépendante. Les images d’un GPU peuvent être considérées comme négatives pour celles d’un autre GPU. |
Advantages of SimCLR: | Avantages de SimCLR : |
1. Simple to implement | 1. Simple à implémenter |
Disadvantages of SimCLR: | Désavantages de SimCLR : |
1. Large batch size required | 1. Une grande taille de batch est requise |
2. Large number of GPUs required | 2. Un grand nombre de GPU est requis |
How do we solve the compute problem in the SimcLR? | Comment résoudre le problème de calcul dans SimcLR ? |
A Memory bank can be used to maintain a momentum of activations across all features. With each forward pass of an image, the memory bank features are updated using the new embeddings. These memory bank features can then be used as negatives for contrastive loss. | Une banque mémoire peut être utilisée pour maintenir un momentum d’activations sur toutes les caractéristiques. À chaque passage en avant d’une image, les caractéristiques de la banque mémoire sont mises à jour en utilisant les nouveaux enchâssements. Les caractéristiques de la banque mémoire peuvent ensuite être utilisées comme négatives pour la perte contrastive. |
Advantages of Memory bank: | Avantages de la banque mémoire : |
Compute efficient. Requires one Forward Pass to compute the embeddings. | Efficace en termes de calcul. Nécessite une seule passe en avant pour calculer les enchâssements. |
Drawbacks of Memory bank: | Inconvénients de la banque mémoire : |
Not online. Features become stale very fast. | Pas en ligne. Les fonctionnalités deviennent très vite obsolètes. |
Requires large amount of GPU RAM. | Nécessite une grande quantité de mémoire vive du GPU. |
Hard to scale storage to millions of images. | Difficile de faire évoluer le stockage vers des millions d’images. |
MoCo | MoCo |
MoCo, or, Momentum Contrast, is a contrastive method that utilizes a memory bank to maintain a momentum of activations. It works by using 2 encoders. The fθ encoder is the encoder that needs to be learnt. fθEMA encoder maintains an exponential moving average of fθ. | MoCo est une méthode contrastive qui utilise une banque mémoire pour maintenir un momentum d’activations. Elle fonctionne en utilisant 2 encodeurs. L’encodeur fθ est l’encodeur qui doit être appris. L’encodeur fθEMA maintient une moyenne mobile exponentielle de fθ. |
During Forward Pass, each sample is forwarded through both encoders. Some of the embeddings from fθEMA are kept aside for use as negative embeddings. For the algorithm, original embeddings comes from fθ, positive embeddings from fθEMA and negative embeddings come from the set of stored embeddings. | Pendant la passe avant, chaque échantillon est passé à travers les deux encodeurs. Certains des enchâssements de fθEMA sont gardés de côté pour être utilisés comme enchâssements négatifs. Pour l’algorithme, les enchâssements originales proviennent de fθ, les enchâssements positives de fθEMA et les enchâssements négatives proviennent de l’ensemble des enchâssements stockées. |
Advantages of MoCo: | Avantages de MoCo : |
Can easily be scaled in terms of memory usage as the full dataset need not be stored. | Peut être facilement adapté en termes d’utilisation de la mémoire car il n’est pas nécessaire de stocker l’ensemble des données. |
Is an online solution, as the moving average is continuously updated. | C’est une solution en ligne, car la moyenne mobile est continuellement mise à jour. |
Drawbacks of MoCo: | Inconvénients de MoCo : |
Two Forward Passes are required, one through fθfθ and another through fθEMA. | Deux passes avant nécessaires, une par fθfθ et une autre par fθEMA. |
Extra memory required for parameters/stored features. | Mémoire supplémentaire requise pour les paramètres/caractéristiques stockés. |
Clustering methods | Méthodes de clustering |
How CL and clustering are related to one another? | Comment l’apprentissage contrastif et le clustering sont liés l’un à l’autre ? |