English;French Week 1;Semaine 1 We discuss the motivation behind deep learning. We begin with the history and inspiration of deep learning. Then we discuss the history of pattern recognition and introduce gradient descent and its computation by backpropagation. Finally, we discuss the hierarchical representation of the visual cortex.;Nous discutons de la motivation derrière l’apprentissage profond. Nous commençons par l’histoire et l’inspiration de celui-ci. Ensuite, nous discutons de l’histoire de la reconnaissance des motifs et nous introduisons la descente de gradient et son calcul par rétropropagation. Enfin, nous discutons de la représentation hiérarchique du cortex visuel. We first discuss the evolution of CNNs, from Fukushima to LeCun to AlexNet. We then discuss some applications of CNN’s, such as image segmentation, autonomous vehicles, and medical image analysis. We discuss the hierarchical nature of deep networks and the attributes of deep networks that make them advantageous. We conclude with a discussion of generating and learning features/representations.;Nous abordons d’abord l’évolution des ConvNets, de Fukushima à Le Cun et AlexNet. Nous abordons ensuite certaines applications des ConvNets, telles que la segmentation d’images, les véhicules autonomes et l’analyse d’images médicales. Nous discutons de la nature hiérarchique des réseaux profonds et de leurs attributs qui les rendent avantageux. Nous concluons par une discussion sur la génération et l’apprentissage de caractéristiques/représentations. We discuss the motivation for applying transformations to data points visualized in space. We talk about Linear Algebra and the application of linear and non-linear transformations. We discuss the use of visualization to understand the function and effects of these transformations. We walk through examples in a Jupyter Notebook and conclude with a discussion of functions represented by neural networks.;Nous discutons de la motivation à appliquer des transformations à des points de données visualisés dans l’espace. Nous parlons d’algèbre linéaire et de l’application des transformations linéaires et non linéaires. Nous voyons l’utilisation de la visualisation pour comprendre les effets de ces transformations. Nous passons en revue des exemples dans un notebook Jupyter et concluons par une discussion sur les fonctions représentées par les réseaux de neurones. Motivation of Deep Learning, and Its History and Inspiration;Motivation de l'apprentissage profond, son histoire et son inspiration Course plan;Plan du cours Basics of Supervised Learning, Neural Nets, Deep Learning;Les bases de l’apprentissage supervisé, des réseaux de neurones et de l’apprentissage profond Backpropagation and architectural components;Rétropropagation et composantes architecturales Convolutional neural network and its applications;Les réseaux de neurones convolutifs et leurs applications More Deep Learning Architectures;Plus d’architectures d’apprentissage profond Regularization Tricks / Optimization Tricks / Understanding how Deep Learning works;Astuces pour la régularisation / astuces pour l’optimisation / comprendre le fonctionnement de l’apprentissage profond Energy-based models;Modèles à base d’énergie Self-supervised learning and beyond;L’apprentissage autosupervisé et au-delà Inspiration of Deep Learning and its history;L’inspiration de l’apprentissage profond et son histoire On a conceptual level, deep learning is inspired by the brain but not all of the brain’s details are relevant. For a comparison, aeroplanes were inspired by birds. The principle of flying is the same but the details are extremely different.;Sur le plan conceptuel, l’apprentissage profond est inspiré par le cerveau. Cependant tous les détails du cerveau ne sont pas pertinents. À titre de comparaison, les avions ont été inspirés par les oiseaux. Le principe du vol est le même, mais les détails sont extrêmement différents (les avions ne battant pas des ailes). The history of deep learning goes back to a field which changed its name now to cybernetics. It started in the 1940s with McCulloch and Pitts. They came up with the idea that neurons are threshold units with on and off states. You could build a Boolean circuit by connecting neurons with each other and conduct logical inference with neurons. The brain is basically a logical inference machine because neurons are binary. Neurons compute a weighted sum of inputs and compare that sum to its threshold. It turns on if it’s above the threshold and turns off if it’s below, which is a simplified view of how neural networks work.;L’histoire de l’apprentissage profond remonte à un domaine qui a changé de nom pour devenir aujourd’hui la cybernétique. Elle a commencé dans les années 1940 avec McCulloch et Pitts. Ils ont eu comme idée que les neurones sont des unités de seuil avec des états de marche et d’arrêt. De ce fait, il est possible de construire un circuit booléen en connectant les neurones entre eux et d’effectuer des inférences logiques avec les neurones. Le cerveau est essentiellement une machine d’inférence logique car les neurones sont binaires. Les neurones calculent une somme pondérée d’entrées et comparent cette somme à son seuil. Un neurone s’allume s’il est supérieur au seuil et s’éteint s’il est inférieur. Ceci est une vue simplifiée du fonctionnement des réseaux neuronaux. "In 1947, Donald Hebb had the idea that neurons in the brain learn by modifying the strength of the connections between neurons. This is called hyper learning, where if two neurons are fired together, then the connection linked between them increases; if they don’t fire together, then the connection decreases.";En 1947, Donald Hebb a eu l’idée que les neurones du cerveau apprennent en modifiant la force des connexions entre eux. C’est ce qu’on appelle l’hyperapprentissage, où si deux neurones sont activés ensemble alors la connexion entre eux augmente et s’ils ne sont pas activés ensemble alors la connexion diminue. Later in 1948, cybernetics were proposed by Norbert Wiener, which is the idea that by having systems with sensors and actuators, you have a feedback loop and a self-regulatory system. The rules of the feedback mechanism of a car all come from this work.;Plus tard, en 1948, la cybernétique a été proposée par Norbert Wiener. Il se base sur l’idée qu’en ayant des systèmes avec des capteurs et des actionneurs, alors il y a une boucle de rétroaction et un système d’autorégulation. Les règles du mécanisme de rétroaction d’une voiture sont toutes issues de son travail. In 1957, Frank Rosenblatt proposed the Perceptron, which is a learning algorithm that modifies the weights of very simple neural nets.;En 1957, Frank Rosenblatt a proposé le Perceptron, un algorithme d’apprentissage qui modifie les poids de réseaux neuronaux très simples. Overall, this idea of trying to build intellectual machines by simulating lots of neurons was born in 1940s, took off in 1950s, and completely died in late 1960s. The main reasons for the field dying off in 1960 are:;Dans l’ensemble, cette idée d’essayer de construire des machines intellectuelles en simulant de nombreux neurones est née dans les années 1940. Elle a pris son essor dans les années 1950 et s’est complètement éteinte à la fin des années 1960. Les principales raisons de la disparition du domaine en 1960 sont les suivantes : The researchers used neurons that were binary. However, the way to get backpropagation to work is to use activation functions that are continuous. At that time, researchers didn’t have the idea of using continuous neurons and they didn’t think they can train with gradients because binary neurons are not differential.;Les chercheurs ont utilisé des neurones binaires. Cependant, la façon de faire fonctionner la rétropropagation est d’utiliser des fonctions d’activation qui sont continues. À cette époque, les chercheurs n’avaient pas l’idée d’utiliser des neurones continus et ils ne pensaient pas pouvoir réaliser l’entraînement avec des gradients car les neurones binaires ne sont pas différentiels. With continuous neurons, one would have to multiply the activation of a neuron by a weight to get a contribution to the weighted sum. However, before 1980, the multiplication of two numbers, especially floating-point numbers, were extremely slow. This resulted in another incentive to avoid using continuous neurons.;Avec les neurones continus, il faudrait multiplier l’activation d’un neurone par un poids pour obtenir une contribution à la somme pondérée. Cependant, avant 1980, la multiplication de deux nombres, en particulier des nombres à virgule flottante, était extrêmement lente. Cela n’encourageait donc pas à utiliser des neurones continus. Deep Learning took off again in 1985 with the emergence of backpropagation. In 1995, the field died again and the machine learning community abandoned the idea of neural nets. In early 2010, people start using neuron nets in speech recognition with huge performance improvement and later it became widely deployed in the commercial field. In 2013, computer vision started to switch to neuron nets. In 2016, the same transition occurred in natural language processing. Soon, similar revolutions will occur in robotics, control, and many other fields.;L’apprentissage profond a pris un nouvel essor en 1985 avec l’apparition de la rétropropagation. En 1995, le domaine a périclité à nouveau et la communauté de l’apprentissage machine a abandonné l’idée des réseaux neuronaux. Début 2010, les gens ont commencé à utiliser les réseaux de neurones dans la reconnaissance vocale avec une amélioration considérable des performances et, plus tard, ils ont été largement déployés dans le domaine commercial. En 2013, la vision par ordinateur a commencé à passer aux réseaux de neurones. En 2016, la même transition a eu lieu dans le traitement du langage naturel. Bientôt, des révolutions similaires se produiront dans la robotique, le contrôle et bien d’autres domaines. Supervised Learning;L’apprentissage supervisé 90% of deep learning applications use supervised learning. Supervised learning is a process by which, you collect a bunch of pairs of inputs and outputs, and the inputs are feed into a machine to learn the correct output. When the output is correct, you don’t do anything. If the output is wrong, you tweak the parameter of the machine and correct the output toward the one you want. The trick here is how you figure out which direction and how much you tweak the parameter and this goes back to gradient calculation and backpropagation.;90% des applications d’apprentissage profond utilisent l’apprentissage supervisé. L’apprentissage supervisé est un processus par lequel, on collecte un tas de paires d’entrées et de sorties. Les entrées sont introduites dans une machine pour apprendre la sortie correcte. Lorsque la sortie est correcte, on ne fait rien. Si la sortie est incorrecte, on ajuste le paramètre de la machine afin d’obtenir une nouvelle sortie ressemblant davantage à celle désirée. L’astuce consiste à déterminer la direction et l’ampleur de l’ajustement du paramètre, ce qui revient à calculer le gradient et la rétropropagation. "Supervised learning stems from Perceptron and Adaline. The Adaline is based on the same architecture with weighted inputs; when it is above the threshold, it turns on and below the threshold, it turns off. The Perceptron is a 2-layer neuron net where the second layer is trainable and the first layer is fixed. Most of the time, the first layer is determined randomly and that’s what they call associative layers.";L’apprentissage supervisé est issu du Perceptron et de l’Adaline. L’Adaline est basé sur la même architecture avec des entrées pondérées. Au-dessus du seuil, cela s’allume et en dessous du seuil, cela s’éteint. Le Perceptron est un réseau de neurones à deux couches dont la première couche est fixe et la deuxième couche est entraînable. La plupart du temps, la première couche est déterminée de manière aléatoire et c’est ce qu’on appelle les couches associatives. History of Pattern Recognition and introduction to Gradient Descent;Histoire de la reconnaissance des motifs et de l’introduction de la descente en gradient The foregoing is the conceptual basis of pattern recognition before deep learning developed. The standard model of pattern recognition consists of feature extractor and trainable classifier. Input goes into the feature extractor, extracting relevant useful characteristics of inputs such as detecting an eye when the purpose is recognizing the face. Then, the vector of features is fed to the trainable classifier for computing weighted sum and comparing it with the threshold. Here, a trainable classifier could be a perceptron or single neural network. The problem is feature extractor should be engineered by hand. Which means, pattern recognition/computer vision focus on feature extractor considering how to design it for a particular problem, not much devoted to a trainable classifier.;La base conceptuelle de la reconnaissance des motifs précède le développement de l’apprentissage profond. Le modèle standard de reconnaissance des motifs comprend un extracteur de caractéristiques et un classifieur pouvant être entraîné. L’entrée va dans l’extracteur de caractéristiques où sont extraites les caractéristiques pertinentes comme la détection d’un œil lorsque le but est de reconnaître le visage. Ensuite, le vecteur de caractéristiques est envoyé au classifieur (pouvant être entraîné) pour calculer la somme pondérée et la comparer avec le seuil. Dans ce cas, un classifieur pouvant être entraîné peut être un perceptron ou un réseau neuronal unique. Le problème est que l’extracteur de caractéristiques doit être conçu à la main. Ce qui signifie que la reconnaissance des motifs et la vision par ordinateur se concentrent sur l’extracteur en considérant la façon de le concevoir pour un problème particulier, ce qui n’est pas vraiment le cas d’un classifieur pouvant être entraîné. After the emergence and development of deep learning, the 2-stage process changed to the sequences of modules. Each module has tunable parameters and nonlinearity. Then, stack them making multiple layers. This is why it is called “deep learning”. The reason why using nonlinearity rather than linearity is that two linear layers could be one linear layer since the composition of two linear is linear.;Après l’émergence et le développement de l’apprentissage profond, le processus en deux étapes est passé à des séquences de modules. Chaque module a des paramètres réglables et une non-linéarité. Ensuite, il faut les empiler pour former plusieurs couches. C’est pourquoi on l’appelle « apprentissage profond ». La raison pour laquelle on utilise une non-linéarité plutôt qu’une linéarité est que deux couches linéaires reviennent à une seule couche linéaire puisque la composition de deux linéaires est linéaire. The simplest multi-layer architecture with tunable parameters and nonlinearity could be: the input is represented as a vector such as an image or audio. This input is multiplied by the weight matrix whose coefficient is a tunable parameter. Then, every component of the result vector is passed through a nonlinear function such as ReLU. Repeating this process, it becomes a basic neural network. The reason why it is called a neural network is that this architecture calculates the weighted sum of components of input by corresponding rows of a matrix.;L’architecture multicouche la plus simple avec des paramètres réglables et la non-linéarité pourrait être la suivante. L’entrée est représentée par un vecteur tel qu’une image ou un son. Cette entrée est multipliée par la matrice de poids dont le coefficient est un paramètre réglable. Ensuite, chaque composante du vecteur de résultat est passée par une fonction non linéaire telle que la ReLU (Rectified Linear Unit). En répétant ce processus, cela devient un réseau neuronal de base. La raison pour laquelle on parle de neurones est que cette architecture calcule la somme pondérée des composantes d’entrée par les lignes correspondantes d’une matrice. Back to the point of supervised learning, we are comparing the resulting output with target output then optimize the objective function which is the loss, computing a distance/penalty/divergence between the result and target. Then, average this cost function over the training set. This is the goal we want to minimize. In other words, we want to find the value of the parameters that minimize this average.;Pour en revenir à l’apprentissage supervisé, nous comparons le résultat obtenu avec le résultat cible puis nous optimisons la fonction objectif qui est la perte du calcul de la distance/pénalité/divergence entre le résultat et la cible. Ensuite, nous faisons la moyenne de cette fonction de coût sur le jeu d’entraînement. C’est l’objectif que nous voulons minimiser. En d’autres termes, nous voulons trouver la valeur des paramètres qui minimisent cette moyenne. The method of how to find it is computing gradient. For example, if we are lost in a smooth mountain at foggy night and want to go to the village in the valley. One way could be turning around and seeing which way the steepest way is to go down then take a small step down. The direction is (negative) gradient. With the assumption that the valley is convex, we could reach the valley.;La méthode pour trouver cette valeur est le calcul du gradient. Par exemple, si nous sommes perdus dans une montagne par une nuit brumeuse et nous voulons aller au village dans la vallée, un moyen pourrait être de faire demi-tour et de voir quel est le chemin le plus raide pour descendre puis de faire un petit pas vers le bas. La direction est le gradient (négatif). En supposant que la vallée est convexe, nous pouvons atteindre la vallée. The more efficient way is called Stochastic Gradient Descent (SGD). Since we want to minimize average loss over the training set, we take one sample or small group of samples and calculate the error, then use gradient descent. Then, we take a new sample and get a new value for the error, then get the gradient which is a different direction normally. Two of the main reasons for using SGD are that it helps a model to converge fast empirically if the training set is very large and it enables better generalization, which means getting similar performance on various sets of data.;Le chemin le plus efficace est appelé la « descente de gradient stochastique » (SGD en anglais pour Stochastic Gradient Descent). Comme nous voulons minimiser la perte moyenne sur le jeu d’entraînement, nous prenons un échantillon ou un petit groupe d’échantillons et nous calculons l’erreur. Puis nous utilisons la descente de gradient. Ensuite, nous prenons un nouvel échantillon et obtenons une nouvelle valeur pour l’erreur. Nous avons alors le gradient qui est normalement une direction différente. Deux des principales raisons d’utiliser la SGD sont qu’elle permet à un modèle de converger rapidement si le jeu d’entraînement est très grand et qu’elle permet une meilleure généralisation, c’est-à-dire qu’elle donne des performances similaires sur différents jeux de données. Computing gradients by backpropagation;Calculer les gradients par rétropropagation Computing gradients by backpropagation is a practical application of the chain rule. The backpropagation equation for the input gradients is as follows:;Le calcul des gradients par rétropropagation est une application pratique de la règle de la chaîne. L’équation de rétropropagation pour les gradients d’entrée est la suivante : The backpropagation equation for the weight gradients is as follows:;Dans la même logique, l’équation de rétropropagation pour les gradients des poids est la suivante : Note that instead of scalar inputs, they will be vector inputs. More generally, multi-dimensional inputs. Backpropagation allows you to compute the derivative of the difference of the output you want and the output you get (which is the value of the objective function) with respect to any value inside the network. Finally, backpropagation is essential as it applies to multiple layers.;Notez qu’au lieu d’entrées scalaires, il s’agit d’entrées vectorielles. Plus généralement, il s’agit d’entrées multidimensionnelles. La rétropropagation permet de calculer la dérivée de la différence entre la sortie souhaitée et la sortie obtenue (qui est la valeur de la fonction objectif) par rapport à toute valeur à l’intérieur du réseau. Enfin, la rétropropagation est essentielle car elle s’applique à plusieurs couches. Hierarchical representation of the Visual Cortex;Représentation hiérarchique du cortex visuel Experiments by Fukushima gave us an understanding of how our brain interprets the input to our eyes. In summary, it was discovered that neurons in front of our retina compress the input (known as contrast normalization) and the signal travels from our eyes to our brain. After this, the image gets processed in stages and certain neurons get activated for certain categories. Hence, the visual cortex does pattern recognition in a hierarchical manner.;Les expériences de Fukushima nous ont permis de comprendre comment notre cerveau interprète les données transmises à nos yeux. En résumé, les neurones situés devant notre rétine compriment l’entrée (connue sous le nom de normalisation du contraste) et le signal voyage de nos yeux à notre cerveau. Ensuite, l’image est traitée par étapes et certains neurones sont activés pour certaines catégories. Ainsi, le cortex visuel effectue une reconnaissance des motifs de manière hiérarchique. Experiments in which researchers poked electrodes in specific areas of the visual cortex, specifically the V1 area made researchers realize that certain neurons react to motifs that appear in a very small area in a visual field and similarly with neighbouring neurons and neighbouring areas in the visual field. Additionally, neurons that react to the same visual field, react to different types of edges in an organized manner (e.g. vertical or horizontal edges). It is also important to note that there’s also the idea that the visual process is essentially a feed forward process. Hence, somehow fast recognition can be done without some recurrent connections.;Des expériences dans lesquelles des chercheurs ont enfoncé des électrodes dans des zones spécifiques du cortex visuel, en particulier la zone V1, ont permis de réaliser que certains neurones réagissent à des motifs qui apparaissent dans une très petite zone du champ visuel et de la même façon avec les neurones voisins et les zones voisines du champ visuel. En outre, les neurones qui réagissent au même champ visuel réagissent à différents types de bords de manière organisée (par exemple, les bords verticaux ou horizontaux). Il est également important de noter qu’il y a aussi l’idée que le processus visuel est essentiellement un processus feed forward. Par conséquent, une reconnaissance rapide peut être effectuée d’une manière ou d’une autre, sans que certaines connexions récurrentes soient nécessaires. Evolution and Uses of CNNs and Why Deep Learning?;Evolution et utilisations des ConvNets et « pourquoi l'apprentissage profond » ? Evolution of CNNs;Evolution des ConvNets In animal brains, neurons react to edges that are at particular orientations. Groups of neurons that react to the same orientations are replicated over all of the visual field.;Dans le cerveau des animaux, les neurones réagissent aux bords qui ont des orientations particulières. Les groupes de neurones qui réagissent aux mêmes orientations sont reproduits sur l’ensemble du champ visuel. Fukushima (1982) built a neural net (NN) that worked the same way as the brain, based on two concepts. First, neurons are replicated across the visual field. Second, there are complex cells that pool the information from simple cells (orientation-selective units). As a result, the shift of the picture will change the activation of simple cells, but will not influence the integrated activation of the complex cell (convolutional pooling).;En se basant sur deux concepts, Fukushima (1982) a construit un réseau de neurones qui fonctionne de la même manière que le cerveau. Premièrement, les neurones sont répliqués sur l’ensemble du champ visuel. Deuxièmement, il existe des cellules complexes qui regroupent les informations provenant de cellules simples (unités d’orientation-sélection). Par conséquent, le déplacement de l’image modifie l’activation des cellules simples mais n’influence pas l’activation intégrée de la cellule complexe (le pooling convolutif). LeCun (1990) used backprop to train a CNN to recognize handwritten digits. There is a demo from 1992 where the algorithm recognizes the digits of any style. Doing character/pattern recognition using a model that is trained end-to-end was new at that time. Previously, people had used feature extractors with a supervised model on top.;Yann Le Cun (1990) a utilisé la rétropropagation pour entraîner un ConvNet à reconnaître les chiffres manuscrits. Il existe une démo de 1993 où l’algorithme reconnaît les chiffres de n’importe quel style. La reconnaissance de caractères/motifs à l’aide d’un modèle entraîné de bout en bout était nouvelle à l’époque. Auparavant, les gens utilisaient des extracteurs de caractéristiques avec un modèle supervisé par-dessus. These new CNN systems could recognize multiple characters in the image at the same time. To do it, people used a small input window for a CNN and swiped it over the whole image. If it activated, it meant there was a particular character present.;Ces nouveaux systèmes ConvNets pouvaient reconnaître plusieurs caractères dans l’image en même temps. Pour ce faire, les gens utilisaient une petite fenêtre de saisie pour un ConvNet et la glissaient sur toute l’image. Si elle s’activait, cela signifiait qu’un caractère particulier était présent. Later, this idea was applied to faces/people detection and semantic segmentation (pixel-wise classification). Examples include Hadsell (2009) and Farabet (2012). This eventually became popular in industry, used in autonomous driving applications such as lane tracking.;Plus tard, cette idée a été appliquée à la détection des visages/personnes et à la segmentation sémantique (classification au niveau du pixel). Citons par exemple Hadsell (2009) et Farabet (2012). Cette méthode a fini par devenir populaire dans l’industrie, utilisée dans des applications de conduite autonome telles que le suivi de voie. Special types of hardware to train CNN were a hot topic in the 1980s, then the interest dropped, and now it has become popular again.;Les capacités de calcul pour entraîner un ConvNet étaient un sujet brûlant dans les années 1980, puis l’intérêt a chuté, et est maintenant redevenu populaire. The deep learning (though the term was not used at that time) revolution started in 2010-2013. Researchers focused on inventing algorithms that could help train large CNNs faster. Krizhevsky (2012) came up with AlexNet, which was a much larger CNN than those used before, and trained it on ImageNet (1.3 million samples) using GPUs. After running for a couple of weeks AlexNet beat the performance of the best competing systems by a large margin – a 25.8% vs. 16.4% top-5 error rate.;La révolution de l’apprentissage profond (bien que le terme ne soit pas utilisé à l’époque) a commencé en 2010-2013. Les chercheurs se sont concentrés sur l’invention d’algorithmes qui pourraient aider à entraîner plus rapidement les gros ConvNets. Krizhevsky (2012) a conçu AlexNet, qui était un ConvNet beaucoup plus grand que ceux utilisés auparavant, et l’a entraîné sur ImageNet (1,3 million d’échantillons) en utilisant des GPUs. Après quelques semaines de fonctionnement, AlexNet a largement dépassé les performances des meilleurs systèmes concurrents avec un taux d’erreur pour les 5 premières sorties du modèle (Top-5 error rate) de 16,4% contre 25,8% pour les autres. After seeing AlexNet’s success, the computer vision (CV) community was convinced that CNNs work. While all papers from 2011-2012 that mentioned CNNs had been rejected, since 2016 most accepted CV papers use CNNs.;Après avoir vu le succès d’AlexNet, la communauté de la vision par ordinateur (souvent abrégée en CV en anglais pour Computer Vision) a été convaincue que les ConvNets fonctionnent. Alors que tous les articles de 2011-2012 mentionnant les ConvNets étaient alors rejetés, depuis 2016 la plupart des papiers acceptés utilisent les ConvNets. Over the years, the number of layers used has been increasing: LeNet – 7, AlexNet – 12, VGG – 19, ResNet – 50. However, there is a trade-off between the number of operations needed to compute the output, the size of the model, and its accuracy. Thus, a popular topic now is how to compress the networks to make the computations faster.;Au fil des ans, le nombre de couches utilisées a augmenté : 7 pour LeNet, 12 pour AlexNet, 19 pour VGG, 50 pour ResNet. Toutefois, il y a un compromis à faire entre le nombre d’opérations nécessaires pour calculer le résultat, la taille du modèle et sa précision. Ainsi, un sujet actuellement populaire est de savoir comment comprimer les réseaux pour rendre les calculs plus rapides. Deep Learning and Feature Extraction;Apprentissage profond et extraction de caractéristiques Multilayer networks are successful because they exploit the compositional structure of natural data. In compositional hierarchy, combinations of objects at one layer in the hierarchy form the objects at the next layer. If we mimic this hierarchy as multiple layers and let the network learn the appropriate combination of features, we get what is called Deep Learning architecture. Thus, Deep Learning networks are hierarchical in nature.;Les réseaux multicouches ont du succès parce qu’ils exploitent la structure des données naturelles (la parole, les images, le texte). Dans la hiérarchie des compositions, les combinaisons d’objets à une couche de la hiérarchie forment les objets de la couche suivante. Si nous imitons cette hiérarchie sous forme de couches multiples et que nous laissons le réseau apprendre la combinaison de caractéristiques appropriée, nous obtenons ce que l’on appelle l’architecture d’apprentissage profond. Ainsi, les réseaux d’apprentissage profond sont de nature hiérarchique. Deep learning architectures have led to an incredible progress in computer vision tasks ranging from identifying and generating accurate masks around the objects to identifying spatial properties of an object. Mask-RCNN and RetinaNet architectures mainly led to this improvement.;Les architectures d’apprentissage profond ont conduit à un progrès incroyable dans les tâches de vision par ordinateur, allant de l’identification et de la génération de masques précis autour d’objets à l’identification des propriétés spatiales d’un objet. Les architectures Mask-RCNN et RetinaNet ont principalement conduit à cette amélioration. Mask RCNNs have found their use in segmenting individual objects, i.e. creating masks for each object in an image. The input and output are both images. The architecture can also be used to do instance segmentation, i.e. identifying different objects of the same type in an image. Detectron, a Facebook AI Research (FAIR) software system, implements all these state-of-the-art object detection algorithms and is open source.;Mask-RCNN est utilité dans la segmentation d’objets individuels, c’est-à-dire la création de masques pour chaque objet d’une image. L’entrée et la sortie sont toutes deux des images. L’architecture peut également être utilisée pour faire de la segmentation d’instance, c’est-à-dire identifier différents objets du même type dans une image. Detectron, un système logiciel de Facebook AI Research (FAIR), met en œuvre tous ces algorithmes de détection d’objets de pointe et est open source. Some of the practical applications of CNNs are powering autonomous driving and analysing medical images.;Certaines des applications pratiques des ConvNets sont l’aide à la conduite et l’analyse d’images médicales. Although the science and mathematics behind deep learning is fairly understood, there are still some interesting questions that require more research. These questions include: Why do architectures with multiple layers perform better, given that we can approximate any function with two layers? Why do CNNs work well with natural data such as speech, images, and text? How are we able to optimize non-convex functions so well? Why do over-parametrised architectures work?;Bien que les sciences et les mathématiques qui sous-tendent l’apprentissage profond soient assez bien comprises, il reste quelques questions intéressantes qui nécessitent davantage de recherche. Ces questions sont les suivantes : Pourquoi les architectures à plusieurs couches sont-elles plus performantes, étant donné que nous pouvons approximer n’importe quelle fonction avec deux couches ? Pourquoi les ConvNets fonctionnent-ils aussi bien avec des données naturelles telles que la parole, les images et le texte ? Comment sommes-nous capables d’optimiser aussi bien les fonctions non convexes ? Pourquoi les architectures surparamétrées fonctionnent-elles ? "Feature extraction consists of expanding the representational dimension such that the expanded features are more likely to be linearly separable; data points in higher dimensional space are more likely to be linearly separable due to the increase in the number of possible separating planes.";L’extraction de caractéristiques consiste à élargir la dimension de représentation de telle sorte que les caractéristiques élargies aient plus de chances d’être linéairement séparables (en raison de l’augmentation du nombre de plans de séparation possibles). Earlier machine learning practitioners relied on high quality, hand crafted, and task specific features to build artificial intelligence models, but with the advent of Deep Learning, the models are able to extract the generic features automatically. Some common approaches used in feature extraction algorithms are highlighted below:;Auparavant, les experts en apprentissage machine s’appuyaient sur des caractéristiques de haute qualité, artisanales et spécifiques à une tâche afin de construire des modèles d’intelligence artificielle. Mais avec l’avènement de l’apprentissage profond, les modèles sont capables d’extraire automatiquement les caractéristiques génériques. Certaines approches courantes utilisées dans les algorithmes d’extraction de caractéristiques sont mises en évidence ci-dessous : Space tiling;Pavage de l’espace (Space tiling) Random Projections;Projections aléatoires (Random Projections) Polynomial Classifier (feature cross-products);Classifieur polynomial (Polynomial Classifier) Radial basis functions;Fonctions radiales (Radial basis functions) Kernel Machines;Machines à noyaux (Kernel Machines) Because of the compositional nature of data, learned features have a hierarchy of representations with increasing level of abstractions. For example:;En raison de la nature compositionnelle des données, les traits appris ont une hiérarchie de représentations avec un niveau d’abstraction croissant. Par exemple : Images - At the most granular level, images can be thought of as pixels. Combination of pixels constitute edges which when combined forms textons (multi-edge shapes). Textons form motifs and motifs form parts of the image. By combining these parts together we get the final image.;pour les images : Au niveau le plus granulaire, les images peuvent être considérées comme des pixels. La combinaison de pixels constitue des bords qui, lorsqu’ils sont combinés, forment des textons (formes à bords multiples). Les textons forment des motifs et les motifs font partie de l’image. En combinant ces parties ensemble, on obtient l’image finale. Text - Similarly, there is an inherent hierarchy in textual data. Characters form words, when we combine words together we get word-groups, then clauses, then by combining clauses we get sentences. Sentences finally tell us what story is being conveyed.;pour le texte : De même, il existe une hiérarchie inhérente aux données textuelles. Les caractères forment des mots, lorsque nous combinons des mots ensemble, nous obtenons des groupes de mots, puis en les combinant nous obtenons des phrases. Les phrases nous disent finalement quelle histoire est véhiculée. Speech - In speech, samples compose bands, which compose sounds, which compose phones, then phonemes, then whole words, then sentences, thus showing a clear hierarchy in representation.;pour la parole : Dans la parole, les échantillons composent des bandes, qui composent des sons, puis des phonèmes, puis des mots entiers, puis des phrases, montrant ainsi une hiérarchie claire dans la représentation. Learning representations;Apprendre les représentations There are those who dismiss Deep Learning: if we can approximate any function with 2 layers, why have more?;Certaines personnes rejettent l’apprentissage profond car si nous pouvons approcher n’importe quelle fonction avec deux couches, pourquoi en avoir plus ? For example: SVMs find a separating hyperplane “in the span of the data”, meaning predictions are based on comparisons to training examples. SVMs are essentially a very simplistic 2 layer neural net, where the first layer defines “templates” and the second layer is a linear classifier. The problem with 2 layer fallacy is that the complexity and size of the middle layer is exponential in N (to do well with a difficult task, need LOTS of templates). But if you expand the number of layers to log(N), the layers become linear in N. There is a trade-off between time and space.;Par exemple, les SVMs (de l’anglais support vector machines, pouvant être traduit en français par machines à vecteurs de support) trouvent un hyperplan de séparation dans l’étendue des données. Cela signifie que les prédictions sont basées sur des comparaisons avec des exemples d’entraînement. Les SVMs peuvent être vues comme un réseau neuronal à deux couches très simpliste, où la première couche définit des « pochoirs » et la seconde couche est un classifieur linéaire. Le problème avec deux couches est que la complexité et la taille de la couche intermédiaire sont exponentielles en N (pour réussir une tâche difficile, il faut BEAUCOUP de modèles). Mais si vous augmentez le nombre de couches à log(N), les couches deviennent linéaires en N. Il y a un compromis entre le temps et l’espace. An analogy is designing a circuit to compute a boolean function with no more than two layers of gates – we can compute any boolean function this way! But, the complexity and resources of the first layer (number of gates) quickly becomes infeasible for complex functions.;Une analogie consiste à concevoir un circuit pour calculer une fonction booléenne avec un maximum de deux couches de portes : nous pouvons calculer toute fonction booléenne de cette façon ! Mais, la complexité et les ressources de la première couche (nombre de portes) deviennent rapidement inutilisables pour les fonctions complexes. What is “deep”?;Qu’est-ce que la « profondeur » ? An SVM isn’t deep because it only has two layers;Une SVM n’est pas profonde car ne comporte que deux couches A classification tree isn’t deep because every layer analyses the same (raw) features;Un arbre de classification n’est pas profond car chaque couche analyse les mêmes caractéristiques (brutes) A deep network has several layers and uses them to build a hierarchy of features of increasing complexity;Un réseau profond comporte plusieurs couches et les utilise pour construire une hiérarchie de caractéristiques d’une complexité croissante How can models learn representations (good features)?;Comment les modèles peuvent-ils apprendre les représentations (les bonnes caractéristiques) ? Manifold hypothesis: natural data lives in a low-dimensional manifold. Set of possible images is essentially infinite, set of “natural” images is a tiny subset. For example: for an image of a person, the set of possible images is on the order of magnitude of the number of face muscles they can move (degrees of freedom) ~ 50. An ideal (and unrealistic) feature extractor represents all the factors of variation (each of the muscles, lighting, etc.).;L’ensemble des images possibles est essentiellement infini, l’ensemble des images « naturelles » est un minuscule sous-ensemble. Par exemple : pour une image d’une personne, l’ensemble des images possibles est de l’ordre de grandeur du nombre de muscles du visage qu’elle peut bouger (degrés de liberté) soit environ 50. Un extracteur de caractéristiques idéal (et irréaliste) représente tous les facteurs de variation (chacun des muscles, éclairage, etc.). C’est l’hypothèse de la multiplicité : les données naturelles vivent dans une multiplicité à faible dimension. For the face example, could some other dimensionality reduction technique (i.e. PCA) extract these features?;Pour l’exemple du visage, l’ACP qui est une technique de réduction de la dimensionnalité pourrait-elle extraire ces traits ? Would only work if the manifold surface is a hyperplane, which it is not;Cela ne fonctionnerait que si la surface est un hyperplan, ce qui n’est pas le cas. Problem Motivation, Linear Algebra, and Visualization; Resources;Ressources Please follow Alfredo Canziani on Twitter @alfcnz. Videos and textbooks with relevant details on linear algebra and singular value decomposition (SVD) can be found by searching Alfredo’s Twitter, for example type linear algebra (from:alfcnz) in the search box.;Nous vous invitons à suivre Alfredo Canziani sur Twitter @alfcnz. Vous trouverez sur son compte des vidéos et des manuels contenant des détails pertinents sur l’algèbre linéaire et la décomposition en valeurs singulières (SVD). Ce contenu est trouvable en effectuant une recherche (en anglais) sur le Twitter d’Alfredo, en tapant par exemple linear algebra (from:alfcnz) dans la barre de recherche. Transformations and motivation;Transformations et motivation As a motivating example, let us consider image classification. Suppose we take a picture with a 1 megapixel camera. This image will have about 1,000 pixels vertically and 1,000 pixels horizontally, and each pixel will have three colour dimensions for red, green, and blue (RGB). Each particular image can then be considered as one point in a 3 million-dimensional space. With such massive dimensionality, many interesting images we might want to classify – such as a dog vs. a cat – will essentially be in the same region of the space.;À titre d’exemple, considérons la classification d’images. Supposons que nous prenons une photo avec un appareil photo de 1 mégapixel. Cette image aura environ 1000 pixels verticalement et 1000 pixels horizontalement. De plus chaque pixel aura trois dimensions de couleur pour le rouge, le vert et le bleu (RVB). Chaque image peut donc être considérée comme un point dans un espace à 33 millions de dimensions. Avec une telle dimensionnalité, de nombreuses images intéressantes que nous pourrions vouloir classer, comme un chien ou un chat, se trouveront essentiellement dans la même région de l’espace. In order to effectively separate these images, we consider ways of transforming the data in order to move the points. Recall that in 2-D space, a linear transformation is the same as matrix multiplication. For example, the following are linear transformations:;Afin de séparer efficacement ces images, nous envisageons des moyens de transformer les données afin de déplacer les points. Rappelons que dans l’espace bidimensionnel, une transformation linéaire équivaut à une multiplication matricielle. Par exemple, les transformations suivantes peuvent être obtenues en changeant les caractéristiques de la matrice : Rotation (when the matrix is orthonormal).;Rotation : lorsque la matrice est orthonormée. Scaling (when the matrix is diagonal).;Mise à l’échelle (« scalabilité ») : lorsque la matrice est diagonale. Reflection (when the determinant is negative).;Réflexion : lorsque le déterminant est négatif. Shearing.;Shearing. Note that translation alone is not linear since 0 will not always be mapped to 0, but it is an affine transformation. Returning to our image example, we can transform the data points by translating such that the points are clustered around 0 and scaling with a diagonal matrix such that we “zoom in” to that region. Finally, we can do classification by finding lines across the space which separate the different points into their respective classes. In other words, the idea is to use linear and nonlinear transformations to map the points into a space such that they are linearly separable. This idea will be made more concrete in the following sections.;Notez que la translation seule n’est pas linéaire puisque 0 ne sera pas toujours mis en correspondance avec 0, mais c’est une transformation affine. Pour revenir à notre exemple d’image, nous pouvons transformer les points de données en les translatant de manière à ce qu’ils soient regroupés autour de 0 et en les mettant à l’échelle à l’aide d’une matrice diagonale de manière à effectuer un « zoom avant » sur cette région. Enfin, nous pouvons effectuer une classification en trouvant des lignes dans l’espace qui séparent les différents points dans leurs classes respectives. En d’autres termes, l’idée est d’utiliser des transformations linéaires et non linéaires pour représenter les points dans un espace tel qu’ils soient linéairement séparables. Cette idée est rendue plus concrète dans les sections suivantes. Data visualization - separating points by colour using a network;Visualisation des données : séparation des points à l’aide d’un réseau "In our visualization, we have five branches of a spiral, with each branch corresponding to a different colour. The points live in a two dimensional plane and can be represented as a tuple; the colour represents a third dimension which can be thought of as the different classes for each of the points. We then use the network to separate each of the points by colour.";Dans notre visualisation, nous avons cinq branches d’une spirale, chaque branche correspondant à une couleur différente. Les points vivent dans un plan bidimensionnel et peuvent être représentés sous la forme d’un tuple. La couleur représente une troisième dimension qui peut être considérée comme les différentes classes pour chacun des points. Nous utilisons ensuite le réseau pour séparer chacun des points par couleur. "The network ""stretches"" the space fabric in order to separate each of the points into different subspaces. At convergence, the network separates each of the colours into different subspaces of the final manifold. In other words, each of the colours in this new space will be linearly separable using a one vs. all regression. The vectors in the diagram can be represented by a five by two matrix; this matrix can be multiplied to each point to return scores for each of the five colours. Each of the points can then be classified by colour using their respective scores. Here, the output dimension is five, one for each of the colours, and the input dimension is two, one for the x and y coordinates of each of the points. To recap, this network basically takes the space fabric and performs a space transformation parametrised by several matrices and then by non-linearities.";Le réseau « étire » le tissu spatial afin de séparer chacun des points en différents sous-espaces. À la convergence, le réseau sépare chacune des couleurs en différents sous-espaces de la surface finale. En d’autres termes, chacune des couleurs dans ce nouvel espace sera linéairement séparable par une régression « un contre tous ». Les vecteurs du diagramme peuvent être représentés par une matrice de 5×25×2. Cette matrice peut être multipliée à chaque point pour obtenir des scores pour chacune des cinq couleurs. Chacun des points peut ensuite être classé par couleur en utilisant les scores respectifs. Ici, la dimension de sortie est de cinq, une pour chacune des couleurs, et la dimension d’entrée est de deux, une pour les coordonnées x et y de chacun des points. Pour résumer, ce réseau prend le tissu spatial et effectue une transformation de l’espace paramétrée par plusieurs matrices puis par des non-linéarités. The first matrix maps the two dimensional input to a 100 dimensional intermediate hidden layer. We then have a non-linear layer, ReLU or Rectified Linear Unit, which is simply positive part (⋅)+(⋅)+ function. Next, to display our image in a graphical representation, we include an embedding layer that maps the 100 dimensional hidden layer input to a two-dimensional output. Lastly, the embedding layer is projected to the final, five-dimensional layer of the network, representing a score for each colour.;La première matrice fait correspondre l’entrée bidimensionnelle à une couche cachée intermédiaire à 100 dimensions. Nous avons ensuite une couche non linéaire, ReLU (Rectified Linear Unit), qui est simplement une fonction partie positive (⋅)+. Ensuite, pour afficher notre image dans une représentation graphique, nous incluons une couche de représentation vectorielle qui fait correspondre l’entrée de la couche cachée à 100 dimensions à une sortie bidimensionnelle. Enfin, la couche est projetée sur la couche finale à cinq dimensions du réseau, représentant un score pour chaque couleur. Random neural net;Réseau neuronal aléatoire Lastly, we visualize the transformation performed by a simple, untrained neural network. The network consists of a linear layer, which performs an affine transformation, followed by a hyperbolic tangent non-linearity, and finally another linear layer. Examining the transformation in Fig. 6, we see that it is unlike the linear and non-linear transformations seen earlier. Going forward, we will see how to make these transformations performed by neural networks useful for our end goal of classification.;Enfin, nous visualisons la transformation effectuée par un simple réseau de neurones non entraîné. Le réseau est constitué d’une couche linéaire, qui effectue une transformation affine, suivie d’une tangente hyperbolique non-linéaire, et enfin d’une autre couche linéaire. En examinant la transformation de la figure 6, nous constatons qu’elle est différente des transformations linéaires et non linéaires vues précédemment. Nous allons voir comment rendre utiles ces transformations effectuées par les réseaux de neurones pour notre objectif final de classification. Week 2;Semaine 2 We start by understanding what parametrised models are and then discuss what a loss function is. We then look at Gradient-based methods and how it’s used in the backpropagation algorithm in a traditional neural network. We conclude this section by learning how to implement a neural network in PyTorch followed by a discussion on a more generalized form of backpropagation.;Nous commençons par comprendre ce que sont les modèles paramétrés, puis nous discutons de ce qu’est une fonction de perte. Nous examinons ensuite les méthodes basées sur les gradients et leur utilisation dans l’algorithme de la rétropropagation d’un réseau neuronal traditionnel. Nous concluons cette section en apprenant comment mettre en œuvre un réseau de neurones dans PyTorch, puis nous discutons d’une forme plus généralisée de rétropropagation. We begin with a concrete example of backpropagation and discuss the dimensions of Jacobian matrices. We then look at various basic neural net modules and compute their gradients, followed by a brief discussion on softmax and logsoftmax. The other topic of discussion in this part is Practical Tricks for backpropagation.;Nous commençons par un exemple concret de rétropropagation et discutons des dimensions des matrices jacobiennes. Nous examinons ensuite divers modules de base des réseaux de neurones et calculons leurs gradients, puis nous discutons brièvement des fonctions softmax et logsoftmax. L’autre sujet de discussion dans cette partie est celui des astuces pratiques pour la rétropropagation. We give a brief introduction to supervised learning using artificial neural networks. We expound on the problem formulation and conventions of data used to train these networks. We also discuss how to train a neural network for multi class classification, and how to perform inference once the network is trained.;Nous présentons brièvement l’apprentissage supervisé pour les réseaux neuronaux artificiels. Nous exposons la formulation du problème et les conventions des données utilisées pour entraîner ces réseaux. Nous discutons également de la manière d’entraîner un réseau neuronal pour la classification multiclasses et de la manière d’effectuer l’inférence une fois le réseau entraîné. ntroduction to Gradient Descent and Backpropagation Algorithm;Introduction à la descente de gradient et à l’algorithme de rétropropagation Gradient Descent optimization algorithm;Algorithme de l’optimisation de la descente de gradient Parametrised models;Modèles paramétrés Parametrised models are simply functions that depend on inputs and trainable parameters. There is no fundamental difference between the two, except that trainable parameters are shared across training samples whereas the input varies from sample to sample. In most deep learning frameworks, parameters are implicit, that is, they aren’t passed when the function is called. They are ‘saved inside the function’, so to speak, at least in the object-oriented versions of models.;Les modèles paramétrés sont simplement des fonctions qui dépendent d’entrées et de paramètres pouvant être entrainés. Il n’y a pas de différence fondamentale entre les deux, si ce n’est que les paramètres pouvant être entrainés sont partagés entre les échantillons d’entraînement alors que l’entrée varie d’un échantillon à l’autre. Dans la plupart des cadres d’apprentissage profond, les paramètres sont implicites, c’est-à-dire qu’ils ne sont pas transmis lorsque la fonction est appelée. Ils sont « enregistrés dans la fonction », pour ainsi dire, du moins dans les versions orientées objet des modèles. The parametrised model (function) takes in an input, has a parameter vector and produces an output. In supervised learning, this output goes into the cost function C(y,yˉ​), which compares the true output (y) with the model output (yˉ). The computation graph for this model is shown in Figure 1.;Le modèle paramétré prend une entrée, possède un vecteur de paramètres et produit une sortie. Dans l’apprentissage supervisé, cette sortie va dans la fonction de coût C(y,yˉ​), qui compare la sortie réelle y avec la sortie du modèle yˉ​. Le graphe de calcul pour ce modèle est présenté à la figure 1. Examples of parametrised functions -;Exemples de fonctions paramétrées : Linear Model - Weighted Sum of Components of the Input Vector :;Modèle linéaire : la somme pondérée des composantes du vecteur d’entrée : Nearest Neighbour - There is an input x and a weight matrix W with each row of the matrix indexed by k. The output is the value of k that corresponds to the row of W that is closest to x:;Voisin le plus proche : il y a une entrée x et une matrice de poids W avec chaque ligne de la matrice indexée par k. La sortie est la valeur de k qui correspond à la ligne de W la plus proche de x : Parameterized models could also involve complicated functions.;Les modèles paramétrés peuvent également comporter des fonctions compliquées. Variables (tensor, scalar, continuous, discrete);Variables (tenseur, scalaire, continues, discrètes) : is an observed input to the system;est une entrée observée dans le système is a computed variable which is produced by a deterministic function;est une variable calculée qui est produite par une fonction déterministe Deterministic functions;Fonctions déterministes Takes in multiple inputs and can produce multiple outputs;Prend en compte de multiples entrées et peut produire de multiples sorties It has an implicit parameter variable (ww);Possède une variable paramètre implicite (ww) The rounded side indicates the direction in which it is easy to compute. In the above diagram, it is easier to compute yˉ​ from x than the other way around;Le côté arrondi indique la direction dans laquelle c’est plus facile à calculer. Dans le diagramme ci-dessus, il est plus facile de calculer yˉ​ à partir de x que l’inverse Scalar-valued function;Fonction à valeur scalaire Used to represent cost functions;Utilisée pour représenter les fonctions de coût Has an implicit scalar output;A une sortie scalaire implicite Takes multiple inputs and outputs a single value (usually the distance between the inputs);Prend plusieurs entrées et produit une seule valeur (généralement la distance entre les entrées) Loss functions;Fonctions de perte Loss function is a function that is minimized during training. There are two types of losses:;Une fonction de perte est une fonction qui est minimisée pendant l’entraînement. Il existe deux types de pertes : 1) Per Sample Loss -;1) Perte par échantillon : 2) Average Loss -;Perte moyenne : In the standard Supervised Learning paradigm, the loss (per sample) is simply the output of the cost function. Machine Learning is mostly about optimizing functions (usually minimizing them). It could also involve finding Nash Equilibria between two functions like with GANs. This is done using Gradient Based Methods, though not necessarily Gradient Descent.;Dans le paradigme standard de l’apprentissage supervisé, la perte (par échantillon) est simplement le résultat de la fonction de coût. L’apprentissage machine consiste principalement à optimiser les fonctions (généralement en les minimisant). Il peut également s’agir de trouver des équilibres de Nash entre deux fonctions, comme dans le cas des GANs (Generative adversarial networks). Cela se fait en utilisant des méthodes basées sur le gradient, mais pas nécessairement sur la descente du gradient. Gradient descent;Descente de gradient A Gradient Based Method is a method/algorithm that finds the minima of a function, assuming that one can easily compute the gradient of that function. It assumes that the function is continuous and differentiable almost everywhere (it need not be differentiable everywhere).;Une méthode basée sur le gradient est une méthode/algorithme qui trouve les minima d’une fonction, en supposant que l’on peut facilement calculer le gradient de cette fonction. Elle suppose que la fonction est continue et différentiable presque partout (il n’est pas nécessaire qu’elle soit différentiable partout). Gradient Descent Intuition - Imagine being in a mountain in the middle of a foggy night. Since you want to go down to the village and have only limited vision, you look around your immediate vicinity to find the direction of steepest descent and take a step in that direction.;Intuition de la descente du gradient : Different methods of Gradient Descent;Imaginez que vous êtes dans une montagne au milieu d’une nuit brumeuse. Comme vous voulez descendre jusqu’au village et que vous n’avez qu’une vision limitée, vous regardez autour de vous pour trouver la direction de la descente la plus raide et faites un pas dans cette direction. Full (batch) gradient descent update rule :;Mise à jour de la descente de gradient complète (par batch) : For SGD (Stochastic Gradient Descent), the update rule becomes :;Pour la SGD (la Descente de Gradient Stochastique de l’anglais Stochastic Gradient Descent), la règle de mise à jour devient : Where w represents the parameter to be optimized.;où w représente le paramètre à optimiser. η is a constant here but in more sophisticated algorithms, it could be a matrix.;η est une constante ici mais dans des algorithmes plus sophistiqués, il pourrait s’agir d’une matrice. If it is a positive semi-definite matrix, we’ll still move downhill but not necessarily in the direction of steepest descent. In fact the direction of steepest descent may not always be the direction we want to move in.;Si c’est une matrice semi-définie positive, nous continuerons à descendre, mais pas nécessairement dans le sens de la descente la plus raide. En fait, la direction de la descente la plus raide n’est pas toujours celle dans laquelle nous voulons aller. If the function is not differentiable, i.e, it has a hole or is staircase like or flat, where the gradient doesn’t give you any information, one has to resort to other methods - called 0-th Order Methods or Gradient-Free Methods. Deep Learning is all about Gradient Based Methods.;Si la fonction n’est pas différentiable, c’est-à-dire si elle a un trou, si elle est en forme d’escalier ou si elle est plate (la pente ne donne alors aucune information), il faut recourir à d’autres méthodes appelées méthodes d’ordre 0 ou méthodes sans gradient. L’apprentissage profond est une méthode basée sur le gradient. However, RL (Reinforcement Learning) involves Gradient Estimation without the explicit form for the gradient. An example is a robot learning to ride a bike where the robot falls every now and then. The objective function measures how long the bike stays up without falling. Unfortunately, there is no gradient for the objective function. The robot needs to try different things.;Cependant, le RL (Apprentissage par renforcement de l’anglais Reinforcement Learning) implique une estimation du gradient sans la forme explicite du gradient. Un exemple est un robot apprenant à faire du vélo où le robot tombe de temps en temps. La fonction objectif mesure la durée pendant laquelle le vélo reste debout sans tomber. Malheureusement, il n’y a pas de gradient pour la fonction objectif. Le robot doit essayer différentes choses. The RL cost function is not differentiable most of the time but the network that computes the output is gradient-based. This is the main difference between supervised learning and reinforcement learning. With the latter, the cost function c is not differentiable. In fact it completely unknown. It just returns an output when inputs are fed to it, like a blackbox. This makes it highly inefficient and is one of the main drawbacks of RL - particularly when the parameter vector is high dimensional (which implies a huge solution space to search in, making it hard to find where to move).;La fonction de coût en RL n’est pas différenciable la plupart du temps, mais le réseau qui calcule la sortie est basé sur un gradient. C’est la principale différence entre l’apprentissage supervisé et l’apprentissage par renforcement. Dans ce dernier cas, la fonction de coût c n’est pas différenciable. En fait, elle est totalement inconnue. Elle renvoie simplement une sortie lorsque des entrées lui sont fournies, comme une boîte noire. Cela la rend très inefficace et constitue l’un des principaux inconvénients du RL. En particulier lorsque le vecteur de paramètres est à haute dimension (ce qui implique un énorme espace de solution à rechercher, rendant difficile de trouver où se déplacer). A very popular technique in RL is Actor Critic Methods. A critic method basically consists of a second C module which is a known, trainable module. One is able to train the C module, which is differentiable, to approximate the cost function/reward function. The reward is a negative cost, more like a punishment. That’s a way of making the cost function differentiable, or at least approximating it by a differentiable function so that one can backpropagate.;Une technique très populaire en RL est la méthode Acteur-Critique (AC). Une méthode critique consiste essentiellement en un second module C qui est un module connu et pouvant être entraîné. On peut entraîner le module C, qui est différenciable, à se rapprocher de la fonction de coût / fonction de récompense. La récompense est un coût négatif, pouvant être vue comme une punition. C’est une façon de rendre la fonction de coût différentiable, ou du moins de l’approcher par une fonction différentiable afin de pouvoir faire de la rétropropagation. Advantages of SGD and backpropagation for traditional neural nets;Avantages de la SGD et de la rétropropagation pour les réseaux de neurones traditionnels Advantages of Stochastic Gradient Descent (SGD);Avantages de la descente de gradient stochastique (SGD) In practice, we use stochastic gradient to compute the gradient of the objective function w.r.t the parameters. Instead of computing the full gradient of the objective function, which is the average of all samples, stochastic gradient just takes one sample, computes the loss, L, and the gradient of the loss w.r.t the parameters, and then takes one step in the negative gradient direction.;En pratique, nous utilisons un gradient stochastique pour calculer le gradient de la fonction objectif sans les paramètres. Au lieu de calculer le gradient complet de la fonction objectif, qui est la moyenne de tous les échantillons, le gradient stochastique ne prend qu’un échantillon, calcule la perte L, et le gradient de la perte avec les paramètres. Puis on fait un pas dans la direction du gradient négatif. In the formula, W is approached by W minus the step-size, times the gradient of the per-sample loss function w.r.t the parameters for a given sample, (x[p],y[p]).;Dans la formule, w est approché par W moins la taille du pas, multiplié par le gradient de la fonction de perte par échantillon avec les paramètres pour un échantillon donné, (x[p],y[p]). If we do this on a single sample, we will get a very noisy trajectory as shown in Figure 3. Instead of the loss going directly downhill, it’s stochastic. Every sample will pull the loss towards a different direction. It’s just the average that pulls us to the minimum of the average. Although it looks inefficient, it’s much faster than full batch gradient descent at least in the context of machine learning when the samples have some redundancy.;Si nous faisons cela sur un seul échantillon, nous obtenons une trajectoire très bruyante comme le montre la figure 3. Au lieu que la perte soit directement descendante, elle est stochastique. Chaque échantillon tire la perte vers une direction différente. En prendre la moyenne nous tire au minimum de la moyenne. Bien que cela semble inefficace, c’est beaucoup plus rapide que la descente par batch, au moins dans le contexte de l’apprentissage machine, lorsque les échantillons ont une certaine redondance. In practice, we use batches instead of doing stochastic gradient descent on a single sample. We compute the average of the gradient over a batch of samples, not a single sample, and then take one step. The only reason for doing this is that we can make more efficient use of the existing hardware (i.e. GPUs, multicore CPUs) if we use batches since it’s easier to parallelize. Batching is the simplest way to parallelize.;En pratique, nous utilisons des batchs (des lots) au lieu de faire une descente de gradient stochastique sur un seul échantillon. Nous calculons la moyenne du gradient sur un lot d’échantillons, et non sur un seul échantillon, puis nous effectuons une étape. La seule raison pour laquelle nous faisons cela est que nous pouvons utiliser plus efficacement le matériel existant (c’est-à-dire les GPUs, les CPUs multi-cœurs) car il est plus facile de les paralléliser. La mise en lots est la façon la plus simple de paralléliser. Traditional neural network;Réseau neuronal traditionnel Traditional Neural Nets are basically interspersed layers of linear operations and point-wise non-linear operations. For linear operations, conceptually it is just a matrix-vector multiplication. We take the (input) vector multiplied by a matrix formed by the weights. The second type of operation is to take all the components of the weighted sums vector and pass it through some simple non-linearity (i.e. ReLU(⋅),tanh(⋅), …).;Les réseaux neuronaux traditionnels sont essentiellement des couches intercalées d’opérations linéaires et d’opérations non linéaires ponctuelles. Pour les opérations linéaires, il s’agit conceptuellement d’une simple multiplication matrice-vecteur. Nous prenons le vecteur (d’entrée) multiplié par une matrice formée par les poids. Le deuxième type d’opération consiste à prendre toutes les composantes du vecteur des sommes pondérées et à les faire passer par une simple non-linéarité (c’est-à-dire ReLU(⋅),tanh(⋅), …). Figure 4 is an example of a 2-layer network, because what matters are the pairs (i.e linear+non-linear). Some people call it a 3-layer network because they count the variables. Note that if there are no non-linearities in the middle, we may as well have a single layer because the product of two linear functions is a linear function.;La figure 4 est un exemple de réseau à deux couches, car ce sont les paires (c’est-à-dire linéaire+non linéaire) qui comptent. Certaines personnes l’appellent un réseau à 3 couches parce qu’elles comptent les variables. Notez que s’il n’y a pas de non-linéarités au milieu, nous pouvons tout aussi bien avoir une seule couche car le produit de deux fonctions linéaires est une fonction linéaire. Figure 5 shows how the linear and non-linear functional blocks of the network stack:;La figure 5 montre comment les blocs fonctionnels linéaires et non linéaires du réseau s’empilent : Backpropagation through a non-linear function;Rétropropagation par une fonction non linéaire The first way to do backpropagation is to backpropagate through a non linear function. We take a particular non-linear function h from the network and leave everything else in the blackbox.;La première façon de faire de la rétropropagation est de rétropropager par une fonction non linéaire. Nous prenons une fonction non linéaire particulière h du réseau et nous laissons tout le reste dans la boîte noire. We are going to use the chain rule to compute the gradients:;Nous allons utiliser la règle de la chaîne pour calculer les gradients : Hence if we have a chain of those functions in the network, we can backpropagate by multiplying by the derivatives of all the h functions one after the other all the way back to the bottom.;Par conséquent, si nous avons une chaîne de ces fonctions dans le réseau, nous pouvons faire une rétropropagation en multipliant par les dérivées de toutes les fonctions h l’une après l’autre jusqu’au fond. It’s more intuitive to think of it in terms of perturbations. Perturbing s by ds will perturb z by:;Il est plus intuitif de penser en termes de perturbations. Perturber s par ds perturbera z par : This would in turn perturb C by:;Cela perturbera à son tour C par : Once again, we end up with the same formula as the one shown above.;Une fois de plus, nous nous retrouvons avec la même formule que celle présentée ci-dessus. Backpropagation through a weighted sum;Rétropropagation par une somme pondérée For a linear module, we do backpropagation through a weighted sum. Here we view the entire network as a blackbox except for 3 connections going from a z variable to a bunch of s variables.;Pour un module linéaire, nous faisons la rétropropagation par une somme pondérée. Ici, nous considérons l’ensemble du réseau comme une boîte noire, à l’exception de 3 connexions allant d’une variable z à un tas de variables s. We can implement neural nets with object oriented classes in PyTorch. First we define a class for the neural net and initialize linear layers in the constructor using predefined nn.Linear class. Linear layers have to be separate objects because each of them contains a parameter vector. The nn.Linear class also adds the bias vector implicitly. Then we define a forward function on how to compute outputs with torch.relu function as the nonlinear activation. We don’t have to initialize separate relu functions because they don’t have parameters.;Nous pouvons implémenter des réseaux neuronaux avec des classes orientées objet dans PyTorch. Tout d’abord, nous définissons une classe pour le réseau neuronal et nous initialisons les couches linéaires dans le constructeur en utilisant la classe prédéfinie nn.Linear. Les couches linéaires doivent être des objets séparés car chacune d’entre elles contient un vecteur de paramètres. La classe nn.Linear ajoute aussi implicitement le vecteur de biais. Ensuite, nous définissons une fonction directe sur la façon de calculer les sorties avec la fonction torch.relu comme activation non linéaire. Nous n’avons pas besoin d’initialiser des fonctions ReLU séparées car elles n’ont pas de paramètres. We do not need to compute the gradient ourselves since PyTorch knows how to back propagate and calculate the gradients given the forward function.;Nous n’avons pas besoin de calculer le gradient nous-mêmes puisque PyTorch sait comment propager en arrière et calculer les gradients avec la fonction forward. Backprop through a functional module;Rétropropagation par le biais d’un module fonctionnel We now present a more generalized form of backpropagation.;Nous présentons maintenant une forme plus généralisée de rétropropagation. Backprop through a multi-stage graph;Rétropropagation par le biais d’un graphe à plusieurs niveaux Consider a stack of many modules in a neural network as shown in Figure 9.;Considérons une pile de plusieurs modules dans un réseau de neurones, comme le montre la figure 9. For the backprop algorithm, we need two sets of gradients - one with respect to the states (each module of the network) and one with respect to the weights (all the parameters in a particular module). So we have two Jacobian matrices associated with each module. We can again use chain rule for backprop.;Pour l’algorithme de rétropropagation, nous avons besoin de deux ensembles de gradients : un par rapport aux états (chaque module du réseau) et un par rapport aux poids (tous les paramètres d’un module particulier). Nous avons donc deux matrices jacobiennes associées à chaque module. Nous pouvons à nouveau utiliser la règle de la chaîne pour la rétropropagation. Week 3;Semaine 3 We first see a visualization of a 6-layer neural network. Next we begin with the topic of Convolutions and Convolution Neural Networks (CNN). We review several types of parameter transformations in the context of CNNs and introduce the idea of a kernel, which is used to learn features in a hierarchical manner. Thereby allowing us to classify our input data which is the basic idea motivating the use of CNNs.;Nous voyons d’abord une visualisation d’un réseau de neurones à 6 couches. Ensuite, nous commençons par le sujet des convolutions et des réseaux neuronaux à convolution (ConvNets). Nous passons en revue plusieurs types de transformations de paramètres dans le contexte des ConvNets et introduisons l’idée d’un noyau, qui est utilisé pour apprendre des caractéristiques de manière hiérarchique. Cela nous permet de classer nos données d’entrée, ce qui est l’idée de base motivant l’utilisation des ConvNets. We give an introduction on how CNNs have evolved over time. We discuss in detail different CNN architectures, including a modern implementation of LeNet5 to exemplify the task of digit recognition on the MNIST dataset. Based on its design principles, we expand on the advantages of CNNs which allows us to exploit the compositionality, stationarity, and locality features of natural images.;Nous présentons l’évolution des ConvNets au fil du temps. Nous discutons en détails des différentes architectures de ConvNets, y compris une implémentation moderne de LeNet5 pour illustrer la tâche de reconnaissance des chiffres sur le jeu de données du MNIST. Sur la base des principes de conception, nous développons les avantages des ConvNets qui nous permettent d’exploiter les caractéristiques de compositionnalité, de stationnarité et de localisation des images naturelles. Properties of natural signals that are most relevant to CNNs are discussed in more detail, namely: Locality, Stationarity, and Compositionality. We explore precisely how a kernel exploits these features through sparsity, weight sharing and the stacking of layers, as well as motivate the concepts of padding and pooling. Finally, a performance comparison between FCN and CNN was done for different data modalities.;Nous discutons des propriétés des signaux naturels qui sont les plus pertinentes pour les ConvNets. A savoir la localité, la stationnarité et la compositionnalité. Nous explorons précisément comment un noyau exploite ces caractéristiques par l’éparsité, le partage des poids et l’empilement des couches puis abordons les concepts de rembourrage et de pooling. Enfin, une comparaison des performances entre les réseaux entièrement connectés et les ConvNets est effectuée pour différents types de données. Visualization of neural networks parameter transformation and fundamental concepts of convolution;Visualisation de la transformation des paramètres des réseaux neuronaux et concepts fondamentaux de la convolution Visualization of neural networks;Visualisation des réseaux de neurones In this section we will visualize the inner workings of a neural network.;Dans cette section, nous allons visualiser le fonctionnement interne d’un réseau de neurones. Figure 1 depicts the structure of the neural network we would like to visualize. Typically, when we draw the structure of a neural network, the input appears on the bottom or on the left, and the output appears on the top side or on the right. In Figure 1, the pink neurons represent the inputs, and the blue neurons represent the outputs. In this network, we have 4 hidden layers (in green), which means we have 6 layers in total (4 hidden layers + 1 input layer + 1 output layer). In this case, we have 2 neurons per hidden layer, and hence the dimension of the weight matrix (W) for each layer is 2-by-2. This is because we want to transform our input plane into another plane that we can visualize.;La figure 1 illustre la structure du réseau de neurones que nous souhaitons visualiser. En général, lorsque nous dessinons la structure d’un réseau de neurones, l’entrée apparaît en bas ou à gauche et la sortie apparaît en haut ou à droite. Dans la figure 1, les neurones roses représentent les entrées et les neurones bleus les sorties. Dans ce réseau, nous avons 4 couches cachées (en vert), ce qui signifie que nous avons 6 couches au total (4 couches cachées + 1 couche d’entrée + 1 couche de sortie). Dans ce cas, nous avons 2 neurones par couche cachée et donc la dimension de la matrice de poids (W) pour chaque couche est de 2 par 2. Cela s’explique par le fait que nous voulons transformer notre plan d’entrée en un autre plan que nous pouvons visualiser. "The transformation of each layer is like folding our plane in some specific regions as shown in Figure 2. This folding is very abrupt, this is because all the transformations are performed in the 2D layer. In the experiment, we find that if we have only 2 neurons in each hidden layer, the optimization will take longer; the optimization is easier if we have more neurons in the hidden layers. This leaves us with an important question to consider: Why is it harder to train the network with fewer neurons in the hidden layers? You should consider this question yourself and we will return to it after the visualization of ReLU.";La transformation de chaque couche est comme le pliage de notre plan dans certaines régions spécifiques, comme le montre la figure 2. Ce pliage est très abrupt, car toutes les transformations sont effectuées dans la couche 2D. Expérimentalement, nous constatons que si nous n’avons que 2 neurones dans chaque couche cachée, l’optimisation prend plus de temps. L’optimisation est plus facile si nous avons davantage de neurones dans les couches cachées. Cela nous laisse avec une question importante à considérer : pourquoi est-il plus difficile d’entraîner le réseau avec moins de neurones dans les couches cachées ? When we step through the network one hidden layer at a time, we see that with each layer we perform some affine transformation followed by applying the non-linear ReLU operation, which eliminates any negative values. In Figures 3(a) and (b), we can see the visualization of ReLU operator. The ReLU operator helps us to do non-linear transformations. After multiple steps of performing an affine transformation followed by the ReLU operator, we are eventually able to linearly separate the data as can be seen in Figure 4.;Lorsque nous parcourons le réseau une couche cachée à la fois, nous constatons qu’avec chaque couche, nous effectuons une certaine transformation affine suivie de l’application de l’opération non linéaire ReLU, qui élimine toute valeur négative. Dans les figures 3(a) et (b), nous pouvons voir la visualisation de l’opérateur ReLU. L’opérateur ReLU nous aide à effectuer des transformations non linéaires. Après avoir effectué plusieurs étapes de transformation affine suivies par l’opérateur ReLU, nous sommes finalement en mesure de séparer les données de manière linéaire, comme le montre la figure 4. This provides us with some insight into why the 2-neuron hidden layers are harder to train. Our 6-layer network has one bias in each hidden layer. Therefore, if one of these biases moves points out of top-right quadrant, then applying the ReLU operator will eliminate these points to zero. After that, no matter how later layers transform the data, the values will remain zero. We can make a neural network easier to train by making the network “fatter” - i.e. adding more neurons in hidden layers - or we can add more hidden layers, or a combination of the two methods. Throughout this course we will explore how to determine the best network architecture for a given problem, stay tuned.;Elle nous permet de comprendre pourquoi les couches cachées à deux neurones sont plus difficiles à entraîner. Notre réseau à 6 couches a un biais dans chaque couche cachée. Par conséquent, si l’un de ces biais déplace des points hors du quadrant supérieur droit, l’application de l’opérateur ReLU éliminera ces points. Ensuite, quelle que soit la façon dont les couches ultérieures transforment les données, les valeurs resteront nulles. Nous pouvons rendre un réseau de neurones plus facile à entraîner en rendant le réseau plus « gros » (c’est-à-dire en ajoutant plus de neurones dans les couches cachées) ou nous pouvons ajouter d’autres couches cachées, ou une combinaison des deux méthodes. Parameter transformations;Transformations des paramètres General parameter transformation means that our parameter vector W is the output of a function. By this transformation, we can map original parameter space into another space. In Figure 5, w is actually the output of H with the parameter uu. G(x,w) is a network and C(y,yˉ) is a cost function. The backpropagation formula is also adapted as follows;La transformation générale des paramètres signifie que notre vecteur de paramètres W est la sortie d’une fonction. Par cette transformation, nous pouvons faire correspondre l’espace de paramètres d’origine à un autre espace. Dans la figure 5, w est en fait la sortie de H avec le paramètre uu. G(x,w) est un réseau et C(y,yˉ) est une fonction de coût. La formule de rétropropagation est également adaptée comme suit : A simple parameter transformation: weight sharing;Une transformation des paramètres simple : le partage des poids A Weight Sharing Transformation means H(u) just replicates one component of u into multiple components of w. H(u) is like a Y branch to copy u1​ to w1​, w2​. This can be expressed as,;Le partage des poids signifie que H(u) reproduit simplement une composante de u en plusieurs composantes de w. H(u) est comme une branche Y pour copier u1​ en w1​, w2​. Cela peut être exprimé sous la forme : We force shared parameters to be equal, so the gradient w.r.t. to shared parameters will be summed in the backprop. For example the gradient of the cost function C(y,yˉ) with respect to u1​ will be the sum of the gradient of the cost function C(y,yˉ) with respect to w1​ and the gradient of the cost function C(y,yˉ) with respect to w2​.;Nous forçons les paramètres partagés à être égaux, de sorte que le gradient par rapport aux paramètres partagés sera additionné dans la rétropropagation. Par exemple, le gradient de la fonction de coût C(y,yˉ) par rapport à u1​ sera la somme du gradient de la fonction de coût C(y,yˉ) par rapport à w1​ et du gradient de la fonction de coût C(y,yˉ) par rapport à w2​. Hypernetwork;Hyper-réseau A hypernetwork is a network where the weights of one network is the output of another network. Figure 6 shows the computation graph of a “hypernetwork”. Here the function H is a network with parameter vector u and input x. As a result, the weights of G(x,w) are dynamically configured by the network H(x,u). Although this is an old idea, it remains very powerful.;Un hyper-réseau est un réseau où les poids d’un réseau sont la sortie d’un autre réseau. La figure 6 montre le graphique de calcul d’un hyper-réseau. Ici, la fonction H est un réseau avec le vecteur paramètre u et l’entrée x. En conséquence, les poids de G(x,w) sont configurés dynamiquement par le réseau H(x,u). Bien que cette idée soit ancienne, elle reste très puissante. Motif detection in sequential data;Détection de motifs dans les données séquentielles Weight sharing transformation can be applied to motif detection. Motif detection means to find some motifs in sequential data like keywords in speech or text. One way to achieve this, as shown in Figure 7, is to use a sliding window on data, which moves the weight-sharing function to detect a particular motif (i.e. a particular sound in speech signal), and the outputs (i.e. a score) goes into a maximum function.;La partage de poids peut être appliqué à la détection de motifs. La détection de motifs consiste à trouver certains motifs dans des données séquentielles comme des mots-clés dans la parole ou le texte. Une façon d’y parvenir, comme le montre la figure 7, consiste à utiliser une fenêtre coulissante sur les données, qui déplace la fonction de partage de poids pour détecter un motif particulier (c’est-à-dire un son particulier dans le signal vocal) et les sorties (c’est-à-dire une partition) passent dans une fonction maximale. In this example we have 5 of those functions. As a result of this solution, we sum up five gradients and backpropagate the error to update the parameter w. When implementing this in PyTorch, we want to prevent the implicit accumulation of these gradients, so we need to use zero_grad() to initialize the gradient.;Dans cet exemple, nous avons cinq de ces fonctions. Cette solution nous permet d’additionner cinq gradients et de rétropropager l’erreur pour mettre à jour le paramètre w. En implémentant cela dans PyTorch, nous voulons empêcher l’accumulation implicite de ces gradients, donc nous devons utiliser zero_grad() pour initialiser le gradient. Motif detection in images;Détection de motifs dans les images The other useful application is motif detection in images. We usually swipe our “templates” over images to detect the shapes independent of position and distortion of the shapes. A simple example is to distinguish between “C” and “D”, as Figure 8 shows. The difference between “C” and “D” is that “C” has two endpoints and “D” has two corners. So we can design “endpoint templates” and “corner templates”. If the shape is similar to the “templates”, it will have thresholded outputs. Then we can distinguish letters from these outputs by summing them up. In Figure 8, the network detects two endpoints and zero corners, so it activates “C”.;L’autre application utile est la détection de motifs dans les images. Nous faisons généralement glisser nos patrons sur les images pour détecter les formes indépendamment de leur position et de leur distorsion. Un exemple simple consiste à distinguer un « C » d’un « D », comme le montre la figure 8. La différence entre « C » et « D » est que « C » a deux extrémités et « D » a deux coins. Nous pouvons donc concevoir des patrons d’extrémité et des patrons d’angle. Si la forme est similaire aux patrons, les sorties seront limitées. Nous pouvons alors distinguer les lettres de ces sorties en les additionnant. Dans la figure 8, le réseau détecte deux points d’extrémité et zéro coin, donc il active « C ». It is also important that our “template matching” should be shift-invariant - when we shift the input, the output (i.e. the letter detected) shouldn’t change. This can be solved with weight sharing transformation. As Figure 9 shows, when we change the location of “D”, we can still detect the corner motifs even though they are shifted. When we sum up the motifs, it will activate the “D” detection.;Il est également important que notre appariement de pochoirs (template matching en anglais) soit invariable par décalage : lorsque nous décalons l’entrée, la sortie (c’est-à-dire la lettre détectée) ne doit pas changer. Ce problème peut être résolu par une transformation de type partage de poids. Comme le montre la figure 9, lorsque nous changeons l’emplacement de « D », nous pouvons toujours détecter les motifs de coin même s’ils sont décalés. Lorsque nous additionnons les motifs, cela active la détection de « D ». This hand-crafted method of using local detectors and summation to for digit-recognition was used for many years. But it presents us with the following problem: How can we design these “templates” automatically? Can we use neural networks to learn these “templates”? Next, We will introduce the concept of convolutions, that is, the operation we use to match images with “templates”.;Cette méthode artisanale d’utilisation de détecteurs locaux et de sommation pour la reconnaissance des chiffres a été utilisée pendant de nombreuses années. Mais elle nous pose le problème suivant : comment pouvons-nous concevoir ces pochoirs automatiquement ? Pouvons-nous utiliser des réseaux de neurones pour apprendre ces pochoirs ? Pour cela nous allons introduire le concept de convolutions, c’est-à-dire l’opération que nous utilisons pour faire correspondre les images avec les pochoirs. Discrete convolution;Convolution discrète Convolution;Convolution The precise mathematical definition of a convolution in the 1-dimensional case between input x and w is:;La définition mathématique précise d’une convolution dans le cas unidimensionnel entre l’entrée x et w est : In words, the i-th output is computed as the dot product between the reversed w and a window of the same size in x. To compute the full output, start the window at the beginning, shift this window by one entry each time and repeat until x is exhausted.;En d’autres termes, la ii-ème sortie est calculée comme le produit scalaire entre les w inversés et une fenêtre de même taille en x. Pour calculer la sortie complète, on commence avec la fenêtre au début puis on décale cette fenêtre d’une entrée à chaque fois. On répète le procédé jusqu’à ce que x soit épuisé. Cross-correlation;Corrélation croisée In practice, the convention adopted in deep learning frameworks such as PyTorch is slightly different. Convolution in PyTorch is implemented where W is not reversed:;En pratique, la convention adoptée dans les frameworks d’apprentissage profond comme PyTorch est légèrement différente. La convolution dans PyTorch est mise en œuvre lorsque w est non inversé : Mathematicians call this formulation “cross-correlation”. In our context, this difference is just a difference in convention. Practically, cross-correlation and convolution can be interchangeable if one reads the weights stored in memory forward or backward.;Les mathématiciens appellent cette formulation « corrélation croisée ». Dans notre contexte, cette différence n’est qu’une différence de convention. En pratique, la corrélation croisée et la convolution peuvent être interchangeables si l’on lit les poids stockés en mémoire en avant ou en arrière. Being aware of this difference is important, for example, when one want to make use of certain mathematical properties of convolution/correlation from mathematical texts.;Il est important d’être conscient de cette différence, par exemple, lorsqu’on veut utiliser certaines propriétés mathématiques de la convolution/corrélation à partir de textes mathématiques. Higher dimensional convolution;Convolution de dimensions supérieures For two dimensional inputs such as images, we make use of the two-dimensional version of convolution:;Pour les entrées bidimensionnelles telles que les images, nous utilisons la version bidimensionnelle de la convolution : This definition can easily be extended beyond two dimensions to three or four dimensions. Here w is called the convolution kernel;Cette définition peut facilement être étendue au-delà de deux dimensions à trois ou quatre dimensions. Ici, W est appelé le noyau de convolution. Regular twists that can be made with the convolutional operator in DCNNs;Les torsions de base qui peuvent être réalisées avec l’opérateur convolutif dans les ConvNets profonds 1. Striding: instead of shifting the window in x one entry at a time, one can do so with a larger step (for example two or three entries at a time). Example: Suppose the input x is one dimensional and has size of 100 and w has size 5. The output size with a stride of 1 or 2 is shown in the table below:;Décalage (striding) : au lieu de décaler la fenêtre en x une entrée à la fois, on peut le faire avec un pas plus grand (par exemple deux ou trois entrées à la fois). Exemple : supposons que l’entrée x soit unidimensionnelle et ait une taille de 100 et que W ait une taille de 5. La taille de la sortie avec un pas de 11 ou 22 est indiquée dans le tableau ci-dessous : 2. Padding: Very often in designing Deep Neural Networks architectures, we want the output of convolution to be of the same size as the input. This can be achieved by padding the input ends with a number of (typically) zero entries, usually on both sides. Padding is done mostly for convenience. It can sometimes impact performance and result in strange border effects, that said, when using a ReLU non-linearity, zero padding is not unreasonable.;Remplissage (padding) : très souvent, dans la conception des architectures de réseaux neuronaux profonds, nous voulons que la sortie de la convolution soit de la même taille que l’entrée. Cela peut être réalisé en ajoutant aux extrémités de l’entrée un certain nombre d’entrées (généralement) nulles, généralement des deux côtés. Le remplissage se fait surtout par commodité. Il peut parfois avoir un impact sur les performances et entraîner d’étranges effets de bord, cela dit, lorsqu’on utilise une non-linéarité ReLU, le remplissage avec des zéros n’est pas déraisonnable. Deep Convolution Neural Networks (DCNNs);ConvNets profonds As previously described, deep neural networks are typically organized as repeated alternation between linear operators and point-wise nonlinearity layers. In convolutional neural networks, the linear operator will be the convolution operator described above. There is also an optional third type of layer called the pooling layer.;Comme décrit précédemment, les réseaux neuronaux profonds sont généralement organisés sous forme d’alternance répétée entre des opérateurs linéaires et des couches de non-linéarité ponctuelles. Dans les réseaux neuronaux convolutifs, l’opérateur linéaire sera l’opérateur de convolution décrit ci-dessus. Il existe également un troisième type de couche optionnelle appelée couche d’agrégation (pooling layer). The reason for stacking multiple such layers is that we want to build a hierarchical representation of the data. CNNs do not have to be limited to processing images, they have also been successfully applied to speech and language. Technically they can be applied to any type of data that comes in the form of arrays, although we also these arrays to satisfy certain properties.;La raison de l’empilement de plusieurs couches de ce type est que nous voulons construire une représentation hiérarchique des données. Les ConvNets ne doivent pas être limités au traitement des images, ils ont également été appliqués avec succès à la parole et au langage. Techniquement, ils peuvent être appliqués à tout type de données qui se présentent sous la forme de tableaux, bien que nous ayons également ces tableaux pour satisfaire certaines propriétés. Why would we want to capture the hierarchical representation of the world? Because the world we live in is compositional. This point is alluded to in previous sections. Such hierarchical nature can be observed from the fact that local pixels assemble to form simple motifs such as oriented edges. These edges in turn are assembled to form local features such as corners, T-junctions, etc. These edges are assembled to form motifs that are even more abstract. We can keep building on these hierarchical representation to eventually form the objects we observe in the real world.;Pourquoi voudrions-nous saisir la représentation hiérarchique du monde ? Parce que le monde dans lequel nous vivons est compositionnel. Ce point est évoqué dans les sections précédentes. Cette nature hiérarchique peut être observée à partir du fait que les pixels locaux s’assemblent pour former des motifs simples tels que des bords orientés. Ces bords sont à leur tour assemblés pour former des caractéristiques locales telles que des coins, des jonctions en T, etc. Ces bords sont assemblés pour former des motifs encore plus abstraits. Ces bords sont assemblés pour former des motifs encore plus abstraits. Nous pouvons continuer à nous appuyer sur ces représentations hiérarchiques pour finalement former les objets que nous observons dans le monde réel. This compositional, hierarchical nature we observe in the natural world is therefore not just the result of our visual perception, but also true at the physical level. At the lowest level of description, we have elementary particles, which assembled to form atoms, atoms together form molecules, we continue to build on this process to form materials, parts of objects and eventually full objects in the physical world.;Cette nature compositionnelle et hiérarchique que nous observons dans le monde naturel n’est donc pas seulement le résultat de notre perception visuelle, mais est aussi vraie au niveau physique. Au niveau le plus bas de la description, nous avons des particules élémentaires, qui s’assemblent pour former des atomes, les atomes forment ensemble des molécules, nous continuons à nous appuyer sur ce processus pour former des matériaux, des parties d’objets et finalement des objets complets dans le monde physique. The compositional nature of the world might be the answer to Einstein’s rhetorical question on how humans understand the world they live in: The most incomprehensible thing about the universe is that it is comprehensible.;La nature compositionnelle du monde pourrait être la réponse à la question rhétorique d’Einstein sur la façon dont les humains comprennent le monde dans lequel ils vivent : « La chose la plus incompréhensible à propos de l’univers est qu’il est compréhensible ». The fact that humans understand the world thanks to this compositional nature still seems like a conspiracy to Yann. It is, however, argued that without compositionality, it will take even more magic for humans to comprehend the world they live in. Quoting the great mathematician Stuart Geman: The world is compositional or God exists.;Le fait que les humains comprennent le monde grâce à cette nature compositionnelle semble être une conspiration pour Yann. Il avance que sans cette compositionnalité, il faudrait encore plus de magie pour que les humains comprennent le monde dans lequel ils vivent. Il cite le mathématicien Stuart Geman : « Le monde est composé ou Dieu existe ». Inspirations from Biology;Inspirations de la biologie So why should Deep Learning be rooted in the idea that our world is comprehensible and has a compositional nature? Research conducted by Simon Thorpe helped motivate this further. He showed that the way we recognize everyday objects is extremely fast. His experiments involved flashing a set of images every 100ms, and then asking users to identify these images, which they were able to do successfully. This demonstrated that it takes about 100ms for humans to detect objects. Furthermore, consider the diagram below, illustrating parts of the brain annotated with the time it takes for neurons to propagate from one area to the next:;Alors pourquoi l’apprentissage profond devrait-il être ancré dans l’idée que notre monde est compréhensible et a une nature compositionnelle ? Les recherches menées par Simon Thorpe ont contribué à motiver cette idée. Il a montré que la façon dont nous reconnaissons les objets quotidiens est extrêmement rapide. Ses expériences ont consisté à faire clignoter un ensemble d’images toutes les 100 ms, puis à demander aux utilisateurs d’identifier ces images, ce qu’ils ont réussi à faire. Cela a montré qu’il faut environ 100 ms aux humains pour détecter des objets. En outre, le diagramme ci-dessous illustre des parties du cerveau annotées du temps que mettent les neurones à se propager d’une zone à l’autre : Signals pass from the retina to the LGN (helps with contrast enhancement, gate control, etc.), then to the V1 primary visual cortex, V2, V4, then to the inferotemporal cortex (PIT), which is the part of the brain where categories are defined. Observations from open-brain surgery showed that if you show a human a film, neurons in the PIT will fire only when they detect certain images -- such as Jennifer Aniston or a person's grandmother -- and nothing else. The neural firings are invariant to things such as position, size, illumination, your grandmother's orientation, what she's wearing, etc. ;Les signaux passent de la rétine au corps géniculé latéral (LGN sur la figure 11) qui aide à l’amélioration du contraste, au contrôle des portes, etc., puis au cortex visuel primaire V1, V2, V4, puis au cortex inférotemporel (PIT), qui est la partie du cerveau où les catégories sont définies. Les observations en chirurgie à cerveau ouvert ont montré que si vous montrez un film à un humain, les neurones du PIT ne se déclenchent que lorsqu’ils détectent certaines images (comme Jennifer Aniston ou la grand-mère d’une personne par exemple) et rien d’autre. Les déclenchements neuronaux sont invariables en fonction de la position, de la taille, de l’éclairage, de l’orientation de votre grand-mère, de ce qu’elle porte, etc. Furthermore, the fast reaction times with which humans were able to categorize these items -- barely enough time for a few spikes to get through -- demonstrates that it's possible to do this without additional time spent on complex recurrent computations. Rather, this is a single feed-forward process. ;De plus, le temps de réaction extrêmement rapide avec lequel les humains ont pu classer ces éléments (à peine assez de temps pour que quelques décharges passent) démontre qu’il est possible de le faire sans passer de temps supplémentaire sur des calculs complexes et récurrents. Il s’agit plutôt d’un processus feed-forward unique. These insights suggested that we could develop a neural network architecture which is completely feed-forward, yet still able to solve the problem of recognition, in a way that is invariant to irrelevant transformations of the input. ;Ces idées ont suggéré que nous pourrions développer une architecture de réseau neuronal qui soit complètement feed-forward, tout en étant capable de résoudre le problème de la reconnaissance, d’une manière qui soit invariante aux transformations non pertinentes de l’entrée. One further insight from the human brain comes from Gallant & Van Essen, whose model of the human brain illustrates two distinct pathways:;Gallant & Van Essen, dont le modèle du cerveau humain illustre deux voies distinctes, nous donnent un autre aperçu de ce dernier : The right side shows the ventral pathway, which tells you what you're looking at, while the left side shows the dorsal pathway, which identifies locations, geometry, and motion. They seem fairly separate in the human (and primate) visual cortex (with a few interactions between them of course).;Le côté droit montre la voie ventrale, qui vous indique ce que vous regardez, tandis que le côté gauche montre la voie dorsale, qui identifie les emplacements, la géométrie et le mouvement. Ils semblent assez séparés dans le cortex visuel de l’homme et des primates (avec quelques interactions entre eux bien sûr). "Hubel and Weisel experiments used electrodes to measure neural firings in cat brains in response to visual stimuli. They discovered that neurons in the V1 region are only sensitive to certain areas of a visual field (called ""receptive fields""), and detect oriented edges in that area. For example, they demonstrated that if you showed the cat a vertical bar and start rotating it, at a particular angle the neuron will fire. Similarly, as the bar moves away from that angle, the activation of the neuron diminishes. These activation-selective neurons Hubel & Weisel named ""simple cells"", for their ability to detect local features. ";Dans leurs expériences, Hubel et Weisel ont utilisé des électrodes pour mesurer les tirs neuronaux dans le cerveau des chats en réponse à des stimuli visuels. Ils ont découvert que les excitations neuronales de la région V1 ne sont sensibles qu’à certaines zones d’un champ visuel (appelées champs réceptifs) et détectent des bords orientés dans cette zone. Par exemple, ils ont démontré que si on montre au chat une barre verticale et commençons à la faire tourner, le neurone se déclenchera à un angle particulier. De même, à mesure que la barre s’éloigne de cet angle, l’activation du neurone diminue. Ces neurones à activation sélective, Hubel & Weisel les ont nommés « cellules simples » pour leur capacité à détecter des caractéristiques locales. "They also discovered that if you move the bar out of the receptive field, that particular neuron doesn't fire any more, but another neuron will. There are local feature detectors corresponding to all areas of the visual field, hence the idea that the human brain processes visual information as a collection of ""convolutions"". ";Ils ont également découvert que si on déplace la barre hors du champ de réception, ce neurone particulier ne s’active plus, mais un autre neurone le fera. Il existe des détecteurs de caractéristiques locales correspondant à toutes les zones du champ visuel, d’où l’idée que le cerveau humain traite les informations visuelles comme un ensemble de convolutions. "Another type of neuron, which they named ""complex cells"", aggregate the output of multiple simple cells within a certain area. We can think of these as computing an aggregate of the activations using a function such as maximum, sum, sum of squares, or any other function not depending on the order. These complex cells detect edges and orientations in a region, regardless of where those stimuli lie specifically within the region. In other words, they are shift-invariant with respect to small variations in positions of the input.";Un autre type de neurone, qu’ils ont appelé « cellules complexes », regroupe la sortie de plusieurs cellules simples dans une certaine zone. On peut considérer qu’elles calculent un agrégat des activations en utilisant une fonction telle que maximum, somme, somme des carrés, ou toute autre fonction ne dépendant pas de l’ordre. Ces cellules complexes détectent les bords et les orientations dans une région, indépendamment de l’endroit où ces stimuli se trouvent spécifiquement dans la région. En d’autres termes, elles sont invariantes par rapport aux petites variations de positions de l’entrée. Fukushima was the first to implement the idea of multiple layers of simple cells and complex cells with computer models, using a dataset of handwritten digits. Some of these feature detectors were hand-crafted or learned, though the learning used unsupervised clustering algorithms, trained separately for each layer, as backpropagation was not yet in use. Yann LeCun came in a few years later (1989, 1998) and implemented the same architecture, but this time trained them in a supervised setting using backpropagation. This is widely regarded as the genesis of modern convolutional neural networks. (Note: Riesenhuber at MIT in 1999 also re-discovered this architecture, though he didn't use backpropagation.);Fukushima a été le premier à mettre en œuvre, avec des modèles informatiques, l’idée de couches multiples de cellules simples et de cellules complexes. Certains de ces détecteurs de caractéristiques ont été fabriqués à la main ou appris, bien que l’apprentissage ait utilisé des algorithmes de clustering non supervisés, entraînés séparément pour chaque couche, car la rétropropagation n’était pas encore utilisée. Yann Le Cun est arrivé quelques années plus tard (1989 et 1998) et a mis en place la même architecture, mais cette fois-ci, avec un entraînement supervisé utilisant la rétropropagation. Cette méthode est largement considérée comme la genèse des réseaux neuronaux convolutifs modernes. A noter que Riesenhuber du MIT a également redécouvert cette architecture en 1999, bien qu’il n’ait pas utilisé la rétropropagation. ConvNet Evolutions, Architectures, Implementation Details and Advantages.;Evolutions des ConvNets, Architectures, Details et Avantages de l’implementation Proto-CNNs and evolution to modern CNNs;Proto-ConvNets et evolution vers les ConvNets modernes Proto-convolutional neural nets on small data sets;Proto-ConvNets sur de petits jeux de données Inspired by Fukushima’s work on visual cortex modelling, using the simple/complex cell hierarchy combined with supervised training and backpropagation lead to the development of the first CNN at University of Toronto in ‘88-‘89 by Prof. Yann LeCun. The experiments used a small dataset of 320 ‘mouser-written’ digits. Performances of the following architectures were compared:;Inspiré par les travaux de Fukushima sur la modélisation du cortex visuel, l’utilisation de la hiérarchie cellulaire simple/complexe combinée à l’entraînement supervisé et à la rétropropagation a conduit à la création du premier ConvNet à l’université de Toronto en 1988-89 par Yann. Les expériences reposaient sur un petit jeux de données de 320 chiffres écrits à la souris d’ordinateur. Les performances des architectures suivantes ont été comparées : 1. Single FC(fully connected) Layer;1. Une seule couche entièrement connectée (FC pour Fully connected en anglais) 2. Two FC Layers;2. Deux couches FC 3. Locally Connected Layers w/o shared weights;3. Couches connectées localement sans partage de poids 4. Constrained network w/ shared weights and local connections;4. Réseau contraint avec poids partagés et connexions locales 5. Constrained network w/ shared weights and local connections 2 (more feature maps);5. Réseau contraint avec poids partagés et connexions locales 2 : c’est-à-dire davantage de cartes de caractéristiques (feature maps en anglais) The most successful networks (constrained network with shared weights) had the strongest generalizability, and form the basis for modern CNNs. Meanwhile, singler FC layer tends to overfit.;Les réseaux les plus performants (réseau contraint avec poids partagés) ont la plus forte généralisabilité et constituent la base des ConvNets modernes. La couche FC unique a quant à elle tendance à faire du surentraînement (overfitting). First “real” ConvNets at Bell Labs;Les premiers « vrais» réseaux convolutifs au Bell Labs After moving to Bell Labs, LeCunn’s research shifted to using handwritten zipcodes from the US Postal service to train a larger CNN:;Après avoir intégrés Bell Labs, Yann a orienté ses recherches vers l’utilisation de codes postaux manuscrits de la poste américaine pour entraîner un ConvNet plus important : 256 (16×16) input layer;256 (16×16) couche d’entrée 12 5×5 kernels with stride 2 (stepped 2 pixels): next layer has lower resolution;12 5×5 noyaux avec un pas de 2 (pas de 2 pixels) : la couche suivante a une résolution plus faible NO separate pooling;PAS de pooling séparé Convolutional network architecture with pooling;ConvNets avec pooling The next year, some changes were made: separate pooling was introduced. Separate pooling is done by averaging input values, adding a bias, and passing to a nonlinear function (hyperbolic tangent function). The 2×2 pooling was performed with a stride of 2, hence reducing resolutions by half.;L’année suivante, certains changements ont été apportés : un pooling séparé a été introduit. Le pooling séparé est réalisé en faisant la moyenne des valeurs en entrée, en ajoutant un biais et en passant à une fonction non linéaire (fonction tangente hyperbolique). Le pooling de taille 2×2 a été effectuée avec un pas de 2, réduisant ainsi les résolutions de moitié. An example of a single convolutional layer would be as follows:;Voici un exemple de couche convolutionnelle unique : 1. Take an input with size 32×32;1. On prend une entrée de taille 32×32 2. The convolution layer passes a 5×5 kernel with stride 1 over the image, resulting feature map size 28×28;2. La couche de convolution passe un noyau de taille 5×5 avec un pas de 1 sur l’image, ce qui donne une carte de caractéristiques de taille 28×28. 3. Pass the feature map to a nonlinear function: size 28×28;3. On passe la carte de caractéristiques à travers une fonction non linéaire : taille 28×28 4. Pass to the pooling layer that averages over a 2×2 window with stride 2: size 14×14;4. On passe à la couche de pooling qui fait une moyenne sur une fenêtre de 2×2 avec un pas de 2 : taille 14×14 5. Repeat 1-4 for 4 kernels;5. On répète des étapes 1 à 4 pour 4 noyaux The first-layer, simple convolution/pool combinations usually detect simple features, such as oriented edge detections. After the first convolution/pool layer, the objective is to detect combinations of features from previous layers. To do this, steps 2 to 4 are repeated with multiple kernels over previous-layer feature maps, and are summed in a new feature map:;Les combinaisons simples convolution/pooling de la première couche détectent généralement des caractéristiques simples, telles que des bords orientés. Après la première couche de convolution/pooling, l’objectif est de détecter des combinaisons d’éléments des couches précédentes. Pour ce faire, les étapes 2 à 4 sont répétées avec plusieurs noyaux sur les cartes de caractéristiques des couches précédentes et sont additionnées dans une nouvelle carte de caractéristiques : 1. A new 5×5 kernel is slid over all feature maps from previous layers, with results summed up. (Note: In Prof. LeCun’s experiment in 1989 the connection is not full for computation purpose. Modern settings usually enforce full connections): size 10×10;1. Un nouveau noyau de 5×5 est glissé sur toutes les cartes de caractéristiques des couches précédentes, et les résultats sont additionnés. Note : dans l’expérience de Yann en 1989, la connexion n’est pas complète pour les calculs. Les paramètres modernes imposent généralement des connexions complètes : taille 10×10 2. Pass the output of the convolution to a nonlinear function: size 10×10;2. On passe la sortie de la convolution à une fonction non linéaire : taille 10×10 3. Repeat 1/2 for 16 kernels.;3. On répète les étapes 1 et 2 pour 16 noyaux 4. Pass the result to the pooling layer that averages over 2×2 window with stride 2: size 5×5 each feature map;4. On passe le résultat à la couche de pooling qui moyenne sur une fenêtre de taille 2×2 avec un pas de 2 : taille 5×5 de chaque cartes de caractéristiques To generate an output, the last layer of convolution is conducted, which seems like a full connection but indeed is convolutional.;Pour générer une sortie, on effectue la dernière couche de convolution, qui semble être une connexion complète mais qui est en fait convolutive. 1. The final convolution layer slides a 5×5 kernel over all feature maps, with results summed up: size 1×1;1. La dernière couche de convolution fait glisser un noyau de 5×5 sur toutes les cartes de caractéristiques, avec des résultats résumés : taille 1×1 2. Pass through nonlinear function: size 1×1;2. On passe par une fonction non linéaire : taille 1×1 3. Generate the single output for one category.;3. On génère la sortie unique pour une catégorie 4. Repeat all pervious steps for each of the 10 categories(in parallel);4. On répète toutes les étapes précédentes pour chacune des 10 catégories (en parallèle) See this animation on Andrej Karpathy’s website on how convolutions change the shape of the next layer’s feature maps. Full paper can be found here.;Voir cette animation sur le site d’Andrej Karpathy sur la façon dont les convolutions modifient la forme des cartes de caractéristiques de la couche suivante. L’article complet est disponible ici. Shift equivariance;Équivariance des changements As demonstrated by the animation on the slides (here’s another example), translating the input image results in same translation of the feature maps. However, the changes in feature maps are scaled by convolution/pooling operations. E.g. the 2×2 pooling with stride 2 will reduce the 1-pixel shift in input layer to 0.5-pixel shift in the following feature maps. Spatial resolution is then exchanged for increased number of feature types, i.e. making the representation more abstract and less sensitive to shifts and distortions.;Comme le montre l’animation, la translation de l’image d’entrée entraîne la même translation des cartes de caractéristiques. Cependant, les changements dans les cartes de caractéristiques sont mis à l’échelle par des opérations de convolution/pooling. Par exemple, le pooling 2×2 de pas 2 réduira le décalage de 1 pixel de la couche d’entrée à 0,5 pixel dans les cartes de caractéristiques suivantes. La résolution spatiale est alors échangée contre un plus grand nombre de types d’éléments, ce qui rend la représentation plus abstraite et moins sensible aux décalages et aux distorsions. Overall architecture breakdown;Décomposition de l’architecture globale Generic CNN architecture can be broken down into several basic layer archetypes:;L’architecture générique des ConvNets peut être décomposée en plusieurs archétypes de couches de base : Normalisation ;Normalisation Adjusting whitening (optional);Ajustement du blanchiment (facultatif) Subtractive methods e.g. average removal, high pass filtering;Méthodes soustractives, par exemple : suppression moyenne, filtre passe-haut Divisive: local contrast normalisation, variance normalisation;Divise : normalisation des contrastes locaux, normalisation de la variance Filter Banks ;Banques de filtres Increase dimensionality;Augmenter la dimensionnalité Projection on overcomplete basis;Projection sur une base surcomplète Edge detections;Détections d’arêtes Non-linearities ;Non-linéarités Sparsification;éparsification Typically Rectified Linear Unit (ReLU): ReLU(x)=max(x,0);Rectified Linear Unit (ReLU) : ReLU(x)=max(x,0). LeNet5 and digit recognition;LeNet5 et reconnaissance des chiffres Implementation of LeNet5 in PyTorch;Implémentation de LeNet5 dans PyTorch LeNet5 consists of the following layers (1 being the top-most layer):;LeNet5 se compose des couches suivantes (1 étant la couche la plus élevée) : 1. Log-softmax;1. Log-softmax 2. Fully connected layer of dimensions 500×10;2. Couche entièrement connectée de dimensions 500×10 3. ReLu;3. ReLu 4. Fully connected layer of dimensions (4×4×50)×500;4. Couche entièrement connectée de dimensions (4×4×50)×500 5. Max Pooling of dimensions 2×2, stride of 2.;5. Max-pooling de dimensions 2×2, pas de 2. 6. ReLu;6. ReLu 7. Convolution with 20 output channels, 5×5 kernel, stride of 1.;7. Convolution avec 20 canaux de sortie, noyau 5×5, pas de 1. 8. Max Pooling of dimensions 2×2, stride of 2.;8. Max-pooling de dimensions 2×2, pas de 2. 9. ReLu;9. ReLu 10. Convolution with 20 output channels, 5×5 kernel, stride of 1.;10. Convolution avec 20 canaux de sortie, noyau 5×5, pas de 1. The input is a 32×32 grey scale image (1 input channel).;L’entrée est une image en échelle de gris de 32×32 (1 canal d’entrée). LeNet5 can be implemented in PyTorch with the following code:;LeNet5 peut être implémenté dans PyTorch avec le code suivant : Although fc1 and fc2 are fully connected layers, they can be thought of as convolutional layers whose kernels cover the entire input. Fully connected layers are used for efficiency purposes.;Bien que fc1 et fc2 soient des couches entièrement connectées, elles peuvent être considérées comme des couches convolutionnelles dont les noyaux couvrent l’ensemble de l’entrée. Les couches entièrement connectées sont utilisées à des fins d’efficacité. The same code can be expressed using nn.Sequential, but it is outdated.;Le même code peut être exprimé en utilisant n.séquentiel mais il est dépassé. Advantages of CNN;Avantages des ConvNets In a fully convolutional network, there is no need to specify the size of the input. However, changing the size of the input changes the size of the output.;Dans un réseau entièrement convolutif, il n’est pas nécessaire de préciser la taille de l’entrée. Cependant, la modification de la taille de l’entrée modifie la taille de la sortie. Consider a cursive hand-writing recognition system. We do not have to break the input image into segments. We can apply the CNN over the entire image: the kernels will cover all locations in the entire image and record the same output regardless of where the pattern is located. Applying the CNN over an entire image is much cheaper than applying it at multiple locations separately. No prior segmentation is required, which is a relief because the task of segmenting an image is similar to recognizing an image.;Prenons l’exemple d’un système de reconnaissance de l’écriture cursive. Il n’est pas nécessaire de diviser l’image d’entrée en segments. Nous pouvons appliquer le ConvNet sur toute l’image : les noyaux couvriront tous les emplacements de l’image entière et enregistreront la même sortie, quel que soit l’emplacement du motif. Appliquer le ConvNet sur une image entière est beaucoup moins coûteux que de l’appliquer à plusieurs endroits séparément. Aucune segmentation préalable n’est nécessaire, ce qui est un soulagement car la tâche de segmenter une image est similaire à la reconnaissance d’une image. Example: MNIST;Exemple : MNIST LeNet5 is trained on MNIST images of size 32×32 to classify individual digits in the center of the image. Data augmentation was applied by shifting the digit around, changing the size of the digit, inserting digits to the side. It was also trained with an 11-th category which represented none of the above. Images labelled by this category were generated either by producing blank images, or placing digits at the side but not the center.;LeNet5 est entraîné sur les images du jeu de données MNIST de taille 32×32 pour classer les chiffres individuels au center de l’image. L’augmentation des données a été appliquée en déplaçant le chiffre autour, en changeant la taille du chiffre, en insérant des chiffres sur le côté. Il a également été entraîné avec une 11ème catégorie qui ne représentait rien de ce qui précède. Les images étiquetées par cette catégorie ont été générées soit en produisant des images vierges, soit en plaçant des chiffres sur le côté mais pas au center. The above image demonstrates that a LeNet5 network trained on 32×32 can be applied on a 32×64 input image to recognize the digit at multiple locations.;L’image ci-dessus montre qu’un réseau LeNet5 entraîné sur 32×32 peut être appliqué sur une image d’entrée 32×64 pour reconnaître le chiffre à plusieurs endroits. Feature binding problem;Problème de liaison des caractéristiques What is the feature binding problem?;Quel est le problème de la liaison des caractéristiques ? Visual neural scientists and computer vision people have the problem of defining the object as an object. An object is a collection of features, but how to bind all of the features to form this object?;Les spécialistes des neurones visuels et de la vision par ordinateur ont le problème de définir l’objet comme un objet. Un objet est une collection de caractéristiques, mais comment lier toutes les caractéristiques pour former cet objet ? How to solve it?;Comment le résoudre ? We can solve this feature binding problem by using a very simple CNN: only two layers of convolutions with poolings plus another two fully connected layers without any specific mechanism for it, given that we have enough non-linearities and data to train our CNN.;Nous pouvons résoudre ce problème de liaison de caractéristiques en utilisant un ConvNet très simple : seulement deux couches de convolutions avec des poolings plus deux autres couches entièrement connectées sans mécanisme spécifique pour cela, étant donné que nous avons suffisamment de non-linéarités et de données pour entraîner notre ConvNet. The above animation showcases the ability of CNN to recognize different digits by moving a single stroke around, demonstrating its ability to address feature binding problems, i.e. recognizing features in a hierarchical, compositional way.;L’animation ci-dessus montre la capacité du ConvNet à reconnaître différents chiffres en déplaçant un seul trait, ce qui démontre sa capacité à résoudre les problèmes de liaison des caractéristiques, c’est-à-dire à reconnaître les caractéristiques de manière hiérarchique et compositionnelle. Example: dynamic input length;Exemple : longueur d’entrée dynamique We can build a CNN with 2 convolution layers with stride 1 and 2 pooling layers with stride 2 such that the overall stride is 4. Thus, if we want to get a new output, we need to shift our input window by 4. To be more explicit, we can see the figure below (green units). First, we have an input of size 10, and we perform convolution of size 3 to get 8 units. After that, we perform pooling of size 2 to get 4 units. Similarly, we repeat the convolution and pooling again and eventually we get 1 output.;Nous pouvons construire un ConvNet avec 2 couches de convolution avec un pas de 1 et deux couches de pooling avec un pas de 2 de telle sorte que le pas global soit de 4. Ainsi, si nous voulons obtenir une nouvelle sortie, nous devons décaler notre fenêtre d’entrée de 4. Pour être plus explicite, nous pouvons voir la figure ci-dessous (unités vertes). Tout d’abord, nous avons une entrée de taille 10, et nous effectuons une convolution de taille 3 pour obtenir 8 unités. Ensuite, nous effectuons un pooling de taille 2 pour obtenir 4 unités. De même, nous répétons la convolution et le pooling et nous obtenons finalement une sortie de taille 1. Let’s assume we add 4 units at the input layer (pink units above), so that we can get 4 more units after the first convolution layer, 2 more units after the first pooling layer, 2 more units after the second convolution layer, and 1 more output. Therefore, window size to generate a new output is 4 (2 stride ×2). Moreover, this is a demonstration of the fact that if we increase the size of the input, we will increase the size of every layer, proving CNNs’ capability in handling dynamic length inputs.;Supposons que nous ajoutions 4 unités à la couche d’entrée (unités roses au-dessus), de sorte que nous puissions obtenir 4 unités supplémentaires après la première couche de convolution, 2 unités supplémentaires après la première couche de pooling, 2 unités supplémentaires après la deuxième couche de convolution et 1 unité supplémentaire en sortie. Par conséquent, la taille de la fenêtre pour générer une nouvelle sortie est de 4 (deux fois 2 pas) . De plus, cela démontre que si nous augmentons la taille de l’entrée, nous augmenterons la taille de chaque couche, ce qui prouve la capacité des ConvNets à gérer les entrées de longueur dynamique. What are CNN good for;Pour quelles taches les ConvNets sont performants ? CNNs are good for natural signals that come in the form of multidimensional arrays and have three major properties:;Les ConvNets sont performants pour les signaux naturels qui se présentent sous la forme de réseaux multidimensionnels et ont trois propriétés principales : 1. Locality: The first one is that there is a strong local correlation between values. If we take two nearby pixels of a natural image, those pixels are very likely to have the same colour. As two pixels become further apart, the similarity between them will decrease. The local correlations can help us detect local features, which is what the CNNs are doing. If we feed the CNN with permuted pixels, it will not perform well at recognizing the input images, while FC will not be affected. The local correlation justifies local connections.;1. La localisation : la première est qu’il existe une forte corrélation locale entre les valeurs. Si nous prenons deux pixels proches d’une image naturelle, il est très probable que ces pixels aient la même couleur. Plus deux pixels sont éloignés l’un de l’autre, plus la similitude entre eux diminue. Les corrélations locales peuvent nous aider à détecter des caractéristiques locales, ce que font les ConvNets. Si nous alimentons le ConvNet avec des pixels permutés, il ne sera pas performant dans la reconnaissance des images d’entrée, tandis que le FC ne sera pas affecté. La corrélation locale justifie les connexions locales. 2. Stationarity: Second character is that the features are essential and can appear anywhere on the image, justifying the shared weights and pooling. Moreover, statistical signals are uniformly distributed, which means we need to repeat the feature detection for every location on the input image.;2. La stationnarité : le deuxième caractère est que les caractéristiques sont essentielles et peuvent apparaître n’importe où sur l’image, justifiant les partages des poids et le pooling. De plus, les signaux statistiques sont uniformément distribués, ce qui signifie que nous devons répéter la détection des caractéristiques pour chaque emplacement sur l’image d’entrée. 3. Compositionality: Third character is that the natural images are compositional, meaning the features compose an image in a hierarhical manner. This justifies the use of multiple layers of neurons, which also corresponds closely with Hubel and Weisel’s research on simple and complex cells.;3. La compostionnalité : le troisième caractère est que les images naturelles sont compositionnelles, ce qui signifie que les caractéristiques composent une image de manière hiératique. Cela justifie l’utilisation de plusieurs couches de neurones, ce qui correspond aussi étroitement aux recherches de Hubel et Weisel sur les cellules simples et complexes. Furthermore, people make good use of CNNs on videos, images, texts, and speech recognition.;En outre, les ConvNets sont utilisés sur les vidéos, les images, les textes et la reconnaissance vocale. Properties of natural signals;Propriétés des signaux naturels All signals can be thought of as vectors. As an example, an audio signal is a 1D signal x=[x1​,x2​,⋯,xT​] where each value xt represents the amplitude of the waveform at time t. To make sense of what someone is speaking, your cochlea first converts the air pressure vibrations to signals and then your brain uses a language model to convert this signal to a language i.e. it needs to pick the most probable utterance given the signal. For music, the signal is stereophonic which has 2 or more channels to give you an illusion that the sound is coming from multiple directions. Even though it has 2 channels, it’s still a 1D signal because time is the only variable along which the signal is changing.;Tous les signaux peuvent être considérés comme des vecteurs. Par exemple, un signal audio est un signal 1D x=[x1​,x2​,⋯,xT​] où chaque valeur xt​ représente l’amplitude de la forme d’onde au moment tt. Pour comprendre ce que dit une personne, votre cochlée convertit d’abord les vibrations de la pression atmosphérique en signaux, puis votre cerveau utilise un modèle linguistique pour convertir ce signal en une langue, c’est-à-dire qu’il doit choisir l’énoncé le plus probable compte tenu du signal. Pour la musique, le signal est stéréophonique et possède 2 canaux ou plus pour vous donner l’illusion que le son provient de plusieurs directions. Même s’il a 2 canaux, c’est toujours un signal 1D car le temps est la seule variable le long de laquelle le signal change. An image is a 2D signal because the information is spatially depicted. Note that each point can be a vector in itself. This means that if we have d channels in an image, each spatial point in the image is a vector of dimension d. A color image has RGB planes, which means d=3. For any point xi,j this corresponds to the intensity of red, green and blue colors respectively.;Une image est un signal 2D parce que l’information est représentée dans l’espace. Notez que chaque point peut être un vecteur en soi. Cela signifie que si nous avons des canaux d dans une image, chaque point spatial dans l’image est un vecteur de dimension d. Une image couleur a des plans RVB, ce qui signifie d=3. Pour tout point xi,j, cela correspond à l’intensité des couleurs rouge, verte et bleue respectivement. We can even represent language with the above logic. Each word corresponds to a one-hot vector with one at the position it occurs in our vocabulary and zeroes everywhere else. This means that each word is a vector of the size of the vocabulary.;Nous pouvons même représenter le langage avec la logique ci-dessus. Chaque mot correspond à un vecteur one-hot avec un à la position où il se trouve dans notre vocabulaire et des zéros partout ailleurs. Cela signifie que chaque mot est un vecteur de la taille du vocabulaire. Natural data signals follow these properties:;Les signaux de données naturels suivent ces propriétés : 1. Stationarity: Certain motifs repeat throughout a signal. In audio signals, we observe the same type of patterns over and over again across the temporal domain. In images, this means that we can expect similar visual patterns repeat across the dimensionality.;1. Stationnarité : certains motifs se répètent tout au long d’un signal. Dans les signaux audio, nous observons le même type de motifs encore et encore dans le domaine temporel. Dans les images, cela signifie que nous pouvons nous attendre à ce que des motifs visuels similaires se répètent dans toute la dimensionnalité. 2. Locality: Nearby points are more correlated than points far away. For 1D signal, this means that if we observe a peak at some point ti​, we expect the points in a small window around ti to have similar values as titi​ but for a point tj​ far away from ti​, xti​​ has very less bearing on xtj​​. More formally, the convolution between a signal and its flipped counterpart has a peak when the signal is perfectly overlapping with it’s flipped version. A convolution between two 1D signals (cross-correlation) is nothing but their dot product which is a measure of how similar or close the two vectors are. Thus, information is contained in specific portions and parts of the signal. For images, this means that the correlation between two points in an image decreases as we move the points away. If x0,0​ pixel is blue, the probability that the next pixel (x1,0) is also blue is pretty high but as you move to the opposite end of the image (x−1,−1​), the value of this pixel is independent of the pixel value at x0,0​.;2. Localité : les points proches sont plus corrélés que les points éloignés. Pour un signal 1D, cela signifie que si nous observons un pic à un certain point ti​, nous nous attendons à ce que les points dans une petite fenêtre autour de ti​ aient des valeurs similaires à ti​ mais pour un point tj éloigné de ti​, xti​​ a très peu d’influence sur xtj​​. Plus formellement, la convolution entre un signal et son homologue inversé a un pic lorsque le signal chevauche parfaitement sa version inversée. Une convolution entre deux signaux 1D (corrélation croisée) n’est rien d’autre que leur produit scalaire, qui est une mesure de la similarité ou de la proximité des deux vecteurs. Ainsi, l’information est contenue dans des portions et des parties spécifiques du signal. Pour les images, cela signifie que la corrélation entre deux points dans une image diminue à mesure que l’on s’éloigne des points. Si le pixel x0,0​ est bleu, la probabilité que le pixel suivant (x1,0,x0,1​) soit également bleu est assez élevée, mais lorsque l’on se déplace vers l’extrémité opposée de l’image (x−1,−1​), la valeur de ce pixel est indépendante de la valeur du pixel à x0,0​. 3. Compositionality: Everything in nature is composed of parts that are composed of sub-parts and so on. As an example, characters form strings that form words, which further form sentences. Sentences can be combined to form documents. Compositionality allows the world to be explainable.;3. Compositionnalité : tout dans la nature est composé de parties qui sont composées de sous-parties et ainsi de suite. Par exemple, les caractères forment des chaînes de caractères qui forment des mots, qui forment ensuite des phrases. Les phrases peuvent être combinées pour former des documents. La compositionnalité permet d’expliquer le monde. If our data exhibits stationarity, locality, and compositionality, we can exploit them with networks that use sparsity, weight sharing and stacking of layers.;Si nos données sont stationnaires, locales et composées, nous pouvons les exploiter grâce à des réseaux qui utilisent l’ éparsité, le partage des poids et l’empilement des couches. Exploiting properties of natural signals to build invariance and equivariance;Exploitation des propriétés des signaux naturels pour construire l’invariance et l’équivariance Locality ⇒ sparsity;Localité ⇒ éparsité Fig.1 shows a 5-layer fully connected network. Each arrow represents a weight to be multiplied by the inputs. As we can see, this network is very computationally expensive.;La figure 1 montre un réseau à 5 couches entièrement connecté. Chaque flèche représente un poids à multiplier par les entrées. Comme on peut le voir, ce réseau est très coûteux en termes de calcul. If our data exhibits locality, each neuron needs to be connected to only a few local neurons of the previous layer. Thus, some connections can be dropped as shown in Fig.2. Fig.2(a) represents an FC network. Taking advantage of the locality property of our data, we drop connections between far away neurons in Fig.2(b). Although the hidden layer neurons (green) in Fig.2(b) don’t span the whole input, the overall architecture will be able to account for all input neurons. The receptive field (RF) is the number of neurons of previous layers, that each neuron of a particular layer can see or has taken into account. Therefore, the RF of the output layer w.r.t the hidden layer is 3, RF of the hidden layer w.r.t the input layer is 3, but the RF of the output layer w.r.t the input layer is 5.;Si nos données montrent une localité, chaque neurone doit être connecté à seulement quelques neurones locaux de la couche précédente. Ainsi, certaines connexions peuvent être supprimées comme le montre la figure 2. La figure 2(a) représente un réseau entièrement connecté. En profitant de la propriété de localisation de nos données, nous supprimons les connexions entre les neurones éloignés dans la figure 2(b). Bien que les neurones de la couche cachée (vert) de la figure 2(b) ne couvrent pas la totalité de l’entrée, l’architecture globale pourra prendre en compte tous les neurones d’entrée. Le champ réceptif (abrégé RF pour receptive field en anglais) est le nombre de neurones des couches précédentes, que chaque neurone d’une couche particulière peut voir ou a pris en compte. Par conséquent, le RF de la couche de sortie est de 3 pour la couche cachée, le RF de la couche cachée est de 3 pour la couche d’entrée, mais le RF de la couche de sortie est de 5 pour la couche d’entrée. Stationarity ⇒ parameters sharing;Stationnarité ⇒ partage des paramètres If our data exhibits stationarity, we could use a small set of parameters multiple times across the network architecture. For example in our sparse network, Fig.3(a), we can use a set of 3 shared parameters (yellow, orange and red). The number of parameters will then drop from 9 to 3! The new architecture might even work better because we have more data for training those specific weights. The weights after applying sparsity and parameter sharing is called a convolution kernel.;Si nos données sont stationnaires, nous pourrions utiliser un petit ensemble de paramètres plusieurs fois dans l’architecture du réseau. Par exemple, dans notre réseau épars, figure 3(a), nous pouvons utiliser un ensemble de 3 paramètres partagés (jaune, orange et rouge). Le nombre de paramètres passera alors de 9 à 3 ! La nouvelle architecture pourrait même fonctionner mieux car nous disposons de plus de données pour l’entraînement de ces poids spécifiques. Les poids après avoir appliqué l’éparsité et le partage des paramètres sont appelés noyau de convolution. Following are some advantages of using sparsity and parameter sharing:;Voici quelques avantages de l’utilisation du partage des paramètres et de l’éparsité : Parameter sharing ;Partage des paramètres : faster convergence;une convergence plus rapide better generalisation;une meilleure généralisation not constained to input size;ne concerne pas la taille de l’entrée kernel indepence ⇒ high parallelisation;Indépendance du noyau ⇒ forte parallélisation Connection sparsity ;L’éparsité de connexion : reduced amount of computation;montant de calcul nécessaire réduit Fig.4 shows an example of kernels on 1D data, where the kernel size is: 2(number of kernels) * 7(thickness of the previous layer) * 3(number of unique connections/weights).;La figure 4 montre un exemple de noyaux sur des données 1D, où la taille du noyau est : 2 (nombre de noyaux) × 7 (épaisseur de la couche précédente) × 3 (nombre de connexions/poids uniques). The choice of kernel size is empirical. 3 * 3 convolution seems to be the minimal size for spatial data. Convolution of size 1 can be used to obtain a final layer that can be applied to a larger input image. Kernel size of even number might lower the quality of the data, thus we always have kernel size of odd numbers, usually 3 or 5.;Le choix de la taille du noyau est empirique. Une convolution 3 × 3 semble être la taille minimale pour les données spatiales. La convolution de taille 1 peut être utilisée pour obtenir une couche finale qui peut être appliquée à une image d’entrée plus grande. Une taille de noyau de nombre pair peut réduire la qualité des données, c’est pourquoi nous avons toujours une taille de noyau de nombre impair, généralement 3 ou 5. Padding;Rembourrage (padding) Padding generally hurts the final results, but it is convenient programmatically. We usually use zero-padding: size = (kernel size - 1)/2.;Le rembourrage nuit généralement aux résultats finaux, mais il est pratique du point de vue programmatique. Nous utilisons généralement le zero-padding : size = (taille du noyau - 1)/2. Standard spatial CNN;ConvNet spatial standard A standard spatial CNN has the following properties:;Un ConvNet spatial standard a les propriétés suivantes : Multiple layers ;Couches multiples Convolution;Convolution Non-linearity (ReLU and Leaky);Non-linéarité (ReLU et Leaky) Pooling;Pooling Batch normalisation;Normalisation par batch Residual bypass connection;Connexion résiduelle Batch normalization and residual bypass connections are very helpful to get the network to train well. Parts of a signal can get lost if too many layers have been stacked so, additional connections via residual bypass, guarantee a path from bottom to top and also for a path for gradients coming from top to bottom.;La normalisation par batch et les connexions résiduelles sont très utiles pour que le réseau s’entraîne bien. Des parties d’un signal peuvent être perdues si trop de couches ont été empilées, de sorte que des connexions résiduelles garantissent un chemin de bas en haut et aussi un chemin pour les gradients venant de haut en bas. In Fig.5, while the input image contains mostly spatial information across two dimensions (apart from characteristic information, which is the color of each pixel), the output layer is thick. Midway, there is a tradeoff between the spatial information and the characteristic information and the representation becomes denser. Therefore, as we move up the hierarchy, we get denser representation as we lose the spatial information.;Dans la figure 5, alors que l’image d’entrée contient principalement des informations spatiales en deux dimensions (à part les informations caractéristiques, qui sont la couleur de chaque pixel), la couche de sortie est épaisse. À mi-chemin, il y a un compromis entre les informations spatiales et les informations caractéristiques, et la représentation devient plus dense. Par conséquent, à mesure que nous montons dans la hiérarchie, nous obtenons une représentation plus dense car nous perdons les informations spatiales. Pooling;Pooling "A specific operator, Lp-norm, is applied to different regions (refer to Fig.6). Such an operator gives only one value per region (1 value for 4 pixels in our example). We then iterate over the whole data region-by-region, taking steps based on the stride. If we start with m×n data with c channels, we will end up with m/2×n/2 d data still with c channels (refer to Fig.7). Pooling is not parametrized; nevertheless, we can choose different polling types like max pooling, average pooling and so on. The main purpose of pooling reduces the amount of data so that we can compute in a reasonable amount of time.";Un opérateur spécifique, Lp​-norm, est appliqué aux différentes régions (voir figure 6). Un tel opérateur ne donne qu’une seule valeur par région (1 valeur pour 4 pixels dans notre exemple). Nous itérons ensuite sur l’ensemble des données région par région, en prenant des mesures basées sur le pas. Si nous commençons avec m×n données avec c canaux, nous finirons avec m/2×n/2 données toujours avec des canaux c (voir figure 7). Le pooling n’est pas paramétré néanmoins, nous pouvons choisir différents types comme le max-pooling, l’average-pooling, etc. Le but principal du pooling est de réduire la quantité de données afin que nous puissions faire les calculs dans un délai raisonnable. CNN - Jupyter Notebook;ConvNet - Notebook Jupyter In this notebook, we train a multilayer perceptron (FC network) and a convolution neural network (CNN) for the classification task on the MNIST dataset. Note that both networks have an equal number of parameters. (Fig.8);Dans ce notebook Jupyter, nous entraînons un perceptron multicouche (réseau entièrement connecté) et un ConvNet pour la tâche de classification sur le jeu de données MNIST. Notez que les deux réseaux ont un nombre égal de paramètres (figure 8). Before training, we normalize our data so that the initialization of the network will match our data distribution (very important!). Also, make sure that the following five operations/steps are present in your training:;Avant l’entraînement, nous normalisons nos données afin que l’initialisation du réseau corresponde à notre distribution de données (très important !). De plus, on s’assure que les cinq opérations / étapes suivantes sont présentes dans notre entraînement : 1. Feeding data to the model;1. Alimentation du modèle en données 2. Computing the loss;2. Calcul de la perte 3. Cleaning the cache of accumulated gradients with zero_grad();3. Nettoyage le cache des gradients accumulés avec zero_grad() 4. Computing the gradients;4. Calcul des gradients 5. Performing a step in the optimizer method;5. Exécution d’une étape dans l’optimiseur First, we train both the networks on the normalized MNIST data. The accuracy of the FC network turned out to be 87% while the accuracy of the CNN turned out to be 95%. Given the same number of parameters, the CNN managed to train many more filters. In the FC network, filters that try to get some dependencies between things that are further away with things that are close by, are trained. They are completely wasted. Instead, in the convolutional network, all these parameters concentrate on the relationship between neighbor pixels.;Tout d’abord, nous entraînons les deux réseaux aux données normalisées du MNIST. La précision du réseau entièrement connecté s’est avérée être de 87 %, tandis que celle du réseau ConvNet s’est révélée être de 95 %. Avec le même nombre de paramètres, le ConvNet a réussi à entraîner beaucoup plus de filtres. Dans le réseau entièrement connecté, les filtres qui essaient d’obtenir des dépendances entre des choses qui sont plus éloignées et des choses qui sont proches, sont entraînés et sont complètement gaspillés. Au lieu de cela, dans le ConvNet, tous ces paramètres se concentrent sur la relation entre les pixels voisins. Next, we perform a random permutation of all the pixels in all the images of our MNIST dataset. This transforms our Fig.8 to Fig.9. We then train both the networks on this modified dataset.;Ensuite, nous effectuons une permutation aléatoire de tous les pixels dans toutes les images de notre jeu de données MNIST. Cela transforme notre figure 8 en figure 9. Nous entraînons ensuite les deux réseaux sur ce jeu de données modifié. The performance of the FC network almost stayed unchanged (85%), but the accuracy of CNN dropped to 83%. This is because, after a random permutation, the images no longer hold the three properties of locality, stationarity, and compositionality, that are exploitable by a CNN.;Les performances du réseau entièrement connecté sont restées pratiquement inchangées à 85 %, mais la précision du ConvNet est tombée à 83 %. En effet, après une permutation aléatoire, les images ne possèdent plus les trois propriétés de localité, de stationnarité et de composition, exploitables par un ConvNet. Week 4;Semaine 4 We start with a brief review of linear algebra and then extend the topic to convolutions using audio data as an example. Key concepts like locality, stationarity and Toeplitz matrix are reiterated. Then we give a live demo of convolution performance in pitch analysis. Finally, there is a short digression about the dimensionality of different data.;Nous commençons par un bref examen d’algèbre linéaire, puis nous étendons le sujet aux convolutions en utilisant comme exemple des données audio. Des concepts clés comme la localité, la stationnarité et les matrices de Toeplitz sont rappelés. Ensuite, nous faisons une démonstration des performances des convolutions dans l’analyse de la hauteur de son. Nous terminons par une courte digression sur la dimensionnalité des différentes données. Linear Algebra and Convolutions;Algebre linéaire et convolutions Linear Algebra review;Rappel d’algèbre linéaire This part is a recap of basic linear algebra in the context of neural networks. We start with a simple hidden layer h:;Cette partie est une récapitulation de l’algèbre linéaire de base dans le contexte des réseaux de neurones. Nous commençons par une simple couche cachée h : The output is a non-linear function f applied to a vector z.;La sortie est une fonction non linéaire f appliquée à un vecteur z. For simplicity biases are ignored. The linear equation can be expanded as:;Par souci de simplicité, les biais sont ignorés. L’équation linéaire peut être développée comme suit : To understand the meaning of this transformation, let us analyse one component of z such as a(1)x;Pour comprendre la signification de cette transformation, analysons une composante de z telle que a(1)x a and x can be drawn as vectors in the 2D coordinate axis. Now, if the angle between a and ı^ is α and the angle between x and ı^ is ξ, then with trigonometric formulae a⊤x can be expanded as:;a et x peuvent être dessinés comme des vecteurs dans l’axe des coordonnées 2D. Maintenant, si l’angle entre a et ı^ est α et l’angle entre x et ı^ est ξ, alors avec les formules trigonométriques a⊤x (la traduction impose d’utiliser la notation anglo-saxonne de la transposée) peut être étendu comme : The output measures the alignment of the input to a specific row of the matrix A. This can be understood by observing the angle between the two vectors, ξ−α. Whenξ=α, the two vectors are perfectly aligned and maximum is attained. If ξ−α=π, then a⊤x attains its minimum and the two vectors are pointing at opposite directions. In essence, the linear transformation allows one to see the projection of an input to various orientations as defined by A. This intuition is expandable to higher dimensions as well.;La sortie mesure l’alignement de l’entrée sur une ligne spécifique de la matrice A. Cela peut être compris en observant l’angle entre les deux vecteurs, ξ−α. Lorsque ξ=α, les deux vecteurs sont parfaitement alignés et le maximum est atteint. Si ξ−α=π, alors a⊤x atteint son minimum et les deux vecteurs sont orientés dans des directions opposées. En substance, la transformation linéaire permet de voir la projection d’une entrée vers différentes orientations définies par A. Cette intuition est également extensible à des dimensions plus élevées. Another way to understand the linear transformation is by understanding that z can also be expanded as:;Une autre façon de comprendre la transformation linéaire est de comprendre que z peut aussi être étendu comme : The output is the weighted sum of the columns of matrix A. Therefore, the signal is nothing but a composition of the input.;La sortie est la somme pondérée des colonnes de la matrice A. Par conséquent, le signal n’est rien d’autre qu’une composition de l’entrée. Extend Linear Algebra to convolutions;Extension de l’algèbre linéaire aux convolutions Now we extend linear algebra to convolutions, by using the example of audio data analysis. We start with representing a fully connected layer as a form of matrix multiplication: -;Nous étendons maintenant l’algèbre linéaire aux convolutions en utilisant l’exemple de l’analyse des données audio. Nous commençons par représenter une couche entièrement connectée comme une forme de multiplication matricielle : In this example, the weight matrix has a size of 4×3, the input vector has a size of 3×1 and the output vector has a of size 4×1.;Dans cet exemple, la matrice de poids a une taille de 4×3, le vecteur d’entrée a une taille de 3×1 et le vecteur de sortie a une taille de 4×1. However, for audio data, the data is much longer (not 3-sample long). The number of samples in the audio data is equal to the duration of the audio (e.g. 3 seconds) times the sampling rate (e.g. 22.05 kHz). As shown below, the input vector x will be quite long. Correspondingly, the weight matrix will become “fat”.;Cependant, pour les données audio, les données sont beaucoup plus longues (pas de 3 échantillons). Le nombre d’échantillons dans les données audio est égal à la durée de l’audio (par exemple 3 secondes) multipliée par le taux d’échantillonnage (par exemple 22,05 kHz). Comme indiqué ci-dessous, le vecteur d’entrée x est assez long. En conséquence, la matrice de poids devient « grosse ». The above formulation will be difficult to train. Fortunately there are ways to simplify the same.;La formulation ci-dessus sera difficile à entraîner. Heureusement, il existe des moyens de la simplifier. Property: locality;Propriété : localité Due to locality (i.e. we do not care for data points that are far away) of data, w1k​ from the weight matrix above, can be filled with 0 when k is relatively large. Therefore, the first row of the matrix becomes a kernel of size 3.;En raison de la localité (c’est-à-dire que nous ne nous soucions pas des points de données qui sont éloignés) des données, w1k​ de la matrice de pondération ci-dessus, peut être rempli par des 0 lorsque k est relativement important. Par conséquent, la première ligne de la matrice devient un noyau de taille 3. Property: stationarity;Propriété : stationnarité Natural data signals have the property of stationarity (i.e. certain patterns/motifs will repeat). This helps us reuse kernel a(1) that we defined previously. We use this kernel by placing it one step further each time (i.e. stride is 1), resulting in the following:;Les signaux de données naturelles ont la propriété d’être stationnaires (c’est-à-dire que certains modèles/motifs se répètent). Cela nous permet de réutiliser le noyau a(1) que nous avons défini précédemment. Nous utilisons ce noyau en le plaçant chaque fois un pas plus loin (c’est-à-dire que le pas est de 1), ce qui donne le résultat suivant : Both the upper right part and lower left part of the matrix are filled with 0s thanks to locality, leading to sparsity. The reuse of a certain kernel again and again is called weight sharing.;La partie supérieure droite et la partie inférieure gauche de la matrice sont toutes deux remplies de 0 grâce à la localité, ce qui entraîne une certaine éparsité. La réutilisation d’un certain noyau encore et encore est appelée partage du poids. Multiple layers of Toeplitz matrix;Plusieurs couches de la matrice de Toeplitz After these changes, the number of parameters we are left with is 3 (i.e. a1,a2,a3​). In comparison to the previous weight matrix, which had 12 parameters (i.e. w11,w12,⋯ ,w43), the current number of parameters is too restrictive and we would like to expand the same.;Après ces changements, le nombre de paramètres qui nous reste est de 3 (c’est-à-dire a1​,a2​,a3​). Par rapport à la matrice de pondération précédente, qui comportait 12 paramètres (c’est-à-dire w11,w12,⋯ ,w4​), le nombre actuel de paramètres est trop restrictif et nous souhaitons le développer. The previous matrix can be considered to be a layer (i.e. a convolutional layer) with the kernel a(1). Then we can construct multiple layers with different kernels a(2), a(3), etc, thereby increasing the parameters.;La matrice précédente peut être considérée comme une couche (c’est-à-dire une couche convolutive) avec le noyau a(1). Nous pouvons alors construire plusieurs couches avec différents noyaux a(2), a(3), etc. Each layer has a matrix containing just one kernel that is replicated multiple times. This type of matrix is called a Toeplitz matrix. In every Toeplitz matrix, each descending diagonal from left to right is constant. The Toeplitz matrices that we use here are sparse matrices as well.;Chaque couche a une matrice contenant un seul noyau qui est répliqué plusieurs fois. Ce type de matrice est appelé matrice de Toeplitz. Dans chaque matrice de Toeplitz, chaque diagonale descendante de gauche à droite est constante. Les matrices de Toeplitz que nous utilisons ici sont également des matrices sparses. The same matrix multiplication method can be applied on following convolutional layers with other kernels (e.g. a(2) and a(3)) to get similar results.;La même méthode de multiplication matricielle peut être appliquée sur les couches convolutionnelles suivantes avec d’autres noyaux (par exemple a(2) et a(3)) pour obtenir des résultats similaires. The library librosa enables us to load the audio clip x and its sampling rate. In this case, there are 70641 samples, sampling rate is 22.05kHz and total length of the clip is 3.2s. The imported audio signal is wavy (refer to Fig 1) and we can guess what it sounds like from the amplitude of y axis. The audio signal x(t) is actually the sound played when turning off the Windows system (refer to Fig 2).;La bibliothèque librosa nous permet de charger le clip audio x et son taux d’échantillonnage. Dans ce cas, il y a 70641 échantillons, le taux d’échantillonnage est de 22,05kHz et la durée totale du clip est de 3.2s. Le signal audio importé est ondulé (voir la figure 1) et nous pouvons deviner à quoi il ressemble d’après l’amplitude de l’axe y. Le signal audio x(t) est en fait le son joué lorsque le système Windows s’éteint (voir la figure 2). We need to seperate the notes from the waveform. To achieve this, if we use Fourier transform (FT) all the notes would come out together and it will be hard to figure out the exact time and location of each pitch. Therefore, a localized FT is needed (also known as spectrogram). As is observed in the spectrogram (refer to Fig 3), different pitches peak at different frequencies (e.g. first pitch peaks at 1600). Concatenating the four pitches at their frequencies gives us a pitched version of the original signal.;Nous devons séparer les notes de la forme de l’onde. Pour y parvenir, si nous utilisons la transformée de Fourier (FT), toutes les notes sortiront ensemble et il sera difficile de déterminer le moment et l’emplacement exacts de chaque hauteur. C’est pourquoi il est nécessaire d’utiliser une transformée de Fourier localisée (également appelée spectrogramme). Comme on peut l’observer dans le spectrogramme (voir la figure 3), les différentes hauteurs de son culminent à des fréquences différentes (par exemple, la première hauteur de son culmine à 1600). En concaténant les quatre hauteurs à leurs fréquences, on obtient une version à hauteur du signal original. Convolution of the input signal with all the pitches (all the keys of the piano for example) can help extract all notes in the input piece (i.e. the hits when the audio matches the specific kernels). The spectrograms of the original signal and the signal of the concatenated pitches is shown in Fig 4 while the frequencies of the original signal and the four pitches is shown in Fig 5. The plot of the convolutions of the four kernels with the input signal (original signal) is shown in Fig 6. Fig 6 along with the audio clips of the convolutions prove the effectiveness of the convolutions in extracting the notes.;La convolution du signal d’entrée avec toutes les hauteurs (toutes les touches du piano par exemple) peut aider à extraire toutes les notes du morceau d’entrée (c’est-à-dire les coups lorsque l’audio correspond aux noyaux spécifiques). Les spectrogrammes du signal original et du signal des hauteurs concaténées sont illustrés à la figure 4, tandis que les fréquences du signal original et des quatre hauteurs sont illustrées à la figure 5. Le tracé des convolutions des quatre noyaux avec le signal d’entrée (signal original) est illustré à la figure 6. La figure 6 ainsi que les clips audios des convolutions prouvent l’efficacité des convolutions dans l’extraction des notes. Dimensionality of different datasets;Dimensionnalité des différents jeux de données The last part is a short digression on the different representations of dimensionality and examples for the same. Here we consider input set X is made of functions mapping from domains Ω to channels c.;La dernière partie est une courte digression sur les différentes représentations de la dimensionnalité et des exemples pour celle-ci. Nous considérons ici que l’ensemble d’entrée X est constitué de fonctions de cartographie des domaines Ω aux canaux c. Week 5;Semaine 5 We begin by introducing Gradient Descent. We discuss the intuition and also talk about how step sizes play an important role in reaching the solution. Then we move on to SGD and its performance in comparison to Full Batch GD. Finally we talk about Momentum Updates, specifically the two update rules, the intuition behind momentum and its effect on convergence.;Nous commençons par introduire la méthode de descente de gradient (GD pour Gradient Descent). Nous discutons de l’intuition et expliquons également comment la taille des pas joue un rôle important dans l’obtention de la solution. Nous passons ensuite à la descente de gradient stochastique (SGD) et à ses performances par rapport à la descente de gradient « Full Batch ». Enfin, nous parlons des mises à jour dans le momentum, en particulier des deux règles de mise à jour, de l’intuition derrière le momentum et de son effet sur la convergence. We discuss adaptive methods for SGD such as RMSprop and ADAM. We also talk about normalization layers and their effects on the neural network training process. Finally, we discuss a real-world example of neural nets being used in industry to make MRI scans faster and more efficient.;Nous discutons des méthodes adaptatives pour la SGD telles que RMSprop et ADAM. Nous parlons également des couches de normalisation et de leurs effets sur le processus d’entraînement des réseaux neuronaux. Enfin, nous discutons d’un exemple concret de réseaux de neurones utilisés dans l’industrie pour rendre les IRMs plus rapides et plus efficaces. We briefly review the matrix-multiplications and then discuss the convolutions. Key point is we use kernels by stacking and shifting. We first understand the 1D convolution by hand, and then use PyTorch to learn the dimension of kernels and output width in 1D and 2D convolutions examples. Furthermore, we use PyTorch to learn about how automatic gradient works and custom-grads.;Nous passons brièvement en revue les multiplications matricielles et discutons ensuite des convolutions. Le point essentiel est que nous utilisons les noyaux en les empilant et en les déplaçant. Nous commençons par comprendre la convolution 1D à la main, puis nous utilisons PyTorch pour apprendre la dimension des noyaux et la largeur de sortie dans des exemples de convolutions 1D et 2D. De plus, nous utilisons PyTorch pour apprendre comment fonctionne le gradient automatique et les gradations personnalisées. Optimisation Techniques I;Techniques d’optimisation I Gradient descent;Descente de gradient We start our study of Optimization Methods with the most basic and the worst (reasoning to follow) method of the lot, Gradient Descent;Nous commençons notre étude des méthodes d’optimisation par la méthode la plus élémentaire et la pire du lot (raisonnement à suivre) : la méthode de la descente de gradient. The assumption here is that the function f is continuous and differentiable. Our aim is to find the lowest point (valley) of the optimization function. However, the actual direction to this valley is not known. We can only look locally, and therefore the direction of the negative gradient is the best information that we have. Taking a small step in that direction can only take us closer to the minimum. Once we have taken the small step, we again compute the new gradient and again move a small amount in that direction, till we reach the valley. Therefore, essentially all that the gradient descent is doing is following the direction of steepest descent (negative gradient).;On suppose ici que la fonction f est continue et différenciable. Notre objectif est de trouver le point le plus bas (vallée) de la fonction d’optimisation. Cependant, la direction réelle de cette vallée n’est pas connue. Nous ne pouvons regarder que localement et de ce fait la direction du gradient négatif est la meilleure information dont nous disposons. Faire un petit pas dans cette direction ne peut que nous rapprocher du minimum. Une fois que nous avons fait ce petit pas, nous calculons à nouveau le gradient et nous nous déplaçons un peu dans cette direction. Nous répétons le processus jusqu’à ce que nous atteignions la vallée. Par conséquent, la descente de de gradient ne fait essentiellement que suivre la direction de la descente la plus raide (pente négative). "The γ parameter in the iterative update equation is called the step size. Generally we don’t know the value of the optimal step-size; so we have to try different values. Standard practice is to try a bunch of values on a log-scale and then use the best one. There are a few different scenarios that can occur. The image above depicts these scenarios for a 1D quadratic. If the learning rate is too low, then we would make steady progress towards the minimum. However, this might take more time than what is ideal. It is generally very difficult (or impossible) to get a step-size that would directly take us to the minimum. What we would ideally want is to have a step-size a little larger than the optimal. In practice, this gives the quickest convergence. However, if we use too large a learning rate, then the iterates get further and further away from the minima and we get divergence. In practice, we would want to use a learning rate that is just a little less than diverging.";Le paramètre γ dans l’équation de mise à jour itérative est appelé la taille du pas. En général, nous ne connaissons pas la valeur optimale de la taille de pas. Nous devons donc essayer différentes valeurs. La pratique courante consiste à essayer un ensemble de valeurs sur une échelle logarithmique et à sélectionner la meilleure. Quelques scénarios différents peuvent se produire. L’image ci-desosus représente ces scénarios pour une fonction quadratique 1D. Si le taux d’apprentissage est trop faible, alors nous progresserons régulièrement vers le minimum. Cependant, cela prend plus de temps que ce qui est idéal. Il est généralement très difficile (ou impossible) d’obtenir une échelle qui nous mène directement au minimum. L’idéal serait d’avoir une taille de pas un peu plus grande que l’optimale. En pratique, cela permet d’obtenir la convergence la plus rapide. Cependant, si nous utilisons un taux d’apprentissage trop élevé, les itérations s’éloignent de plus en plus des minima et nous obtenons une divergence. Dans la pratique, nous voudrions utiliser un taux d’apprentissage qui est juste un peu plus petit que celui qui va diverger. Stochastic gradient descent;Descente de gradient stochastique In Stochastic Gradient Descent, we replace the actual gradient vector with a stochastic estimation of the gradient vector. Specifically for a neural network, the stochastic estimation means the gradient of the loss for a single data point (single instance).;Dans le cas de la descente de gradient stochastique (SGD en anglais pour Stochastic Gradient Descent), nous remplaçons le vecteur de gradient réel par une estimation stochastique du vecteur de gradient. Pour un réseau de neurones, l’estimation stochastique signifie le gradient de la perte pour un seul point de données (une seule instance). Let fi​ denote the loss of the network for the ii-th instance.;Soit fi qui désigne la perte du réseau pour la i-ème instance : The function that we eventually want to minimize is f, the total loss over all instances.;La fonction que nous voulons minimiser est f, la perte totale dans tous les cas : In SGD, we update the weights according to the gradient over fi​ (as opposed to the gradient over the total loss f).;Dans la SGD, nous mettons à jour les poids en fonction du gradient sur fi​ (par opposition au gradient sur la perte totale f) avec : If i is chosen randomly, then fifi​ is a noisy but unbiased estimator of f, which is mathematically written as:;Si i est choisi au hasard, alors fifi​ est un estimateur bruyant mais non biaisé de f, qui s’écrit mathématiquement comme : As a result of this, the expected k-th step of SGD is the same as the k-th step of full gradient descent:;Par conséquent, le k-ème pas prévu de la SGD est le même que le k-ème pas de la descente de gradient complète : Thus, any SGD update is the same as full-batch update in expectation. However, SGD is not just faster gradient descent with noise. Along with being faster, SGD can also get us better results than full-batch gradient descent. The noise in SGD can help us avoid the shallow local minima and find a better (deeper) minima. This phenomenon is called annealing.;Ainsi, toute mise à jour de la SGD est la même que la mise à jour attendue pour la GD à batch complet. Cependant, la SGD n’est pas seulement une descente plus rapide avec du bruit. En plus d’être plus rapide, la SGD peut également nous donner de meilleurs résultats que la descente de gradient avec batch complet. Le bruit dans la SGD peut nous aider à éviter les minima locaux peu profonds et à trouver de meilleurs minima (plus profonds). Ce phénomène est appelé annealing. In summary, the advantages of Stochastic Gradient Descent are as follows:;En résumé, les avantages de la descente de gradient stochastique sont les suivants : 1. There is a lot of redundant information across instances. SGD prevents a lot of these redundant computations.;1. Il y a beaucoup d’informations redondantes d’une instance à l’autre. La SGD empêche beaucoup de ces calculs redondants. 2. At early stages, the noise is small as compared to the information in the gradient. Therefore a SGD step is virtually as good as a GD step.;2. Aux premiers stades, le bruit est faible par rapport aux informations dans le gradient. Par conséquent, une étape de SGD est virtuellement aussi bonne qu’une étape de GD. 3. Annealing - The noise in SGD update can prevent convergence to a bad(shallow) local minima.;3. Le bruit dans la mise à jour de la SGD peut empêcher la convergence vers un mauvais minimum local (peu profond). 4. Stochastic Gradient Descent is drastically cheaper to compute (as you don’t go over all data points).;4. La descente stochastique de gradient est considérablement moins coûteuse à calculer (car on ne passe pas en revue tous les points des données). Mini-batching;Les mini-batchs In mini-batching, we consider the loss over multiple randomly selected instances instead of calculating it over just one instance. This reduces the noise in the step update.;Avec les mini-batchs, nous considérons la perte sur plusieurs instances choisies au hasard au lieu de la calculer sur une seule instance. Cela permet de réduire le bruit lors de la mise à jour des étapes : Often we are able to make better use of our hardware by using mini batches instead of a single instance. For example, GPUs are poorly utilized when we use single instance training. Distributed network training techniques split a large mini-batch between the machines of a cluster and then aggregate the resulting gradients. Facebook recently trained a network on ImageNet data within an hour, using distributed training.; It is important to note that Gradient Descent should never be used with full sized batches. In case you want to train on the full batch-size, use an optimization technique called LBFGS. PyTorch and SciPy both provide implementations of this technique.;Souvent, nous pouvons faire un meilleur usage de nos capacités de calcul en utilisant des mini-batchs au lieu d’une seule instance. Par exemple, les GPUs sont mal utilisés lorsque nous effectuons un entraînement avec une seule instance. Les techniques d’entraînement en réseau distribué répartissent les mini-batchs entre les différentes machines et agrègent ensuite les gradients résultants. En utilisant une telle distribution, Facebook a récemment entraîné un réseau sur les données d’ImageNet en moins d’une heure (Goyal et al. (2018)). Il est important de noter que la descente de gradient ne doit jamais être utilisée avec des batchs de taille entière. Si vous souhaitez faire cela utilisez plutôt une technique d’optimisation appelée LBFGS. PyTorch et SciPy fournissent tous deux des implémentations de cette technique. Momentum;Momentum In Momentum, we have two iterates (p and w) instead of just one. The updates are as follows:;Avec momentum, nous avons deux itérations (p et w) au lieu d’une seule. Les mises à jour sont les suivantes : p is called the SGD momentum. At each update step we add the stochastic gradient to the old value of the momentum, after dampening it by a factor β (value between 0 and 1). p can be thought of as a running average of the gradients. Finally we move w in the direction of the new momentum p.;p est appelé le momentum da la SGD. À chaque étape de la mise à jour, nous ajoutons le gradient stochastique à l’ancienne valeur du momentum, après l’avoir amorti d’un facteur β (valeur comprise entre 0 et 1). On peut considérer p comme une moyenne mobile des gradients. Enfin, nous déplaçons w dans la direction du nouvel élan p. Intuition;Intuition SGD Momentum is similar to the concept of momentum in physics. The optimization process resembles a heavy ball rolling down the hill. Momentum keeps the ball moving in the same direction that it is already moving in. Gradient can be thought of as a force pushing the ball in some other direction.;La SGD momentum est similaire au concept d’élan en physique. Le processus d’optimisation ressemble à une balle lourde qui dévale la colline. Momentum maintient la balle dans la même direction que celle dans laquelle elle se déplace déjà. Le gradient peut être considéré comme une force poussant la balle dans une autre direction. Rather than making dramatic changes in the direction of travel (as in the figure on the left), momentum makes modest changes. Momentum dampens the oscillations which are common when we use only SGD.;Plutôt que de changer radicalement la direction du déplacement (comme dans la figure de gauche), momentum apporte des changements modestes. Il amortit les oscillations qui sont courantes lorsque nous n’utilisons que la SGD. The β parameter is called the Dampening Factor. β has to be greater than zero, because if it is equal to zero, you are just doing gradient descent. It also has to be less than 1, otherwise everything will blow up. Smaller values of β result in change in direction quicker. For larger values, it takes longer to make turns.;Le paramètre β est appelé le facteur d’amortissement. β doit être supérieur à zéro, car s’il est égal à zéro, on ne fait qu’une descente de gradient. Il doit également être inférieur à 1, sinon tout explose. Des valeurs plus petites de β entraînent un changement de direction plus rapide. Pour des valeurs plus élevées, il faut plus de temps pour « tourner ». Practical guidelines;Informations pratiques Momentum must pretty much be always be used with stochastic gradient descent. β = 0.9 or 0.99 almost always works well.;Le momentum doit presque toujours être utilisé avec une descente de gradient stochastique. β = 0,9 ou 0,99 fonctionne presque toujours bien. The step size parameter usually needs to be decreased when the momentum parameter is increased to maintain convergence. If β changes from 0.9 to 0.99, learning rate must be decreased by a factor of 10.;La valeur du pas doit généralement être diminuée lorsque le paramètre de momentum est augmenté pour maintenir la convergence. Si β passe de 0,9 à 0,99, le taux d’apprentissage doit être diminué d’un facteur 10. Why does momentum works?;Comment fonctionne le momentum ? Acceleration;Accélération The following are the update rules for Nesterov’s momentum.;Voici les règles de mise à jour pour le momentum de Nesterov : With Nesterov’s Momentum, you can get accelerated convergence if you choose the constants very carefully. But this applies only to convex problems and not to Neural Networks.;Avec le momentum de Nesterov, il est possible d’obtenir une convergence accélérée en choisissant les constantes très soigneusement. Cependant cela ne s’applique qu’aux problèmes convexes et non aux réseaux de neurones. Many people say that normal momentum is also an accelerated method. But in reality, it is accelerated only for quadratics. Also, acceleration does not work well with SGD, as SGD has noise and acceleration does not work well with noise. Therefore, though some bit of acceleration is present with Momentum SGD, it alone is not a good explanation for the high performance of the technique.;Beaucoup de gens disent que le momentum normal est une méthode accélérée. Mais en réalité, elle n’est accélérée que pour les fonctions quadratiques. De plus, l’accélération ne fonctionne pas bien avec la SGD, car la SGD a du bruit or l’accélération ne fonctionne pas bien avec le bruit. Par conséquent, bien qu’une certaine accélération soit présente avec la SGD momentum, elle ne suffit pas à expliquer les performances élevées de la technique. Noise smoothing;Lissage du bruit The great thing about SGD with momentum is that this averaging is no longer necessary. Momentum adds smoothing to the optimization process, which makes each update a good approximation to the solution. With SGD you would want to average a whole bunch of updates and then take a step in that direction.;L’avantage avec la SGD avec momentum est que cette moyenne n’est plus nécessaire. Le momentum ajoute un lissage au processus d’optimisation, ce qui fait de chaque mise à jour une bonne approximation de la solution. Avec la SGD, on voudrait faire la moyenne de tout un tas de mises à jour et ensuite faire un pas dans cette direction. Both Acceleration and Noise smoothing contribute to high performance of momentum.;L’accélération et le lissage du bruit contribuent tous deux à la performance élevée du momentum. Momentum averages gradients. It is a running average of gradients that we use for each step update.;Le momentum est une moyenne mobile des gradients que nous utilisons pour chaque étape de mise à jour. Theoretically, for SGD to work we should take average over all step updates.;Théoriquement, pour que la SGD fonctionne, nous devrions prendre la moyenne de toutes les mises à jour par étapes : With SGD, we make good progress towards solution initially but when we reach bowl (bottom of the valley) we bounce around in this floor. If we adjust learning rate we will bounce around slower. With momentum we smooth out the steps, so that there is no bouncing around.;Avec la SGD, nous progressons bien vers une solution au départ, mais lorsque nous atteignons le fond de la vallée, nous rebondissons. Si nous ajustons le taux d’apprentissage, nous rebondissons plus lentement. Avec le momentum, nous lissons les étapes, de sorte qu’il n’y a pas de rebondissement. Optimisation Techniques II;Techniques d’optimisation II Adaptive methods;Méthodes adaptatives SGD with momentum is currently the state of the art optimization method for a lot of ML problems. But there are other methods, generally called Adaptive Methods, innovated over the years that are particularly useful for poorly conditioned problems (if SGD does not work).;La SGD avec momentum est actuellement la méthode d’optimisation de pointe pour de nombreux problèmes d’apprentissage machine. Mais il existe d’autres méthodes, généralement appelées méthodes adaptatives qui sont particulièrement utiles pour les problèmes mal conditionnés (si la SGD ne fonctionne pas). In the SGD formulation, every single weight in network is updated using an equation with the same learning rate (global γ). Here, for adaptive methods, we adapt a learning rate for each weight individually. For this purpose, the information we get from gradients for each weight is used.;Dans la formule de la SGD, chaque poids dans le réseau est mis à jour en utilisant une équation avec le même taux d’apprentissage global (γ). Ici, pour les méthodes adaptatives, nous adaptons un taux d’apprentissage pour chaque poids individuellement. À cette fin, nous utilisons les informations que nous obtenons des gradients pour chaque poids. Networks that are often used in practice have different structure in different parts of them. For instance, early parts of CNN may be very shallow convolution layers on large images and later in the network we might have convolutions of large number of channels on small images. Both of these operations are very different so a learning rate which works well for the beginning of the network may not work well for the latter sections of the network. This means adaptive learning rates by layer could be useful.;Les réseaux souvent utilisés en pratique ont une structure différente dans plusieurs parties d’eux. Par exemple, les premières parties d’un ConvNet peuvent être des couches de convolution très peu profondes sur de grandes images et plus loin dans le réseau, nous pouvons avoir des convolutions d’un grand nombre de canaux sur de petites images. Ces deux opérations sont très différentes, de sorte qu’un taux d’apprentissage qui fonctionne bien pour le début du réseau peut ne pas fonctionner correctement pour les dernières parties du réseau. Cela signifie qu’un taux d’apprentissage adaptatif par couche pourrait être utile. Weights in the latter part of the network (4096 in figure 1 below) directly dictate the output and have a very strong effect on it. Hence, we need smaller learning rates for those. In contrast, earlier weights will have smaller individual effects on the output, especially when initialized randomly.;Les poids dans la dernière partie du réseau (4096 dans la figure 1 ci-dessous) dictent directement la sortie et ont un effet très fort sur celle-ci. C’est pourquoi nous avons besoin de taux d’apprentissage plus faibles pour ces derniers. En revanche, les pondérations antérieures auront des effets individuels plus faibles sur la sortie, en particulier lorsqu’elles sont initialisées de manière aléatoire. RMSprop;RMSprop The key idea of Root Mean Square Propagation is that the gradient is normalized by its root-mean-square.;L’idée clé de la Root Mean Square Propagation (propagation quadratique moyenne) est que le gradient est normalisé par sa racine carrée moyenne. In the equation below, squaring the gradient denotes that each element of the vector is squared individually.;Dans l’équation ci-dessous, l’élévation au carré du gradient indique que chaque élément du vecteur est élevé au carré individuellement. We update v to estimate this noisy quantity via an exponential moving average (which is a standard way of maintaining an average of a quantity that may change over time). We need to put larger weights on the newer values as they provide more information. One way to do that is down-weight old values exponentially. The values in the v calculation that are very old are down-weighted at each step by an α constant, which varies between 0 and 1. This dampens the old values until they are no longer an important part of the exponential moving average.;Nous mettons à jour v pour estimer cette quantité bruyante via une moyenne mobile exponentielle qui est une façon standard de maintenir une moyenne d’une quantité pouvant changer dans le temps. Nous devons accorder un poids plus important aux nouvelles valeurs car elles fournissent davantage d’informations. Une façon d’y parvenir est de pondérer les anciennes valeurs de manière exponentielle. Les valeurs très anciennes dans le calcul de v sont pondérées à chaque étape par une constante α, qui varie entre 0 et 1. Cela atténue les anciennes valeurs jusqu’à ce qu’elles ne soient plus une partie importante de la moyenne mobile exponentielle. The original method keeps an exponential moving average of a non-central second moment, so we don’t subtract the mean here. The second moment is used to normalize the gradient element-wise, which means that every element of the gradient is divided by the square root of the second moment estimate. If the expected value of gradient is small, this process is similar to dividing the gradient by the standard deviation.;La méthode originale conserve une moyenne mobile exponentielle d’un second moment non central, donc nous ne soustrayons pas la moyenne ici. Le deuxième moment est utilisé pour normaliser par élément le gradient, ce qui signifie que chaque élément du gradient est divisé par la racine carrée de l’estimation du deuxième moment. Si la valeur attendue du gradient est faible, ce processus est similaire à la division du gradient par l’écart-type. Using a small ϵ in the denominator doesn’t diverge because when v is very small, the momentum is also very small.;L’utilisation d’un petit ϵ au dénominateur ne diverge pas car lorsque v est très petit, le momentum est également très petit. ADAM;ADAM ADAM, or Adaptive Moment Estimation, which is RMSprop plus momentum, is a more commonly used method. The momentum update is converted to an exponential moving average and we don’t need to change the learning rate when we deal with β. Just as in RMSprop, we take an exponential moving average of the squared gradient here.;ADAM ou Adaptive Moment Estimation est une méthode couramment utilisée consistant en un RMSprop avec momentum. La mise à jour du momentum est convertie en une moyenne mobile exponentielle et nous n’avons pas besoin de changer le taux d’apprentissage lorsque nous traitons avec β. Tout comme pour RMSprop, nous prenons ici une moyenne mobile exponentielle du gradient au carré. where mt+1​ is the momentum’s exponential moving average.;où mt+1​ est la moyenne mobile exponentielle du momentum. Bias correction that is used to keep the moving average unbiased during early iterations is not shown here.;La correction de biais qui est utilisée pour maintenir la moyenne mobile non biaisée pendant les premières itérations n’est pas présentée ici. Practical side;Côté pratique When training neural networks, SGD often goes in the wrong direction in the beginning of the training process, whereas RMSprop hones in on the right direction. However, RMSprop suffers from noise just as regular SGD, so it bounces around the optimum significantly once it’s close to a local minimizer. Just like when we add momentum to SGD, we get the same kind of improvement with ADAM. It is a good, not-noisy estimate of the solution, so ADAM is generally recommended over RMSprop.;Lors de l’entraînement des réseaux neuronaux, la SGD va souvent dans la mauvaise direction au début du processus, alors que RMSprop va dans la bonne direction. Cependant, RMSprop souffre du même bruit que la SGD normale, donc il rebondit autour de l’optimum de manière significative. Tout comme lorsque nous ajoutons un momentum à la SGD, nous obtenons le même type d’amélioration avec ADAM. C’est une bonne estimation, non bruyante, de la solution. Ainsi ADAM est généralement recommandé par rapport à RMSprop. ADAM is necessary for training some of the networks for using language models. For optimizing neural networks, SGD with momentum or ADAM is generally preferred. However, ADAM’s theory in papers is poorly understood and it also has several disadvantages:;ADAM est nécessaire pour entraîner certains des modèles linguistiques. Pour optimiser les réseaux de neurones, il est généralement préférable d’utiliser la SGD avec momentum ou ADAM. Cependant, la théorie derrière ADAM est mal comprise et elle présente également plusieurs inconvénients : It can be shown on very simple test problems that the method does not converge.;On peut montrer sur des problèmes de test très simples que la méthode ne converge pas. It is known to give generalization errors. If the neural network is trained to give zero loss on the data you trained it on, it will not give zero loss on other data points that it has never seen before. It is quite common, particularly on image problems, that we get worse generalization errors than when SGD is used. Factors could include that it finds the closest local minimum, or less noise in ADAM, or its structure, for instance.;Elle est connue pour donner des erreurs de généralisation. Si le réseau est entraîné à donner une perte nulle sur les données sur lesquelles on l’a entraîné, il ne donnera pas une perte nulle sur d’autres données que le réseau n’aura jamais vus auparavant. Il est assez courant, en particulier pour les problèmes d’image, que nous obtenions des erreurs de généralisation pires que lorsque la SGD est utilisée. Cela peut venir du fait qu’il trouve le minimum local le plus proche, qu’il y ait moins de bruit dans ADAM, ou encore sa structure. With ADAM we need to maintain 3 buffers, whereas SGD needs 2 buffers. This doesn’t really matter unless we train a model on the order of several gigabytes in size, in which case it might not fit in memory.;Avec ADAM, nous devons garder en mémoire 3 paramètres, alors que la SGD en a besoin que de 2. Cela n’a pas vraiment d’importance, à moins que nous n’entrainions un modèle de l’ordre de plusieurs giga-octets, auquel cas il pourrait ne pas tenir en mémoire. 2 momentum parameters need to be tuned instead of 1.;2 paramètres de momentum doivent être réglés au lieu d’un seul. Normalization layers;Couches de normalisation Rather than improving the optimization algorithms, normalization layers improve the network structure itself. They are additional layers in between existing layers. The goal is to improve the optimization and generalization performance.;Plutôt que d’améliorer les algorithmes d’optimisation, les couches de normalisation améliorent la structure même du réseau. Il s’agit de couches supplémentaires entre les couches existantes. L’objectif est d’améliorer les performances d’optimisation et de généralisation. In neural networks, we typically alternate linear operations with non-linear operations. The non-linear operations are also known as activation functions, such as ReLU. We can place normalization layers before the linear layers, or after the activation functions. The most common practice is to put them between the linear layers and activation functions, as in the figure below.;Dans les réseaux de neurones, nous alternons généralement des opérations linéaires et des opérations non linéaires. Les opérations non linéaires sont également connues sous le nom de fonctions d’activation, telles que la ReLU. Nous pouvons placer des couches de normalisation avant les couches linéaires ou après les fonctions d’activation. La pratique la plus courante consiste à les placer entre les couches linéaires et les fonctions d’activation comme dans la figure ci-dessous. In figure 3(c), the convolution is the linear layer, followed by batch normalization, followed by ReLU.;Dans la figure 3(c), la convolution est la couche linéaire, suivie de la normalisation par batchs, puis d’une ReLU. Note that the normalization layers affect the data that flows through, but they don’t change the power of the network in the sense that, with proper configuration of the weights, the unnormalized network can still give the same output as a normalized network.;Notons que les couches de normalisation affectent les données qui passent, mais elles ne modifient pas la puissance du réseau dans le sens où, avec une configuration appropriée des poids, le réseau non normalisé peut toujours donner le même résultat qu’un réseau normalisé. Normalization operations;Opérations de normalisation This is the generic notation for normalization:;Il s’agit de la notation générique pour la normalisation : where x is the input vector, y is the output vector, μ is the estimate of the mean of x, σ is the estimate of the standard deviation (std) of x, a is the learnable scaling factor, and b is the learnable bias term.;où x est le vecteur d’entrée, y est le vecteur de sortie, μ est l’estimation de la moyenne de x, σ est l’estimation de l’écart-type de x, a est le coefficient d’apprentissage et b est le terme de biais apprenant. Without the learnable parameters a and bb, the distribution of output vector y will have fixed mean 0 and std 1. The scaling factor a and bias term bb maintain the representation power of the network,i.e.the output values can still be over any particular range. Note that a and bb do not reverse the normalization, because they are learnable parameters and are much more stable than μ and σσ.;Sans les paramètres d’apprentissage a et b, la distribution du vecteur de sortie y a une moyenne fixe de 0 et un écart-type de 1. Le coefficient a et le terme de biais b maintiennent le pouvoir de représentation du réseau, c’est-à-dire que les valeurs de sortie peuvent toujours être sur une plage particulière. A noter que a et b n’inversent pas la normalisation car ce sont des paramètres qui peuvent être appris et qui sont beaucoup plus stables que μ et σ. There are several ways to normalize the input vector, based on how to select samples for normalization. Figure 4 lists 4 different normalization approaches, for a mini-batch of N images of height H and width W, with C channels:;Il existe plusieurs façons de normaliser le vecteur d’entrée, en fonction de la façon de sélectionner les échantillons à normaliser. La figure 4 énumère 4 approches de normalisation différentes, pour un mini-batch d’images N de hauteur H et de largeur W, avec des canaux C : Batch norm: the normalization is applied only over one channel of the input. This is the first proposed and the most well-known approach. Please read How to Train Your ResNet 7: Batch Norm for more information.;Batch Normalisation : la normalisation n’est appliquée que sur un canal de l’entrée. C’est la première approche proposée et la plus connue. Nous vous invitons à consulter How to Train Your ResNet 7 : Batch Norm (en anglais) pour plus d’informations. Layer norm: the normalization is applied within one image across all channels.;Layer norm : la normalisation est appliquée dans une image à travers tous les canaux. Instance norm: the normalization is applied only over one image and one channel.;Instance norm : la normalisation est appliquée sur une seule image et un seul canal. Group norm: the normalization is applied over one image but across a number of channels. For example, channel 0 to 9 is a group, then channel 10 to 19 is another group, and so on. In practice, the group size is almost always 32. This is the approach recommended by Aaron Defazio, since it has good performance in practice and it does not conflict with SGD.;Group norm : la normalisation est appliquée sur une seule image mais sur un certain nombre de canaux. Par exemple, le canal 0 à 9 est un groupe, puis le canal 10 à 19 est un autre groupe, et ainsi de suite. En pratique, la taille du groupe est presque toujours de 32. C’est l’approche recommandée par Aaron Defazio, puisqu’elle donne de bons résultats dans la pratique et qu’elle n’est pas en conflit avec la SGD. In practice, batch norm and group norm work well for computer vision problems, while layer norm and instance norm are heavily used for language problems.;Dans la pratique, la normalisation par batch et la normalisation par groupes fonctionnent bien pour les problèmes de vision par ordinateur. La normalisation par couches et la normalisation par instances sont quant à elles fortement utilisées pour les problèmes de langage. Why does normalization help?;Pourquoi la normalisation est-elle utile ? Although normalization works well in practice, the reasons behind its effectiveness are still disputed. Originally, normalization is proposed to reduce “internal covariate shift”, but some scholars proved it wrong in experiments. Nevertheless, normalization clearly has a combination of the following factors:;Bien que la normalisation fonctionne bien dans la pratique, les raisons de son efficacité sont encore contestées. À l’origine, la normalisation est proposée pour réduire le déplacement interne des covariables, mais certains chercheurs ont prouvé qu’elle était erronée lors d’expériences. Néanmoins, la normalisation présente clairement une combinaison des facteurs suivants : Networks with normalization layers are easier to optimize, allowing for the use of larger learning rates. Normalization has an optimization effect that speeds up the training of neural networks.;Les réseaux comportant des couches de normalisation sont plus faciles à optimiser, ce qui permet d’utiliser des taux d’apprentissage plus importants. La normalisation a un effet d’optimisation qui accélère l’entraînement des réseaux neuronaux. The mean/std estimates are noisy due to the randomness of the samples in batch. This extra “noise” results in better generalization in some cases. Normalization has a regularization effect.;Les estimations de la moyenne/écart-type sont bruyantes en raison du caractère aléatoire des échantillons en batch. Ce « bruit » supplémentaire entraîne une meilleure généralisation dans certains cas. La normalisation a un effet de régularisation. Normalization reduces sensitivity to weight initialization.;La normalisation réduit la sensibilité à l’initialisation du poids. As a result, normalization lets you be more “careless” – you can combine almost any neural network building blocks together and have a good chance of training it without having to consider how poorly conditioned it might be.;Par conséquent, la normalisation permet d’être plus négligent au sens qu’il est possible de combiner presque tous les blocs constitutifs d’un réseau de neurones et avoir de bonnes chances de l’entraîner sans avoir à considérer son mauvais conditionnement. Practical considerations;Considérations pratiques It’s important that back-propagation is done through the calculation of the mean and std, as well as the application of the normalization: the network training will diverge otherwise. The back-propagation calculation is fairly difficult and error-prone, but PyTorch is able to automatically calculate it for us, which is very helpful. Two normalization layer classes in PyTorch are listed below:;l est important que la rétropropagation se fasse par le calcul de la moyenne et des écarts-types ainsi que par l’application de la normalisation. Sinon l’entraînement du réseau diverge. Le calcul de la rétropropagation est assez difficile et sujet à erreur mais PyTorch est capable de le calculer automatiquement pour nous, ce qui est très utile. Deux classes de couches de normalisation dans PyTorch sont énumérées ci-dessous : Batch norm was the first method developed and is the most widely known. However, Aaron Defazio recommends using group norm instead. It’s more stable, theoretically simpler, and usually works better. Group size 32 is a good default.;La normalisation par batchs a été la première méthode développée et est la plus connue. Cependant, Aaron Defazio recommande d’utiliser plutôt la normalisation par groupes. Elle est plus stable, théoriquement plus simple, et fonctionne généralement mieux. La taille de groupe 32 est une bonne valeur par défaut. Note that for batch norm and instance norm, the mean/std used are fixed after training, rather than re-computed every time the network is evaluated, because multiple training samples are needed to perform normalization. This is not necessary for group norm and layer norm, since their normalization is over only one training sample.;Notez que pour la normalisation par batchs et la normalisation par instances, la moyenne/l’écart-type utilisé est fixé après l’entraînement plutôt que recalculé à chaque fois que le réseau est évalué. En effet de multiples échantillons d’entraînement sont nécessaires pour effectuer la normalisation. Cela n’est pas nécessaire pour la normalisation par groupes et la normalisation par couches, puisque leur normalisation ne porte que sur un seul échantillon d’entraînement. The Death of Optimization;La mort de l’optimisation Sometimes we can barge into a field we know nothing about and improve how they are currently implementing things. One such example is the use of deep neural networks in the field of Magnetic Resonance Imaging (MRI) to accelerate MRI image reconstruction.;Parfois, nous pouvons faire irruption dans un domaine que nous ne connaissons pas et améliorer la façon dont les choses sont mises en œuvre. L’utilisation de réseaux neuronaux profonds dans le domaine de l’imagerie par résonance magnétique (IRM) pour accélérer la reconstruction des images IRM en est un exemple. MRI Reconstruction;Reconstruction d’une IRM In the traditional MRI reconstruction problem, raw data is taken from an MRI machine and an image is reconstructed from it using a simple pipeline/algorithm. MRI machines capture data in a 2-dimensional Fourier domain, one row or one column at a time (every few milliseconds). This raw input is composed of a frequency and a phase channel and the value represents the magnitude of a sine wave with that particular frequency and phase. Simply speaking, it can be thought of as a complex valued image, having a real and an imaginary channel. If we apply an inverse Fourier transform on this input, i.e add together all these sine waves weighted by their values, we can get the original anatomical image.;Dans le problème traditionnel de la reconstruction d’une IRM, les données brutes sont extraites d’un appareil IRM et une image est reconstruite à partir de celles-ci à l’aide d’un simple algorithme. Les machines d’IRM capturent les données dans un domaine de Fourier en deux dimensions, une ligne ou une colonne à la fois (toutes les quelques millisecondes). Cette entrée brute est composée d’un canal de fréquence et d’un canal de phase et la valeur représente l’amplitude d’une onde sinusoïdale avec cette fréquence et cette phase particulières. En termes simples, on peut considérer qu’il s’agit d’une image de valeur complexe, ayant un canal réel et un canal imaginaire. Si nous appliquons une transformée de Fourier inverse sur cette entrée, c’est-à-dire si nous additionnons toutes ces ondes sinusoïdales pondérées par leurs valeurs, nous pouvons obtenir l’image anatomique originale. A linear mapping currently exists to go from the Fourier domain to the image domain and it’s very efficient, literally taking milliseconds, no matter how big the image is. But the question is, can we do it even faster?;Une association linéaire existe pour passer du domaine de Fourier au domaine de l’image. Elle est très efficace, prenant littéralement des millisecondes, quelle que soit la taille de l’image. Mais la question est de savoir si nous pouvons le faire encore plus rapidement. Accelerated MRI;IRM accélérée The new problem that needs to be solved is accelerated MRI, where by acceleration we mean making the MRI reconstruction process much faster. We want to run the machines quicker and still be able to produce identical quality images. One way we can do this and the most successful way so far has been to not capture all the columns from the MRI scan. We can skip some columns randomly, though it’s useful in practice to capture the middle columns, as they contain a lot of information across the image, but outside them we just capture randomly. The problem is that we can’t use our linear mapping anymore to reconstruct the image. The rightmost image in Figure 7 shows the output of a linear mapping applied to the subsampled Fourier space. It’s clear that this method doesn’t give us very useful outputs, and that there’s room to do something a little bit more intelligent.;Le nouveau problème qui doit être résolu est l’accélération de l’IRM, où nous entendons rendre le processus de reconstruction de l’IRM beaucoup plus rapide. Nous voulons faire fonctionner les machines plus rapidement tout en étant capables de produire des images de qualité identique. Une façon d’y parvenir, et la plus efficace jusqu’à présent, est de ne pas capturer toutes les colonnes de l’IRM. Nous pouvons sauter certaines colonnes de manière aléatoire, bien qu’il soit utile en pratique de capturer les colonnes du milieu car elles contiennent beaucoup d’informations sur l’ensemble de l’image. Le problème est que nous ne pouvons plus utiliser notre association linéaire pour reconstruire l’image. L’image la plus à droite de la figure 7 montre le résultat d’une association linéaire appliquée à l’espace de Fourier sous-échantillonné. Il est clair que cette méthode ne nous donne pas de résultats très utiles, et qu’il est possible de faire quelque chose d’un peu plus intelligent. Compressed sensing;Détection comprimée One of the biggest breakthroughs in theoretical mathematics for a long time was compressed sensing. A paper by Candes et al. showed that theoretically, we can get a perfect reconstruction from the subsampled Fourier-domain image. In other words, when the signal we are trying to reconstruct is sparse or sparsely structured, then it is possible to perfectly reconstruct it from fewer measurements. But there are some practical requirements for this to work – we don’t need to sample randomly, rather we need to sample incoherently – though in practice, people just end up sampling randomly. Additionally, it takes the same time to sample a full column or half a column, so in practice we also sample entire columns.;L’une des plus grandes percées en mathématiques théoriques est la détection comprimée. Un article de Candes et al. a montré que théoriquement, nous pouvons obtenir une reconstruction parfaite à partir de l’image du domaine de Fourier sous-échantillonnée. En d’autres termes, lorsque le signal que nous essayons de reconstruire est épars ou peu structuré, il est alors possible de le reconstruire parfaitement à partir de moins de mesures. Mais pour que cela fonctionne, il y a certaines conditions pratiques à remplir : nous n’avons pas besoin d’échantillonner au hasard mais plutôt d’échantillonner de manière incohérente, bien qu’en pratique, les gens finissent par échantillonner au hasard. En outre, il faut le même temps pour échantillonner une colonne entière ou une demi-colonne, donc en pratique nous échantillonnons aussi des colonnes entières. Another condition is that we need to have sparsity in our image, where by sparsity we mean a lot of zeros or black pixels in the image. The raw input can be represented sparsely if we do a wavelength decomposition, but even this decomposition gives us an approximately sparse and not an exactly sparse image. So, this approach gives us a pretty good but not perfect reconstruction, as we can see in Figure 8. However, if the input were very sparse in the wavelength domain, then we would definitely get a perfect image.;Une autre condition est que nous devons avoir une éparsité dans notre image, où par éparsité nous voulons dire beaucoup de zéros ou de pixels noirs dans l’image. L’entrée brute peut être représentée de façon éparse si nous effectuons une décomposition en longueur d’onde. Cependant même cette décomposition nous donne une image approximativement éparse et pas exactement éparse. Ainsi, cette approche nous donne une reconstruction assez bonne mais pas parfaite, comme nous pouvons le voir sur la figure 8. Si l’entrée était très éparse dans le domaine des longueurs d’onde, alors nous obtiendrions certainement une image parf Compressed sensing is based on the theory of optimization. The way we can get this reconstruction is by solving a mini-optimization problem which has an additional regularization term:;La détection comprimée est basée sur la théorie de l’optimisation. La façon dont nous pouvons obtenir cette reconstruction est de résoudre un mini-problème d’optimisation qui a un terme de régularisation supplémentaire : where M is the mask function that zeros out non-sampled entries, F is the Fourier transform, y is the observed Fourier-domain data, λ is the regularization penalty strength, and V is the regularization function.;où M est la fonction de masque qui met à zéro les entrées non échantillonnées, F est la transformée de Fourier, y est la donnée observée du domaine de Fourier, λ est la force de la pénalité de régularisation et V est la fonction de régularisation. The optimization problem must be solved for each time step or each “slice” in an MRI scan, which often takes much longer than the scan itself. This gives us another reason to find something better.;Le problème d’optimisation doit être résolu pour chaque pas de temps ou chaque « tranche » d’un examen IRM, qui prend souvent beaucoup plus de temps que l’examen lui-même. Cela nous donne une raison supplémentaire de trouver quelque chose de mieux. Who needs optimization?;Qui a besoin d’une optimisation ? Instead of solving the little optimization problem at every time step, why not use a big neural network to produce the required solution directly? Our hope is that we can train a neural network with sufficient complexity that it essentially solves the optimization problem in one step and produces an output that is as good as the solution obtained from solving the optimization problem at each time step.;Au lieu de résoudre le petit problème d’optimisation à chaque étape, pourquoi ne pas utiliser un grand réseau de neurones pour produire directement la solution requise ? Nous espérons pouvoir entraîner un réseau de neurones suffisamment complexe pour qu’il résolve le problème d’optimisation en une seule étape et produise un résultat aussi bon que la solution obtenue en résolvant le problème d’optimisation à chaque étape temporelle. where B is our deep learning model and y is the observed Fourier-domain data.;où B est notre modèle d’apprentissage profond et y est la donnée observée dans le domaine de Fourier. 15 years ago, this approach was difficult – but nowadays this is a lot easier to implement. Figure 9 shows the result of a deep learning approach to this problem and we can see that the output is much better than the compressed sensing approach and looks very similar to the actual scan.;Il y a 15 ans, cette approche était difficile mais est aujourd’hui beaucoup plus facile à mettre en œuvre. La figure 9 montre le résultat d’une approche d’apprentissage profond au problème. Nous pouvons voir qu’il est bien meilleur que l’approche de détection comprimée et ressemble beaucoup au scanner réel. The model used to generate this reconstruction uses an ADAM optimizer, group-norm normalization layers, and a U-Net based convolutional neural network. Such an approach is very close to practical applications and we will hopefully be seeing these accelerated MRI scans happening in clinical practice in a few years’ time;Le modèle utilisé pour générer cette reconstruction fait appel à un optimiseur ADAM, à des couches de normalisation par groupes et à un ConvNet basé sur U-Net. Understanding convolutions and automatic differentiation engine;Comprendre les convolutions et autograd Understanding 1D convolution;Comprendre la convolution 1D Instead of using the matrix A discussed in the previous week, we will change the matrix width to the kernel size k. Therefore, each row of the matrix is a kernel. We can use the kernels by stacking and shifting (see Fig 1). Then we can have mm layers of height n−k+1.;Au lieu d’utiliser la matrice A de la semaine précédente, nous allons changer la largeur de la matrice pour la taille du noyau k. Par conséquent, chaque ligne de la matrice est un noyau. Nous pouvons utiliser les noyaux en les empilant et en les déplaçant (voir la figure 1). Nous pouvons alors avoir mm couches de hauteur n−k+1. The output is m (thickness) vectors of size n−k+1.;La sortie est m vecteurs de taille n−k+1. Furthermore, a single input vector can viewed as a monophonic signal.;De plus, un seul vecteur d’entrée peut être considéré comme un signal monophonique. where Ω={1,2,3,⋯ }⊂N1 (since this is 1 dimensional signal / it has a 1 dimensional domain) and in this case the channel number c is 1. When c=2 this becomes a stereophonic signal.;avec Ω={1,2,3,⋯}⊂N1 (puisque c’est un signal de dimension 1 / il a un domaine de dimension 1) et dans ce cas le numéro de canal c est 1. Lorsque c=2, cela devient un signal stéréophonique. For the 1D convolution, we can just compute the scalar product, kernel by kernel (see Fig 4).;Pour la convolution 1D, nous pouvons simplement calculer le produit scalaire, noyau par noyau (voir figure 4). Dimension of kernels and output width in PyTorch;Dimension des noyaux et largeur des sorties dans PyTorch Tips: We can use question mark in IPython to get access to the documents of functions. For example,;Astuce : on peut utiliser le question mark dans IPython pour avoir accès aux documents de fonctions. Par exemple, 1D convolution;Convolution 1D We have 1 dimensional convolution going from 2 channels (stereophonic signal) to 16 channels (16 kernels) with kernel size of 3 and stride of 1. We then have 16 kernels with thickness 2 and length 3. Let’s assume that the input signal has a batch of size 1 (one signal), 2 channels and 64 samples. The resulting output layer has 1 signal, 16 channels and the length of the signal is 62 (=64−3+1). Also, if we output the bias size, we’ll find the bias size is 16, since we have one bias per weight.;Nous avons une convolution de dimension 1 allant de 2 canaux (signal stéréophonique) à 16 canaux (16 noyaux) avec une taille de noyau de 3 et un pas de 11. Nous avons ensuite 16 noyaux avec une épaisseur de 2 et une longueur de 3. Supposons que le signal d’entrée ait un batch de taille 1 (un signal), de 2 canaux et 64 échantillons. La couche de sortie résultante a 1 signal, des 16 canaux et la longueur du signal est de 62 (=64−3+1). De plus, si nous affichons la taille du biais, nous constaterons qu’elle de 16, puisque nous avons un biais par poids. 2D convolution;Convolution 2D We first define the input data as 1 sample, 20 channels (say, we’re using an hyperspectral image) with height 64 and width 128. The 2D convolution has 20 channels from input and 16 kernels with size of 3×53×5. After the convolution, the output data has 1 sample, 16 channels with height 62 (=64−3+1) and width 124 (=128−5+1).;Nous définissons d’abord les données d’entrée comme un 1 échantillon, 20 canaux (disons que nous utilisons une image hyperspectrale) avec une hauteur de 64 et une largeur de 128. La convolution 2D a 20 canaux en entrée et 16 noyaux de taille de 3×53×5. Après la convolution, la donnée en sortie a un 1 échantillon, 16 canaux avec une hauteur de 62 (=64−3+1) et une largeur de 124 (=128−5+1). If we want to achieve the same dimensionality, we can have paddings. Continuing the code above, we can add new parameters to the convolution function: stride=1 and padding=(1, 2), which means 1 on y direction (1 at the top and 1 at the bottom) and 2 on x direction. Then the output signal is in the same size compared to the input signal. The number of dimensions that is required to store the collection of kernels when you perform 2D convolution is 4.;Si nous voulons atteindre la même dimensionnalité, nous pouvons rembourrer. En continuant le code ci-dessus, nous pouvons ajouter de nouveaux paramètres à la fonction de convolution : stride=1 et padding=(1, 2), ce qui signifie 1 dans la direction y (1 en haut et 1 en bas) et 2 dans la direction x. Le signal de sortie est alors de la même taille que le signal d’entrée. Le nombre de dimensions nécessaires pour stocker la collection de noyaux lorsque vous effectuez une convolution 2D est de 4. How automatic gradient works? ;Comment fonctionne le gradient automatique ? In this section we’re going to ask torch to check all the computation over the tensors so that we can perform the computation of partial derivatives.;Dans cette section, nous allons demander à Pytorch de vérifier tous les calculs sur les tenseurs afin que nous puissions effectuer le calcul des dérivés partielles. From basic to more crazy;Vers plus de folie Now we have a 1×3 vector x, assign y to the double x and keep doubling y until its norm is smaller than 1000. Due to the randomness we have for x, we cannot directly know the number of iterations when the procedure terminates.;Maintenant que nous avons un vecteur 1×3 x, assignons 2x à y et doublons y jusqu’à ce que sa norme soit inférieure à 1000. En raison du caractère aléatoire que nous avons pour x, nous ne pouvons pas connaître directement le nombre d’itérations lorsque la procédure se termine. However, we can infer it easily by knowing the gradients we have.;Cependant, nous pouvons facilement le déduire en connaissant les gradients dont nous disposons. As for the inference, we can use requires_grad=True to label that we want to track the gradient accumulation as shown below. If we omit requires_grad=True in either x or w’s declaration and call backward() on z, there will be runtime error due to we do not have gradient accumulation on x or W.;Quant à l’inférence, nous pouvons utiliser requires_grad=True pour indiquer que nous voulons suivre l’accumulation du gradient comme indiqué ci-dessous. Si nous omettons requires_grad=True dans la déclaration de x ou w et appelons backward() sur z, il y aura une erreur d’exécution due au fait que nous n’avons pas d’accumulation de gradient sur x ou w. And, we can have with torch.no_grad() to omit the gradient accumulation.;Nous pouvons avoir with torch.no_grad() pour omettre l’accumulation de gradient. More stuff – custom gradients;Plus de choses : des gradients personnalisés Also, instead of basic numerical operations, we can generate our own self-defined modules / functions, which can be plugged into the neural graph. The Jupyter Notebook can be found here.;Au lieu d’opérations numériques de base, nous pouvons générer nos propres modules / fonctions qui peuvent être branchés sur le graphe neural. Le notebook Jupyter se trouve ici. To do so, we need to inherit torch.autograd.Function and override forward() and backward() functions. For example, if we want to training nets, we need to get the forward pass and know the partial derivatives of the input respect to the output, such that we can use this module in any kind of point in the code. Then, by using back-propagation (chain rule), we can plug the thing anywhere in the chain of operations, as long as we know the partial derivatives of the input respect to the output.;Pour ce faire, nous devons partir de la fonction torch.autograd.Function et remplacer les fonctions forward() et backward(). Par exemple, si nous voulons entraîner des réseaux, nous devons obtenir la propagation en avant dans le réseau et connaître les dérivées partielles de l’entrée par rapport à la sortie, de sorte que nous puissions utiliser ce module en tout point du code. Ensuite, en utilisant la rétropropagation (règle de la chaîne), nous pouvons insérer la chose n’importe où dans la chaîne d’opérations, à condition de connaître les dérivées partielles de l’entrée par rapport à la sortie. In this case, there are three examples of custom modules in the notebook, the add, split, and max modules. For example, the custom addition module:;Dans ce cas, il y a trois exemples de modules personnalisés dans le notebook, les modules add, split, et max. Par exemple, le module d’ajout personnalisé : If we have addition of two things and get an output, we need to overwrite the forward function like this. And when we go down to do back propagation, the gradients copied over both sides. So we overwrite the backward function by copying.;Si nous avons l’addition de deux choses et que nous obtenons un résultat, nous devons écraser la fonction forward comme ceci. Et lorsque nous rétropropagation, les gradients sont copiés sur les deux côtés. Nous écrasons donc la fonction backward en copiant. For split and max, see the code of how we overwrite forward and backward functions in the notebook. If we come from the same thing and Split, when go down doing gradients, we should add / sum them. For argmax, it selects the index of the highest thing, so the index of the highest should be 1 while others being 0. Remember, according to different custom modules, we need to overwrite its own forward pass and how they do gradients in backward function.;Pour les fonctions split et max, consultez le code pour la façon dont nous écrasons les fonctions forward et backward dans le notebook. Pour argmax, cela sélectionne l’indice de la chose la plus élevée. Ainsi l’indice de la plus élevée devrait être de 1 et 0 pour les autres. Week 6;Semaine 6 We discussed three applications of convolutional neural networks. We started with digit recognition and the application to a 5-digit zip code recognition. In object detection, we talk about how to use multi-scale architecture in a face detection setting. Lastly, we saw how ConvNets are used in semantic segmentation tasks with concrete examples in a robotic vision system and object segmentation in an urban environment.;Nous discutons de trois applications des réseaux de neurones convolutifs. Nous commençons par la reconnaissance d’un code postal à 5 chiffres. En ce qui concerne la détection d’objets, nous abordons la manière d’utiliser une architecture multi-échelle dans le cadre de détection de visages. Enfin, nous voyons comment les ConvNets sont utilisés dans des tâches de segmentation sémantique avec des exemples concrets dans un système de vision robotique et la segmentation d’objets dans un environnement urbain. We examine Recurrent Neural Networks, their problems, and common techniques for mitigating these issues. We then review a variety of modules developed to resolve RNN model issues including Attention, GRUs (Gated Recurrent Unit), LSTMs (Long Short-Term Memory), and Seq2Seq.;Nous examinons les réseaux neuronaux récurrents (RNNs pour Recurrent Neural Networks), leurs problèmes et les techniques courantes permettant de les atténuer. Nous examinons ensuite divers modules développés pour résoudre les problèmes liés aux modèles RNNs, notamment l’Attention, les GRUs (Gated Recurrent Unit), les LSTMs (Long Short-Term Memory) et le Seq2Seq. We discussed architecture of Vanilla RNN and LSTM models and compared the performance between the two. LSTM inherits advantages of RNN, while improving RNN’s weaknesses by including a ‘memory cell’ to store information in memory for long periods of time. LSTM models significantly outperforms RNN models.;Nous discutons de l’architecture des modèles RNNs de base et des LSTMs et comparons les performances entre les deux. Les LSTMs héritent des avantages des RNNs, tout en améliorant leurs faiblesses en incluant une cellule mémoire afin de stocker les informations pendant de longues périodes. Les modèles LSTMs sont nettement plus performants que les modèles RNNs. Applications of Convolutional Network;Applications des ConvNets Zip Code Recognition;Reconnaissance des codes postaux In the previous lecture, we demonstrated that a convolutional network can recognize digits, however, the question remains, how does the model pick each digit and avoid perturbation on neighboring digits. The next step is to detect non/overlapping objects and use the general approach of Non-Maximum Suppression (NMS). Now, given the assumption that the input is a series of non-overlapping digits, the strategy is to train several convolutional networks and using either majority vote or picking the digits corresponding to the highest score generated by the convolutional network.;Dans les cours des semaines précédentes, nous avons démontré qu’un réseau convolutif peut reconnaître des chiffres. Cependant, la question demeure de savoir comment le modèle choisit chaque chiffre et évite les perturbations avec les chiffres voisins. L’étape suivante consiste à détecter les objets qui ne se chevauchent pas et à utiliser l’approche générale de la suppression non maximale (NMS en anglais pour Non-Maximum Suppression). Etant donné l’hypothèse que l’entrée est une série de chiffres ne se chevauchants pas, la stratégie consiste à entraîner plusieurs réseaux convolutifs et à utiliser soit un vote majoritaire, soit à choisir les chiffres correspondant au score le plus élevé généré par le réseau convolutif. Recognition with CNN;Reconnaissance avec les ConvNets Here we present the task of recognizing 5 non-overlapping zip codes. The system was not given any instructions on how to separate each digit but knows that is must predict 5 digits. The system (Figure 1) consists of 4 different sized convolutional networks, each producing one set of outputs. The output is represented in matrices. The four output matrices are from models with a different kernel width in the last layer. In each output, there are 10 rows, representing 10 categories from 0 to 9. The larger white square represents a higher score in that category. In these four output blocks, the horizontal sizes of the last kernel layers are 5, 4, 3 and 2 respectively. The size of the kernel decides the width of the model’s viewing window on the input, therefore each model is predicting digits based on different window sizes. The model then takes a majority vote and selects the category that corresponds to the highest score in that window. To extract useful information, one should keep in mind that not all combinations of characters are possible, therefore error correction leveraging input restrictions is useful to ensure the outputs are true zip codes.;Nous présentons ici la tâche consistant à reconnaître un code postal constitué de 5 chiffres ne se chevauchant pas. Le système n’a reçu aucune instruction sur la façon de séparer chaque chiffre, mais il sait qu’il doit prévoir 5 chiffres. Le système (figure 1) se compose de 4 ConvNets de taille différente, chacun produisant un ensemble de sorties. La sortie est représentée par des matrices. Les quatre matrices de sortie proviennent de modèles dont la dernière couche présente une largeur de noyau différente. Dans chaque sortie, il y a 10 lignes représentant les 10 chiffres de 0 à 9. Le plus grand carré blanc représente un score plus élevé dans cette catégorie. Dans ces quatre blocs de sortie, les tailles horizontales des dernières couches de noyaux sont respectivement de 5, 4, 3 et 2. La taille du noyau détermine la largeur de la fenêtre de visualisation du modèle en entrée, c’est pourquoi chaque modèle prédit des chiffres en fonction de différentes tailles de fenêtre. Le modèle effectue alors un vote majoritaire et sélectionne la catégorie qui correspond au score le plus élevé dans cette fenêtre. Pour extraire des informations utiles, il faut garder à l’esprit que toutes les combinaisons de caractères ne sont pas possibles. Ainsi une correction d’erreurs utilisant les restrictions d’entrée est utile afin de s’assurer que les sorties sont de véritables codes postaux. Now to impose the order of the characters. The trick is to utilize a shortest path algorithm. Since we are given ranges of possible characters and the total number of digits to predict, We can approach this problem by computing the minimum cost of producing digits and transitions between digit. The path has to be continuous from the lower left cell to the upper right cell on the graph, and the path is restricted to only contain movements from left to right and bottom to top. Note that if the same number is repeated next to each other, the algorithm should be able to distinguish there are repeated numbers instead of predicting a single digit.;Maintenant, il faut imposer l’ordre des caractères. L’astuce consiste à utiliser un algorithme de chemin le plus court. Comme on nous donne des plages de caractères possibles et le nombre total de chiffres à prévoir, nous pouvons aborder ce problème en calculant le coût minimum de production des chiffres et des transitions entre les chiffres. Le chemin doit être continu de la cellule inférieure gauche à la cellule supérieure droite du graphique. Il doit aussi contenir que des mouvements de gauche à droite et de bas en haut. De plus, si le même nombre est répété l’un à côté de l’autre, l’algorithme doit être capable de distinguer les nombres répétés au lieu de prédire un seul chiffre. Face detection;Détection des visages Convolutional neural networks perform well on detection tasks and face detection is no exception. To perform face detection we collect a dataset of images with faces and without faces, on which we train a convolutional net with a window size such as 30 × 30 pixels and ask the network to tell whether there is a face or not. Once trained, we apply the model to a new image and if there are faces roughly within a 30 × 30 pixel window, the convolutional net will light up the output at the corresponding locations. However, two problems exist.;Les ConvNets sont très performants dans les tâches de détection. La détection des visages ne fait pas exception. Pour effectuer la détection des visages, nous collectons un jeu de données d’images avec et sans visages sur lesquelles nous entraînons un ConvNet avec une taille de fenêtre de 30 × 30 pixels. Nous demandons alors au réseau de dire s’il y a un visage ou non. Une fois entraîné, nous appliquons le modèle à une nouvelle image et s’il y a des visages à peu près dans une fenêtre de 30 × 30 pixels, le ConvNet éclairera la sortie aux endroits correspondants. Cependant, deux problèmes se posent : False Positives: There are many different variations of non-face objects that may appear in a patch of an image. During the training stage, the model may not see all of them (i.e. a fully representative set of non-face patches). Therefore, the model may suffer from a lot of false positives at test time. For example, if the network has not been trained on images containing hands, it may detect faces based on skin tones and incorrectly classify patches of images containing hands as faces, thereby giving rise to false positives.;les faux positifs : il y a de nombreuses façons pour qu’un morceau d’image ne soit pas un visage. Pendant la phase d’entraînement, le modèle peut ne pas toutes les voir (c’est-à-dire que notre jeu de données n’est pas pleinement représentatif). Par conséquent, le modèle peut souffrir d’un grand nombre de faux positifs au moment du test. Different Face Size: Not all faces are 30 × 30 pixels, so faces of differing sizes may not be detected. One way to handle this issue is to generate multi-scale versions of the same image. The original detector will detect faces around 30 × 30 pixels. If applying a scale on the image of factor 2​, the model will detect faces that were smaller in the original image since what was 30 × 30 is now 20 × 20 pixels roughly. To detect bigger faces, we can downsize the image. This process is inexpensive as half of the expense comes from processing the original non-scaled image. The sum of the expenses of all other networks combined is about the same as processing the original non-scaled image. The size of the network is the square of the size of the image on one side, so if you scale down the image by 2​, the network you need to run is smaller by a factor of 2. So the overall cost is 1+1/2+1/4+1/8+1/16… which is 2. Performing a multi-scale model only doubles the computational cost.;la taille de visage différente : tous les visages ne sont pas de taille 30 × 30 pixels. Ainsi, les visages de tailles différentes peuvent ne pas être détectés. Une façon de traiter ce problème est de générer des versions multi-échelles de la même image. Le détecteur original détectera des visages d’environ 30 × 30 pixels. En appliquant une échelle sur l’image de facteur 2​, le modèle détectera les visages plus petits dans l’image originale puisque ce qui était de taille 30 × 30 est maintenant d’environ 20 × 20 pixels. Pour détecter des visages plus grands, nous pouvons réduire la taille de l’image. Ce procédé est peu coûteux car la moitié des dépenses provient du traitement de l’image originale non réduite. La somme des dépenses de tous les autres réseaux combinés est à peu près la même que le traitement de l’image originale non mise à l’échelle. La taille du réseau est le carré de la taille de l’image d’un côté, donc si vous réduisez l’image par 2, le réseau que vous devez faire fonctionner est plus petit d’un facteur 2. Le coût global est donc de 1+1/2+1/4+1/8+1/16+…, ce qui donne 2. La réalisation d’un modèle multi-échelle ne fait donc que doubler le coût de calcul. A multi-scale face detection system;Un système de détection des visages à plusieurs échelles The maps shown in (Figure 3) indicate the scores of face detectors. This face detector recognizes faces that are 20 × 20 pixels in size. In fine-scale (Scale 3) there are many high scores but are not very definitive. When the scaling factor goes up (Scale 6), we see more clustered white regions. Those white regions represent detected faces. We then apply non-maximum suppression to get the final location of the face.;Les cartes présentées (figure 3) indiquent les scores des détecteurs de visages. Ce détecteur de visage reconnaît les visages qui ont une taille de 20 × 20 pixels. En échelle fine (Scale 3 dans la figure 3), il y a beaucoup de scores élevés mais pas définitifs. Lorsque le facteur d’échelle augmente (Scale 6), nous voyons davantage de régions blanches groupées. Ces régions blanches représentent les visages détectés. Nous appliquons alors une suppression non maximale pour obtenir l’emplacement final du visage. Non-maximum suppression;Suppression non maximale For each high-scoring region, there is probably a face underneath. If more faces are detected very close to the first, it means that only one should be considered correct and the rest are wrong. With non-maximum suppression, we take the highest-scoring of the overlapping bounding boxes and remove the others. The result will be a single bounding box at the optimum location.;Pour chaque région ayant un score élevé, il y a probablement un visage en dessous. Si plusieurs visages sont détectés très près du premier, cela signifie qu’un seul doit être considéré comme correct et que les autres sont faux. Dans le cas d’une suppression non maximale, nous prenons la zone la plus importante des cases de délimitation qui se chevauchent et nous supprimons les autres. Le résultat est alors une seule boîte englobante à l’emplacement optimal. Negative mining;Negative mining In the last section, we discussed how the model may run into a large number of false positives at test time as there are many ways for non-face objects to appear similar to a face. No training set will include all the possible non-face objects that look like faces. We can mitigate this problem through negative mining. In negative mining, we create a negative dataset of non-face patches which the model has (erroneously) detected as faces. The data is collected by running the model on inputs that are known to contain no faces. Then we retrain the detector using the negative dataset. We can repeat this process to increase the robustness of our model against false positives.;Nous avons vu comment un modèle peut se heurter à un grand nombre de faux positifs au moment de la phase de test car plusieurs objets peuvent ressembler à un visage de diverses façons. Aucun jeu d’entraînement ne peut contenir tous les objets qui ne sont pas des visages et ceux qui ressemblent à des visages. Nous pouvons atténuer ce problème grâce au negative mining (pêche à l’exemple négatif). Avec cette technique, nous exécutons notre modèle sur des entrées dont on sait qu’elles ne contiennent pas de visages. Tous les patchs sans visages mais que le modèle a détecté comme étant des visages sont alors ajoutés dans notre jeu de données d’exemples négatifs. Ensuite, nous recyclons le détecteur en utilisant le jeu de données négatives. Nous pouvons répéter ce processus pour augmenter la robustesse de notre modèle contre les faux positifs. Semantic segmentation;Segmentation sémantique Semantic segmentation is the task of assigning a category to every pixel in an input image.;La segmentation sémantique est la tâche qui consiste à attribuer une catégorie à chaque pixel d’une image d’entrée. CNN for Long Range Adaptive Robot Vision;ConvNets pour la vision adaptative à longue portée des robots In this project, the goal was to label regions from input images so that a robot can distinguish between roads and obstacles. In the figure, the green regions are areas the robot can drive on and the red regions are obstacles like tall grass. To train the network for this task, we took a patch from the image and manually label it traversable or not (green or red). We then train the convolutional network on the patches by asking it to predict the color of the patch. Once the system is sufficiently trained, it is applied to the entire image, labeling all the regions of the image as green or red.;Dans ce projet, l’objectif était d’étiqueter des régions à partir d’images d’entrée afin qu’un robot puisse distinguer les routes des obstacles. Dans la figure, les régions vertes sont les zones sur lesquelles le robot peut rouler et les régions rouges sont les obstacles comme les herbes hautes. Pour entraîner le réseau à cette tâche, nous avons pris un patch de l’image et l’avons étiqueté manuellement comme étant traversable ou non (vert ou rouge). Nous entraînons ensuite le réseau convolutif sur les patchs en lui demandant de prédire la couleur du patch. Une fois que le système est suffisamment entraîné, il est appliqué à l’ensemble de l’image, en étiquetant toutes les régions de l’image en vert ou en rouge. There were five categories for prediction: 1) super green, 2) green, 3) purple: obstacle foot line, 4) red obstacle 5) super red: definitely an obstacle.;Il y avait cinq catégories pour la prédiction : 1) super vert, 2) vert, 3) violet, 4) obstacle rouge, 5) super rouge : un obstacle certain. Stereo Labels (Figure 4, Column 2) Images are captured by the 4 cameras on the robot, which are grouped into 2 stereo vision pairs. Using the known distances between the stereo pair cameras, the positions of every pixel in 3D space are then estimated by measuring the relative distances between the pixels that appear in both the cameras in a stereo pair. This is the same process our brains use to estimate the distance of the objects that we see. Using the estimated position information, a plane is fit to the ground, and pixels are then labeled as green if they are near the ground and red if they are above it.;Étiquettes stéréo (Figure 4, colonne 2) : Les images sont captées par les 4 caméras du robot, qui sont regroupées en 2 paires de vision stéréo. En utilisant les distances connues entre les caméras des paires stéréoscopiques, les positions de chaque pixel dans l’espace 3D sont ensuite estimées en mesurant les distances relatives entre les pixels qui apparaissent dans les deux caméras d’une paire stéréoscopique. C’est le même processus que notre cerveau utilise pour estimer la distance des objets que nous voyons. En utilisant les informations de position estimées, un plan est ajusté au sol et les pixels sont alors étiquetés en vert s’ils sont proches du sol et en rouge s’ils sont au-dessus. Limitations & Motivation for ConvNet: The stereo vision only works up to 10 meters and driving a robot requires long-range vision. A ConvNet however, is capable of detecting objects at much greater distances, if trained correctly.;Limitations et motivation pour les ConvNets : La vision stéréo ne fonctionne que jusqu’à 10 mètres et la conduite d’un robot nécessite une vision à longue distance. Un ConvNet est cependant capable de détecter des objets à des distances beaucoup plus grandes, s’il est correctement entraîné. Served as Model Inputs: Important pre-processing includes building a scale-invariant pyramid of distance-normalized images (Figure 5). It is similar to what we have done earlier of this lecture when we tried to detect faces of multiple scales.;Servie comme entrée modèle : Un prétraitement important comprend la construction invariante au changement d’échelle d’images avec des distances normalisées (figure 5). Elle est similaire à ce que nous avons fait plus tôt dans ce cours lorsque nous avons essayé de détecter des visages de différentes tailles. Model Outputs (Figure 4, Column 3);Sorties du modèle (figure 4, colonne 3) : The model outputs a label for every pixel in the image up to the horizon. These are classifier outputs of a multi-scale convolutional network.;Le modèle produit une étiquette pour chaque pixel de l’image jusqu’à l’horizon. Ce sont les sorties du classifieur d’un ConvNet multi-échelles. How the Model Becomes Adaptive: The robots have continuous access to the stereo labels, allowing the network to re-train, adapting to the new environment it’s in. Please note that only the last layer of the network would be re-trained. The previous layers are trained in the lab and fixed.;Comment le modèle devient adaptatif : System Performance;Performances du système : When trying to get to a GPS coordinate on the other side of a barrier, the robot “saw” the barrier from far away and planned a route that avoided it. This is thanks to the CNN detecting objects up 50-100m away.;En essayant d’obtenir une coordonnée GPS de l’autre côté d’une barrière, le robot a perçu cette barrière et a planifié un itinéraire qui l’a évitée. Ceci grâce à la détection d’objets situés à une distance de 50 à 100 m. Limitation;Limitation : Back in the 2000s, computation resources were restricted. The robot was able to process around 1 frame per second, which means it would not be able to detect a person that walks in its way for a whole second before being able to react. The solution for this limitation is a Low-Cost Visual Odometry model. It is not based on neural networks, has a vision of ~2.5m but reacts quickly.;Dans les années 2000, les ressources de calcul étaient limitées. Le robot était capable de traiter environ une image par seconde, ce qui signifie qu’il ne pouvait pas détecter une personne qui se trouvait sur son chemin pendant une seconde entière avant de pouvoir réagir. La solution à cette limitation est un modèle d’odométrie visuelle à faible coût. Il n’est pas basé sur les réseaux de neurones, a une vision d’environ 2,5m mais réagit rapidement. Scene Parsing and Labelling;Analyse et étiquetage des scènes In this task, the model outputs an object category (buildings, cars, sky, etc.) for every pixel. The architecture is also multi-scale (Figure 6).;Dans cette tâche, le modèle produit une catégorie d’objets (bâtiments, voitures, ciel, etc.) pour chaque pixel. L’architecture est également multi-échelle (figure 6). Notice that if we back project one output of the CNN onto the input, it corresponds to an input window of size 46×46 on the original image at the bottom of the Laplacian Pyramid. It means we are using the context of 46×46 pixels to decide the category of the central pixel.;Si nous rétropropageons une sortie du ConvNet sur l’entrée, cela correspond à une fenêtre d’entrée de taille 46×46 sur l’image originale au bas de la pyramide de Laplace. Cela signifie que nous utilisons le contexte des pixels 46×46 pour décider de la catégorie du pixel central. However, sometimes this context size is not enough to determine the category for larger objects.;Cependant, parfois, la taille de ce contexte n’est pas suffisante pour déterminer la catégorie des objets plus grands. The multiscale approach enables a wider vision by providing extra rescaled images as inputs. The steps are as follows:;L’approche multi-échelles permet une vision plus large en fournissant des images supplémentaires redimensionnées comme entrées : 1. Take the same image, reduce it by the factor of 2 and a factor of 4, separately.;1. Prendre la même image, la réduire séparément d’un facteur 2 et d’un facteur 4. 2. These two extra rescaled images are fed to the same ConvNet (same weights, same kernels) and we get another two sets of Level 2 Features.;2. Ces deux images supplémentaires redimensionnées sont envoyées au même ConvNet (mêmes poids, mêmes noyaux) et nous obtenons deux autres ensembles de caractéristiques de niveau 2. 3. Upsample these features so that they have the same size as the Level 2 Features of the original image.;3. Échantillonner ces caractéristiques de façon à ce qu’elles aient la même taille que les caractéristiques de niveau 2 de l’image originale. 4. Stack the three sets of (upsampled) features together and feed them to a classifier.;4. Empiler les trois ensembles de caractéristiques (suréchantillonnées) et envoyer-les à un classifieur. Now the largest effective size of content, which is from the 1/4 resized image, is 184×184 (46×4=184).;Maintenant, la plus grande taille effective du contenu, qui provient de l’image redimensionnée à 1/4, est de 184×184(46×4=184). Performance: With no post-processing and running frame-by-frame, the model runs very fast even on standard hardware. It has a rather small size of training data (2k~3k), but the results are still record-breaking.;Performance : sans post-traitement et en fonctionnant image par image, le modèle fonctionne très rapidement, même sur du matériel standard. Il a une taille assez réduite de données d’entraînement (2 000 à 3 000), mais les résultats sont toujours très performants. RNNs, GRUs, LSTMs, Attention, Seq2Seq, and Memory Networks;RNNs, GRUs, LSTMs, Attention, Seq2Seq, et Réseaux mémoire Deep Learning Architectures;Architectures de l’apprentissage profond In deep learning, there are different modules to realize different functions. Expertise in deep learning involves designing architectures to complete particular tasks. Similar to writing programs with algorithms to give instructions to a computer in earlier days, deep learning reduces a complex function into a graph of functional modules (possibly dynamic), the functions of which are finalized by learning.;En apprentissage profond, il existe différents modules pour réaliser différentes fonctions. L’expertise dans ce domaine implique la conception d’architectures pour réaliser des tâches particulières. L’apprentissage profond réduit une fonction complexe en un graphe de modules fonctionnels (éventuellement dynamiques), dont les fonctions sont finalisées par l’apprentissage. As with what we saw with convolutional networks, network architecture is important.;Comme pour ce que nous avons vu avec les réseaux convolutifs, l’architecture de réseau est importante. Recurrent Networks;Réseaux récurrents (RNNs) In a Convolutional Neural Network, the graph or interconnections between the modules cannot have loops. There exists at least a partial order among the modules such that the inputs are available when we compute the outputs.;Dans un ConvNet, le graphe ou les interconnexions entre les modules ne peuvent pas avoir de boucles. Il existe au moins un ordre partiel entre les modules, de sorte que les entrées sont disponibles lorsque nous calculons les sorties. As shown in Figure 1, there are loops in Recurrent Neural Networks.;Comme le montre la figure 1, il existe des boucles dans les réseaux neuronaux récurrents. x(t) : input that varies across time;x(t) : entrée qui varie dans le temps Enc(x(t)): encoder that generates a representation of input;Enc(x(t)) : encodeur qui génère une représentation de l’entrée h(t): a representation of the input;h(t) : une représentation de l’entrée w: trainable parameters;w : paramètres pouvant être entraînés z(t−1): previous hidden state, which is the output of the previous time step;z(t−1) : état caché précédent, qui est la sortie du pas de temps précédent z(t): current hidden state;z(t) : état caché actuel "g: function that can be a complicated neural network; one of the inputs is z(t−1 which is the output of the previous time step";g : fonction qui peut être un réseau de neurones compliqué. L’une des entrées est z(t−1) qui est la sortie du pas de temps précédent Dec(z(t)): decoder that generates an output;Dec(z(t)) : décodeur qui génère une sortie Recurrent Networks: Unroll the loop;Réseaux récurrents dépliés Unroll the loop in time. The input is a sequence x1,x2,⋯ ,xT.;L’entrée est une séquence x1,x2,⋯ ,xT​. In Figure 2, the input is x1,x2,x3.;Dans la figure 2, l’entrée est x1,x2,x3​. At time t=0, the input x(0) is passed to the encoder and it generates the representation h(x(0))=Enc(x(0)) and then passes it to G to generate hidden state z(0)=G(h0,z’,w). At t=0, z’ in G can be initialized as 0 or randomly initialized. z(0) is passed to decoder to generate an output and also to the next time step.;Au temps t=0, l’entrée x(0) est passée à l’encodeur qui génère la représentation h(x(0))=Enc(x(0)). Puis il la passe à G pour générer l’état caché z(0)=G(h0​,z’,w). À t=0, z’ dans G peut être initialisé comme valant 0 ou de manière aléatoire. z(0) est passé au décodeur pour générer une sortie mais aussi au pas de temps suivant. As there are no loops in this network, and we can implement backpropagation.;Comme il n’y a pas de boucles dans ce réseau nous pouvons mettre en œuvre la rétropropagation. Figure 2 shows a regular network with one particular characteristic: every block shares the same weights. Three encoders, decoders and G functions have same weights respectively across different time steps.;La figure 2 montre un réseau avec une caractéristique particulière : chaque bloc partage les mêmes poids. Trois encodeurs, décodeurs et fonctions G ont respectivement les mêmes poids sur différents pas de temps. BPTT: Backprop through time. Unfortunately, BPTT doesn’t work so well in the naive form of RNN.;Malheureusement, la rétropropagation à travers le temps (BPTT pour Backpropagation through time) ne fonctionne pas aussi bien dans la forme naïve du RNN. Problems with RNNs:;Il existe des problèmes avec les RNNs : 1. Vanishing gradients;1. La disparition du gradient In a long sequence, the gradients get multiplied by the weight matrix (transpose) at every time step. If there are small values in the weight matrix, the norm of gradients get smaller and smaller exponentially.;Dans une longue séquence, les gradients sont multipliés par la matrice de poids (transposée) à chaque pas de temps. S’il y a de petites valeurs dans la matrice de poids, la norme des gradients devient de plus en plus petite de manière exponentielle. 2. Exploding gradients;2. L’explosion du gradient If we have a large weight matrix and the non-linearity in the recurrent layer is not saturating, the gradients will explode. The weights will diverge at the update step. We may have to use a tiny learning rate for the gradient descent to work.;Si nous avons une grande matrice de poids et que la non-linéarité dans la couche récurrente n’est pas saturée, les gradients vont exploser. Les poids divergeront à l’étape de mise à jour. Il se peut que nous devions utiliser un taux d’apprentissage minuscule pour que la descente des gradients fonctionne. One reason to use RNNs is for the advantage of remembering information in the past. However, it could fail to memorize the information long ago in a simple RNN without tricks.;L’une des raisons d’utiliser les RNNs est l’avantage de pouvoir se souvenir des informations du passé. Cependant, cette mémoire peut être limitée. An example that has vanishing gradient problem:;Un exemple étant le problème de la disparition des gradients. The input is the characters from a C Program. The system will tell whether it is a syntactically correct program. A syntactically correct program should have a valid number of braces and parentheses. Thus, the network should remember how many open parentheses and braces there are to check, and whether we have closed them all. The network has to store such information in hidden states like a counter. However, because of vanishing gradients, it will fail to preserve such information in a long program.;Considérons une entrée constituée des caractères d’un programme en langage C. Le système doit indiquer s’il s’agit d’un programme syntaxiquement correct. Un programme syntaxiquement correct doit avoir un nombre valide d’accolades et de parenthèses. Ainsi, le réseau doit se souvenir du nombre de parenthèses et d’accolades ouvertes à vérifier et si elles sont bien toutes fermées. Le réseau doit stocker ces informations dans des états cachés comme un compteur. Cependant, en raison de la disparition des gradients, il ne parviendra pas à conserver ces informations dans un long programme. RNN Tricks;Astuces pour les RNNs clipping gradients: (avoid exploding gradients) Squash the gradients when they get too large.;On peut couper les gradients pour éviter l’explosion, les écraser lorsqu’ils deviennent trop importants. Initialization (start in right ballpark avoids exploding/vanishing) Initialize the weight matrices to preserve the norm to some extent. For example, orthogonal initialization initializes the weight matrix as a random orthogonal matrix.;On peut jouer sur l’initialisation (commencer à droite évite l’explosion/la disparition). Initialiser les matrices de poids pour préserver la norme dans une certaine mesure. Par exemple, l’initialisation orthogonale initialise la matrice de poids comme une matrice orthogonale aléatoire. Multiplicative Modules;Modules multiplicatifs In multiplicative modules rather than only computing a weighted sum of inputs, we compute products of inputs and then compute weighted sum of that.;Dans les modules multiplicatifs, plutôt que de calculer uniquement une somme pondérée d’entrées, nous calculons les produits des entrées et nous calculons ensuite la somme pondérée de celles-ci. The output of the system is a classic weighted sum of inputs and weights. Weights themselves are also weighted sums of weights and inputs.;La sortie du système est une somme pondérée classique d’entrées et de poids. Les poids eux-mêmes sont également des sommes pondérées de poids et d’entrées. Hypernetwork architecture: weights are computed by another network.;Architecture d’hyper-réseau : les poids sont calculés par un autre réseau. Attention;Attention x1​ and x2​ are vectors, w1​ and w2​ are scalars after softmax where w1+w2=1, and w1​ and w2​ are between 0 and 1.;x1​ et x2​ sont des vecteurs, w1 et w2 sont des scalaires après softmax où w1​+w2​=1, et w1 et w2 sont compris entre 0 et 1. w1​x1​+w2​x2​ is a weighted sum of x1​ and x2​ weighted by coefficients w1​ and w2​.;w1​x1​+w2​x2​ est une somme pondérée de x1 et x2​ pondérée par les coefficients w1 et w2​. By changing the relative size of w1​ and w2​, we can switch the output of w1​x1​+w2​x2​ to x1 or x2​ or some linear combinations of x1​ and x2.;En modifiant la taille relative de w1​ et w2​, nous pouvons faire passer la sortie de w1x1+w2x2​ à x1 ou x2​ ou à certaines combinaisons linéaires de x1​ et x2. The inputs can have multiple x vectors (more than x1​ and x2​). The system will choose an appropriate combination, the choice of which is determined by another variable z. An attention mechanism allows the neural network to focus its attention on particular input(s) and ignore the others.;Les entrées peuvent avoir plusieurs vecteurs x (plus de x1​ et x2​). Le système choisira une combinaison appropriée, dont le choix est déterminé par une autre variable z. Un mécanisme d’attention permet au réseau neuronal de concentrer son attention sur une ou plusieurs entrées particulières et d’ignorer les autres. Attention is increasingly important in NLP systems that use transformer architectures or other types of attention.;L’attention est de plus en plus importante dans les systèmes de traitement du langage naturel qui utilisent des architectures de type transformers ou d’autres types d’attention (point abordé à la semaine 12). The weights are data independent because z is data independent.;Les poids sont indépendants des données car z est indépendant des données. Gated Recurrent Units (GRU);Les Gated Recurrent Units (GRUs) As mentioned above, RNN suffers from vanishing/exploding gradients and can’t remember states for very long. GRU, Cho, 2014, is an application of multiplicative modules that attempts to solve these problems. It’s an example of recurrent net with memory (another is LSTM). The structure of A GRU unit is shown below:;Comme mentionné ci-dessus, le RNN souffre de la disparition/explosion des gradients et ne se souvient pas des états pendant très longtemps. Les GRUS de Cho et al. (2014), sont une application de modules multiplicatifs qui tente de résoudre ces problèmes. C’est un exemple de réseau récurrent avec mémoire. La structure d’une unité GRU est présentée ci-dessous : where ⊙ denotes element-wise multiplication(Hadamard product), xt​ is the input vector, ht​ is the output vector, zt​ is the update gate vector, rtr is the reset gate vector, ϕh​ is a hyperbolic tanh, and W,U,b are learnable parameters.;où ⊙ indique une multiplication élément par élément (produit Hadamard), xt est le vecteur d’entrée, ht​ est le vecteur de sortie, zt​ est le vecteur de mise à jour, rt​ est le vecteur de réinitialisation, ϕh​ est une tanh, et W,U,b sont des paramètres pouvant être appris. To be specific, zt​ is a gating vector that determines how much of the past information should be passed along to the future. It applies a sigmoid function to the sum of two linear layers and a bias over the input xt​ and the previous state ht−1​. zt​ contains coefficients between 0 and 1 as a result of applying sigmoid. The final output state ht​ is a convex combination of ht−1​ and ϕh(Wh​xt​+Uh​(rt​⊙ht−1​)+bh​) via zt​. If the coefficient is 1, the current unit output is just a copy of the previous state and ignores the input (which is the default behaviour). If it is less than one, then it takes into account some new information from the input.;Pour être précis, zt​ est un vecteur de porte qui détermine quelle part des informations passées doit être transmise dans la suite. Il applique une fonction sigmoïde à la somme de deux couches linéaires et un biais sur l’entrée xt​ et l’état précédent ht−1​. zt​ contient des coefficients entre 0 et 1 résultant de l’application de la fonction sigmoïde. L’état final de sortie ht​ est une combinaison convexe de ht−1​ et de ϕh​(Wh​xt​+Uh​(rt​⊙ht−1​)+bh​) via zt​. Si le coefficient est égal à 1, la sortie de l’unité actuelle n’est qu’une copie de l’état précédent et ignore l’entrée (ce qui est le comportement par défaut). S’il est inférieur à 1, il prend en compte de nouvelles informations provenant de l’entrée. The reset gate rt is used to decide how much of the past information to forget. In the new memory content ϕh​(Wh​xt​+Uh​(rt​⊙ht−1​)+bh​), if the coefficient in rt​ is 0, then it stores none of the information from the past. If at the same time zt​ is 0, then the system is completely reset since ht​ would only look at the input.;La porte de réinitialisation rt​ est utilisée pour décider quelle quantité d’informations passées doit être oubliée. Dans le nouveau contenu de la mémoire ϕh​(Wh​xt​+Uh​(rt​⊙ht−1​)+bh​), si le coefficient dans rt​ est 0, alors il ne stocke aucune des informations du passé. Si en plus zt​ vaut 0, alors le système est complètement réinitialisé puisque ht​ ne regarderait que l’entrée. LSTM (Long Short-Term Memory);Les LSTMs (Long Short-Term Memory) GRU is actually a simplified version of LSTM which came out much earlier, Hochreiter, Schmidhuber, 1997. By building up memory cells to preserve past information, LSTMs also aim to solve long term memory loss issues in RNNs. The structure of LSTMs is shown below:;Les GRUs sont en fait une version simplifiée des LSTMs qui ont été conçues beaucoup plus tôt par Hochreiter et Schmidhuber (1997). En constituant des cellules de mémoire pour préserver les informations passées, les LSTMs visent également à résoudre les problèmes de perte de mémoire à long terme des RNNs. La structure des LSTMs est présentée ci-dessous : where ⊙ denotes element-wise multiplication, xt​∈Ra is an input vector to the LSTM unit, ft​∈Rh is the forget gate’s activation vector, it​∈Rh is the input/update gate’s activation vector, ot​∈Rh is the output gate’s activation vector, ht​∈Rh is the hidden state vector (also known as output), ct​∈Rh is the cell state vector.;où ⊙ indique une multiplication élément par élément, xt​∈Ra est un vecteur d’entrée de l’unité LSTM, ft​∈Rh est le vecteur d’activation de la porte d’oubli, it​∈Rh est le vecteur d’activation de la porte d’entrée/mise à jour, ot​∈Rh est le vecteur d’activation de la porte de sortie, ht​∈Rh est le vecteur d’état caché (également appelé sortie), ct​∈Rh est le vecteur d’état de la cellule. An LSTM unit uses a cell state ct​ to convey the information through the unit. It regulates how information is preserved or removed from the cell state through structures called gates. The forget gate ft​ decides how much information we want to keep from the previous cell state ct−1​ by looking at the current input and previous hidden state, and produces a number between 0 and 1 as the coefficient of ct−1. tanh(Wc​xt​+Uc​ht−1​+bc​) computes a new candidate to update the cell state, and like the forget gate, the input gate itit​ decides how much of the update to be applied. Finally, the output ht​ will be based on the cell state ct​, but will be put through a tanh then filtered by the output gate ot.;Une unité LSTM utilise un état de cellule ctct​ pour transmettre l’information. Elle régule la manière dont l’information est préservée ou retirée de l’état de la cellule par des structures appelées gates (portes). La porte d’oubli ftft​ décide de la quantité d’informations que nous voulons conserver de l’état de cellule précédent ct−1ct−1​ en regardant l’entrée actuelle et l’état caché précédent. Elle produit un nombre entre 0 et 1 comme coefficient de ct−1ct−1​. tanh⁡(Wcxt+Ucht−1+bc)tanh(Wc​xt​+Uc​ht−1​+bc​) calcule un nouveau candidat pour mettre à jour l’état de la cellule. Comme la porte d’oubli, la porte d’entrée itit​ décide de la part de mise à jour à appliquer. Enfin, la sortie htht​ est basée sur l’état de la cellule ctct​, mais passe par une tanh⁡tanh puis est filtrée par la porte de sortie otot​. Though LSTMs are widely used in NLP, their popularity is decreasing. For example, speech recognition is moving towards using temporal CNN, and NLP is moving towards using transformers.;Bien que les LSTMs soient largement utilisés en traitement du langage naturel, leur popularité est en baisse. Par exemple, la reconnaissance vocale se dirige vers l’utilisation de ConvNets temporels et les autres utilisations se dirigent vers l’utilisation de transformers. Sequence to Sequence Model;Modèle de séquence à séquence The approach proposed by Sutskever NIPS 2014 is the first neural machine translation system to have comparable performance to classic approaches. It uses an encoder-decoder architecture where both the encoder and decoder are multi-layered LSTMs.;L’approche proposée par Sutskever (2014) est le premier système de traduction automatique neuronale à avoir des performances comparables aux approches classiques. Elle utilise une architecture d’encodeur-décodeur où l’encodeur et le décodeur sont tous deux des LSTMs multicouches. Each cell in the figure is an LSTM. For the encoder (the part on the left), the number of time steps equals the length of the sentence to be translated. At each step, there is a stack of LSTMs (four layers in the paper) where the hidden state of the previous LSTM is fed into the next one. The last layer of the last time step outputs a vector that represents the meaning of the entire sentence, which is then fed into another multi-layer LSTM (the decoder), that produces words in the target language. In the decoder, the text is generated in a sequential fashion. Each step produces one word, which is fed as an input to the next time step.;Chaque cellule de la figure est une LSTM. Pour l’encodeur (la partie de gauche), le nombre de pas de temps est égal à la longueur de la phrase à traduire. À chaque pas, il y a une pile de LSTMs (quatre couches dans la publication) où l’état caché de la LSTM précédente est introduit dans le suivante. La dernière couche du dernier pas de temps produit un vecteur qui représente le sens de la phrase entière et est ensuite introduit dans une autre LSTM multicouche (le décodeur) produisant des mots dans la langue cible. Dans le décodeur, le texte est généré de manière séquentielle. Chaque étape produit un mot, qui est introduit dans l’étape de temps suivante. This architecture is not satisfying in two ways: First, the entire meaning of the sentence has to be squeezed into the hidden state between the encoder and decoder. Second, LSTMs actually do not preserve information for more than about 20 words. The fix for these issues is called a Bi-LSTM, which runs two LSTMs in opposite directions. In a Bi-LSTM the meaning is encoded in two vectors, one generated by running LSTM from left to right, and another from right to left. This allows doubling the length of the sentence without losing too much information.;Cette architecture n’est pas satisfaisante à deux égards. Premièrement, le sens entier de la phrase doit être comprimé dans l’état caché entre l’encodeur et le décodeur. Deuxièmement, les LSTMs ne préservent en fait pas l’information sur plus de 20 mots environ. La solution à ces problèmes est appelée un Bi-LSTM, qui fait fonctionner deux LSTMs dans des directions opposées. Dans un Bi-LSTM, la signification est encodée dans deux vecteurs, l’un généré par l’exécution de la LSTM de gauche à droite, et l’autre de droite à gauche. Cela permet de doubler la longueur de la phrase sans perdre trop d’informations. Seq2seq with Attention;Seq2seq avec attention The success of the approach above was short-lived. Another paper by Bahdanau, Cho, Bengio suggested that instead of having a gigantic network that squeezes the meaning of the entire sentence into one vector, it would make more sense if at every time step we only focus the attention on the relevant locations in the original language with equivalent meaning, i.e. the attention mechanism.;Le succès de l’approche ci-dessus a été de courte durée. Un autre document de Bahdanau, Cho, Bengio a suggéré qu’au lieu d’avoir un gigantesque réseau qui réduit le sens de la phrase entière en un seul vecteur, il serait plus logique qu’à chaque étape, nous concentrions l’attention uniquement sur les endroits pertinents dans la langue originale ayant un sens équivalent. C’est ce qu’on appelle le mécanisme d’attention. In Attention, to produce the current word at each time step, we first need to decide which hidden representations of words in the input sentence to focus on. Essentially, a network will learn to score how well each encoded input matches the current output of the decoder. These scores are normalized by a softmax, then the coefficients are used to compute a weighted sum of the hidden states in the encoder at different time steps. By adjusting the weights, the system can adjust the area of inputs to focus on. The magic of this mechanism is that the network used to compute the coefficients can be trained through backpropagation. There is no need to build them by hand!;Avec l’attention, pour produire le mot courant à chaque pas de temps, nous devons d’abord décider sur quelles représentations cachées des mots de la phrase d’entrée nous devons nous concentrer. Essentiellement, un réseau apprendra à évaluer dans quelle mesure chaque entrée codée correspond à la sortie actuelle du décodeur. Ces scores sont normalisés par une fonction softmax, puis les coefficients sont utilisés pour calculer une somme pondérée des états cachés dans l’encodeur à différents pas de temps. En ajustant les pondérations, le système peut ajuster la zone des entrées sur laquelle se concentrer. La magie de ce mécanisme est que le réseau utilisé pour calculer les coefficients peut être entraîné par rétropropagation. Il n’est pas nécessaire de les construire à la main ! Attention mechanisms completely transformed neural machine translation. Later, Google published a paper Attention Is All You Need, and they put forward transformer, where each layer and group of neurons is implementing attention.;Les mécanismes d’attention ont complètement transformé la traduction automatique des neurones. Plus tard en 2017, une équipe de Google a proposé le transformer, où chaque couche et groupe de neurones met en œuvre l’attention. Memory network;Réseaux mémoire Memory networks stem from work at Facebook that was started by Antoine Bordes in 2014 and Sainbayar Sukhbaatar in 2015.;Les réseaux mémoire sont issus du travail de Facebook, lancé par Antoine Bordes en 2014 et Sainbayar Sukhbaatar en 2015. The idea of a memory network is that there are two important parts in your brain: one is the cortex, which is where you have long term memory. There is a separate chunk of neurons called the hippocampus which sends wires to nearly everywhere in the cortex. The hippocampus is thought to be used for short term memory, remembering things for a relatively short period of time. The prevalent theory is that when you sleep, there is a lot of information transferred from the hippocampus to the cortex to be solidified in long term memory since the hippocampus has limited capacity.;L’idée d’un réseau mémoire est qu’il y a deux parties importantes dans le cerveau. La première est le cortex, qui est l’endroit où est la mémoire à long terme. L’autre est l’hippocampe qui envoie des « fils » presque partout dans le cortex. On pense que l’hippocampe est utilisé pour la mémoire à court terme, se souvenant de choses pendant une période relativement courte. La théorie dominante est que lorsque l’on dort, il y a beaucoup d’informations transférées de l’hippocampe au cortex pour être consolidées dans la mémoire à long terme puisque l’hippocampe a une capacité limitée. For a memory network, there is an input to the network, x (think of it as an address of the memory), and compare this x with vectors k1​,k2​,k3​,⋯ (“keys”) through a dot product. Put them through a softmax, what you get are an array of numbers which sum to one. And there are a set of other vectors v1​,v2​,v3​,⋯ (“values”). Multiply these vectors by the scalers from softmax and sum these vectors up (note the resemblance to the attention mechanism) gives you the result.;Pour un réseau mémoire, il y a une entrée au réseau, x, qui est comparé à des vecteurs k1,k2,k3,⋯ (« clés ») via un produit scalaire. En les faisant passer par une fonction softmax, on obtient un tableau de nombres dont la somme est égale à un. Il y a un ensemble d’autres vecteurs v1​,v2​,v3​,⋯ (« valeurs »). On multiplie ces vecteurs par les scalaires provenant de la softmax et l’addition de ces vecteurs donne le résultat (mécanisme ressemblant fortement à l’attention). If one of the keys (e.g. ki​) exactly matches x, then the coefficient associated with this key will be very close to one. So the output of the system will essentially be vi​.;Si l’une des clés (par exemple ki​) correspond exactement à x, alors le coefficient associé à cette clé sera très proche de 1. La sortie du système sera donc grossièrement vi. This is addressable associative memory. Associative memory is that if your input matches a key, you get that value. And this is just a soft differentiable version of it, which allows you to backpropagate and change the vectors through gradient descent.;Il s’agit de la mémoire associative adressable. La mémoire associative est que si l’entrée correspond à une clé, nous obtenons cette valeur. Et ce n’est qu’une version différentiable douce, ce qui permet de faire une rétropropagation et de changer les vecteurs par descente de gradient. What the authors did was tell a story to a system by giving it a sequence of sentences. The sentences are encoded into vectors by running them through a neural net that has not been pretrained. The sentences are returned to the memory of this type. When you ask a question to the system, you encode the question and put it as the input of a neural net, the neural net produces an x to the memory, and the memory returns a value.;Les auteurs ont donné une histoire au système en lui donnant une séquence de phrases. Les phrases sont encodées en vecteurs en les faisant passer à travers un réseau neuronal qui n’a pas été pré-entraîné. Les phrases sont renvoyées à la mémoire. Lorsqu’on pose une question au système, elle est encodée puis est passée dans le réseau mémoire qui produit un x et la mémoire renvoie une valeur. This value, together with the previous state of the network, is used to re-access the memory. After extensive training, this model actually learns to store stories and answer questions.;Cette valeur (ainsi que l’état précédent du réseau) est utilisée pour accéder à nouveau à la mémoire. Après un apprentissage intensif, ce modèle apprend en fait à stocker des histoires et à répondre à des questions. In memory network, there is a neural net that takes an input and then produces an address for the memory, gets the value back to the network, keeps going, and eventually produces an output. This is very much like computer since there is a CPU and an external memory to read and write.;Dans un réseau mémoire, il y a un réseau neuronal qui prend une entrée et produit ensuite une adresse pour la mémoire, renvoie la valeur au réseau, continue et produit finalement une sortie. Cela ressemble beaucoup à un ordinateur puisqu’il y a une unité centrale et une mémoire externe pour lire et écrire. There are people who imagine that you can actually build differentiable computers out of this. One example is the Neural Turing Machine from DeepMind, which was made public three days after Facebook’s paper was published on arXiv.;Des gens pensent qu’on peut en fait construire des ordinateurs différentiables à partir de cela. Un exemple est la Neural Turing Machine de DeepMind, qui a été rendue publique sur arXiv trois jours après la publication de l’article de Facebook. The idea is to compare inputs to keys, generate coefficients, and produce values - which is basically what a transformer is. A transformer is basically a neural net in which every group of neurons is one of these networks.;L’idée est de comparer des entrées à des clés, de générer des coefficients et de produire des valeurs. C’est ce que fait basiquement un transformer. Un transformer est essentiellement un réseau de neurones dans lequel chaque groupe de neurones est l’un de ces réseaux. Architecture of RNN and LSTM Model;Architectures des RNNs et des LSTMs Overview;Vue d’ensemble RNN is one type of architecture that we can use to deal with sequences of data. What is a sequence? From the CNN lesson, we learned that a signal can be either 1D, 2D or 3D depending on the domain. The domain is defined by what you are mapping from and what you are mapping to. Handling sequential data is basically dealing with 1D data since the domain is the temporal axis. Nevertheless, you can also use RNN to deal with 2D data, where you have two directions.;Le RNN est un type d’architecture que nous pouvons utiliser pour traiter des séquences de données. Qu’est-ce qu’une séquence ? Le cours sur le RNN nous a appris qu’un signal peut être soit 1D, 2D ou 3D selon le domaine. Le domaine est défini par le point de départ et le point d’arrivée. Le traitement des données séquentielles concerne essentiellement les données 1D puisque le domaine est l’axe temporel. Néanmoins, il est possible d’utiliser le RNN pour traiter des données 2D où il y a deux directions. Vanilla vs. Recurrent NN;Architecture standard vs le RNN Figure 1 is a vanilla neural network diagram with three layers. “Vanilla” is an American term meaning plain. The pink bubble is the input vector x, in the center is the hidden layer in green, and the final blue layer is the output. Using an example from digital electronics on the right, this is like a combinational logic, where the current output only depends on the current input.;La figure 1 est un diagramme de réseau de neurones vanilla avec trois couches. « Vanilla » est un terme américain signifiant « standard / de base ». La bulle rose est le vecteur d’entrée x, au centre se trouve la couche cachée en vert et la dernière couche bleue est la sortie. En utilisant un exemple d’électronique numérique sur la droite de la figure, c’est comme une logique combinatoire où le courant de sortie ne dépend que du courant d’entrée. In contrast to a vanilla neural network, in recurrent neural networks the current output depends not only on the current input but also on the state of the system, shown in Figure 2. This is like a sequential logic in digital electronics, where the output also depends on a “flip-flop” (a basic memory unit in digital electronics). Therefore the main difference here is that the output of a vanilla neural network only depends on the current input, while the one of RNN depends also on the state of the system.;Contrairement à un réseau de neurones standard, dans les RNNs la sortie du courant dépend non seulement de l’entrée mais aussi de l’état du système, comme le montre la figure 2. C’est comme une logique séquentielle en électronique numérique, où la sortie dépend également d’un interrupteur (une unité de mémoire de base dans l’électronique numérique). La principale différence ici est donc que la sortie d’un réseau neuronal standard ne dépend que de l’entrée, tandis que celle d’un RNN dépend également de l’état du système. Yann’s diagram adds these shapes between neurons to represent the mapping between one tensor and another(one vector to another). For example, in Figure 3, the input vector x will map through this additional item to the hidden representations h. This item is actually an affine transformation i.e. rotation plus distortion. Then through another transformation, we get from the hidden layer to the final output. Similarly, in the RNN diagram, you can have the same additional items between neurons.;Le diagramme utilisé par Yann ajoute des formes entre les neurones pour représenter l’association entre un tenseur et un autre (un vecteur à un autre). Par exemple, dans la figure 3, le vecteur d’entrée x va correspondre à travers cet élément supplémentaire aux représentations cachées hh. Cet élément est en fait une transformation affine, c’est-à-dire une rotation plus une distorsion. Ensuite, par une autre transformation, nous passons de la couche cachée à la sortie finale. De même, dans le diagramme RNN, il est possible d’avoir les mêmes éléments supplémentaires entre les neurones. Four types of RNN Architectures and Examples;Quatre types d’architectures RNN et des exemples The first case is vector to sequence. The input is one bubble and then there will be evolutions of the internal state of the system annotated as these green bubbles. As the state of the system evolves, at every time step there will be one specific output.;Le premier cas est celui du « vector to sequence » (un vecteur en entrée du réseau et on obtient une sequence en sortie). L’entrée est la bulle rose. La succession des états internes du système est représentée par les bulles vertes. À mesure que l’état du système évolue, il y a une sortie spécifique à chaque étape, représentée par une bulle bleue. An example of this type of architecture is to have the input as one image while the output will be a sequence of words representing the English descriptions of the input image. To explain using Figure 6, each blue bubble here can be an index in a dictionary of English words. For instance, if the output is the sentence “This is a yellow school bus”. You first get the index of the word “This” and then get the index of the word “is” and so on. Some of the results of this network are shown below. For example, in the first column the description regarding the last picture is “A herd of elephants walking across a dry grass field.”, which is very well refined. Then in the second column, the first image outputs “Two dogs play in the grass.”, while it’s actually three dogs. In the last column are the more wrong examples such as “A yellow school bus parked in a parking lot.” In general, these results show that this network can fail quite drastically and perform well sometimes. This is the case that is from one input vector, which is the representation of an image, to a sequence of symbols, which are for example characters or words making up the English sentences. This kind of architecture is called an autoregressive network. An autoregressive network is a network which gives an output given that you feed as input the previous output.;Un exemple de ce type d’architecture est d’avoir comme entrée une image et comme sortie une séquence de mots représentant les descriptions de l’image d’entrée. Pour expliquer l’utilisation de la figure 6, chaque bulle bleue peut être un index dans un dictionnaire de mots. Par exemple, si la sortie est la phrase « This is a yellow school bus » (« C’est un bus scolaire jaune »). Vous obtenez d’abord l’index du mot « This », puis l’index du mot « is », et ainsi de suite. Certains des résultats de ce réseau sont présentés ci-dessous. Par exemple, dans la première colonne, la description concernant la dernière image est « A herd of elephants walking across a dry grass field » (« Un troupeau d’éléphants marchant à travers un champ d’herbe sèche »), ce qui est très bien précisé. Ensuite, dans la deuxième colonne, la première image donne « Two dogs play in the grass » (« Deux chiens jouent dans l’herbe »), alors qu’il s’agit en fait de trois chiens. Dans la dernière colonne, on trouve les exemples les plus erronés comme « A yellow school bus parked in a parking lot » (« Un bus scolaire jaune garé dans un parking »). En général, ces résultats montrent que ce réseau peut échouer de manière assez radicale et être parfois performant. C’est le cas d’un vecteur d’entrée, qui est la représentation d’une image, à une séquence de symboles, qui sont par exemple des caractères ou des mots composant les phrases. Ce type d’architecture est appelé un réseau autorégressif. Un réseau autorégressif est un réseau qui donne une sortie lorsque vous alimentez comme entrée la sortie précédente. The second type is sequence to a final vector. This network keeps feeding a sequence of symbols and only at the end gives a final output. An application of this can be using the network to interpret Python. For example, the input are these lines of Python program.;Le second type est le « sequence to vector ». Ce réseau continue de donner une séquence de symboles et renvoie à la fin qu’une sortie finale. Une application de ce type peut être l’utilisation d’un réseau pour interpréter Python. Par exemple, les entrées sont ces lignes du programme Python. Then the network will be able to output the correct solution of this program. Another more complicated program like this:;Le réseau est alors en mesure de produire la solution correcte de ce programme. Un autre programme plus compliqué : Then the output should be 12184. These two examples display that you can train a neural network to do this kind of operation. We just need to feed a sequence of symbols and enforce the final output to be a specific value.;La sortie devrait être 12184. Ces deux exemples montrent que l’on peut entraîner un réseau de neurones à effectuer ce genre d’opération. Il suffit de donner une séquence de symboles et de faire en sorte que la sortie finale soit une valeur spécifique. The third is sequence to vector to sequence, shown in Figure 10. This architecture used to be the standard way of performing language translation. You start with a sequence of symbols here shown in pink. Then everything gets condensed into this final h, which represents a concept. For instance, we can have a sentence as input and squeeze it temporarily into a vector, which is representing the meaning and message that to send across. Then after getting this meaning in whatever representation, the network unrolls it back into a different language. For example “Today I’m very happy” in a sequence of words in English can be translated into Italian or Chinese. In general, the network gets some kind of encoding as inputs and turns them into a compressed representation. Finally, it performs the decoding given the same compressed version. In recent times we have seen networks like Transformers, which we will cover in the next lesson, outperform this method at language translation tasks. This type of architecture used to be the state of the art about two years ago (2018).;Le troisième cas est « sequence to vector to sequence », comme le montre la figure 10. Cette architecture était autrefois la méthode standard pour effectuer les traductions linguistiques. On commence par une séquence de symboles illustrée ici en rose. Ensuite, tout est condensé dans ce h final qui représente un concept. Par exemple, nous pouvons avoir une phrase comme entrée et la comprimer temporairement dans un vecteur, qui représente le sens et le message à transmettre. Ensuite, après avoir obtenu ce sens dans n’importe quelle représentation, le réseau le déroule dans une autre langue. Par exemple, « Today I’m very happy » dans une séquence de mots en anglais peut être traduit en italien ou en chinois. En général, le réseau reçoit une sorte d’encodage en entrée et le transforme en une représentation compressée. Enfin, il effectue le décodage en donnant la même version compressée. Les transformers surpassent cette méthode dans les tâches de traduction. Ce type d’architecture était encore à la pointe de la technologie il y a environ deux ans (2018). If you do a PCA over the latent space, you will have the words grouped by semantics like shown in this graph.;Si l’on effectue une ACP sur l’espace latent, on obtient les mots regroupés par sémantique comme indiqué dans ce graphique : If we zoom in, we will see that the in the same location there are all the months, like January and November.;Si nous faisons un zoom sur la figure 11, nous pouvons voir par exemple que les mois de l’année sont regroupés au même endroit : If you focus on a different region, you get phrases like “a few days ago “ “the next few months” etc.;En se concentrant sur une autre région, on obtient des regroupements de phrases comme « il y a quelques jours », « les prochains mois », etc. From these examples, we see that different locations will have some specific common meanings.;Ces exemples montrent que les différents lieux ont des significations communes spécifiques. Figure 14 showcases how how by training this kind of network will pick up on some semantics features. For exmaple in this case you can see there is a vector connecting man to woman and another between king and queen, which means woman minus man is going to be equal to queen minus king. You will get the same distance in this embeddings space applied to cases like male-female. Another example will be walking to walked and swimming to swam. You can always apply this kind of specific linear transofmation going from one word to another or from country to capital.;La figure 14 montre comment l’entraînement de ce type de réseau permet de saisir certaines caractéristiques sémantiques. Par exemple, dans ce cas, il y a un vecteur reliant « man » à « woman » et un autre entre « king » et « queen ». Cela signifie que « woman » - « man » = « queen » et « king ». On obtient la même distance dans cet espace d’enchâssement pour des cas comme homme-femme. Il est possible d’appliquer ce type de transformation linéaire pour passer d’une conjugaison à une autre ou d’un pays à une capitale. The fourth and final case is sequence to sequence. In this network, as you start feeding in input the network starts generating outputs. An example of this type of architecture is T9, if you remember using a Nokia phone, you would get text suggestions as you were typing. Another example is speech to captions. One cool example is this RNN-writer. When you start typing “the rings of Saturn glittered while”, it suggests the following “two men looked at each other”. This network was trained on some sci-fi novels so that you can just type something and let it make suggestions to help you write a book. One more example is shown in Figure 16. You input the top prompt and then this network will try to complete the rest.;Le quatrième et dernier cas est celui du « sequence to sequence ». Dans ce type de réseau, lorsque on commence à donner les entrées, le réseau commence à générer des sorties. Un exemple est le T9, qui était présent sur les téléphones Nokia. Il fournissait des suggestions de texte pendant que l’on écrivait. Un autre exemple est la génération de sous-titre depuis la voix. Un exemple intéressant est ce « RNN écrivain ». En commençant notre phrase par « Les anneaux de Saturne scintillent pendant que », le réseau suggère « deux hommes se regardent ». Ce réseau a été entraîné sur certains romans de science-fiction. Un autre exemple est présenté à la figure 16. La phrase saisie est celle en haut. Le réseau complète le reste. Back Propagation through time;Rétropropagation à travers le temps Model architecture;Architecture du modèle In order to train an RNN, backpropagation through time (BPTT) must be used. The model architecture of RNN is given in the figure below. The left design uses loop representation while the right figure unfolds the loop into a row over time.;Pour entraîner un RNN, il faut utiliser la rétropropagation à travers le temps. L’architecture du RNN est donnée dans la figure ci-dessous. Le modèle de gauche utilise la représentation pliée tandis que le modèle de droite déplie la boucle en une ligne au fil du temps. Hidden representations are stated as;Les représentations cachées sont indiquées comme suit : The first equation indicates a non-linear function applied on a rotation of a stack version of input where the previous configuration of the hidden layer is appended. At the beginning, h[0] is set 0. To simplify the equation, Wh​ can be written as two separate matrices, [Whx​ Whh​], thus sometimes the transformation can be stated as;La première équation indique une fonction non linéaire appliquée à une rotation d’une version empilée de l’entrée où la configuration précédente de la couche cachée est ajoutée. Au début, h[0] est mis à 0. Pour simplifier l’équation, Wh​ peut être écrit sous forme de deux matrices séparées, [Whx​ Whh​], ainsi parfois la transformation peut être énoncée comme which corresponds to the stack representation of the input.;qui correspond à la représentation empilée de l’entrée. y[t] is calculated at the final rotation and then we can use the chain rule to backpropagate the error to the previous time step.;y[t] est calculée à la rotation finale et nous pouvons alors utiliser la règle de la chaîne pour rétropropager l’erreur au pas de temps précédent. Batch-Ification in Language Modeling;Batch-ification en modélisation du langage When dealing with a sequence of symbols, we can batchify the text into different sizes. For example, when dealing with sequences shown in the following figure, batch-ification can be applied first, where the time domain is preserved vertically. In this case, the batch size is set to 4.;Lorsqu’il s’agit d’une séquence de symboles, nous pouvons regrouper le texte en différentes tailles. Par exemple, lorsqu’il s’agit des séquences illustrées dans la figure suivante, la batch-ification peut être appliquée lorsque le domaine temporel est préservé verticalement. Dans ce cas, la taille du batch est fixée à 4. If BPTT period T is set to 3, the first input x[1:T] and output y[1:T] for RNN is determined as;Si la période T de la rétropropagation à travers le temps est fixée à 3, la première entrée x[1:T] et la sortie y[1:T] pour RNN est déterminée comme When performing RNN on the first batch, firstly, we feed x[1]=[a g m s] into RNN and force the output to be y[1]=[b h n t]. The hidden representation h[1] will be sent forward into next time step to help the RNN predict y[2] from x[2]. After sending h[T−1] to the final set of x[T] and y[T], we cut gradient propagation process for both h[T] and h[0] so that gradients will not propagate infinitely(.detach() in Pytorch). The whole process is shown in figure below.;Lors de l’exécution du RNN sur le premier batch, nous introduisons d’abord x[1]=[a[g[m]s] dans le réseau et forçons la sortie à être y[1]=[b[h[n]t]. La représentation cachée h[1] est envoyée au prochain pas de temps pour aider le RNN à prédire y[2] à partir de x[2]. Après avoir envoyé h[T−1] à l’ensemble final de x[T] et y[T], nous coupons le processus de propagation des gradients pour h[T] et h[0] afin que les gradients ne se propagent pas à l’infini (.detach() en Pytorch). L’ensemble du processus est illustré dans la figure ci-dessous. Vanishing and Exploding Gradient;Disparition et explosion du gradient Problem;Problème The figure above is a typical RNN architecture. In order to perform rotation over previous steps in RNN, we use matrices, which can be regarded as horizontal arrows in the model above. Since the matrices can change the size of outputs, if the determinant we select is larger than 1, the gradient will inflate over time and cause gradient explosion. Relatively speaking, if the eigenvalue we select is small across 0, the propagation process will shrink gradients and leads to the gradient vanishing.;La figure ci-dessus est une architecture RNN standard. Afin d’effectuer une rotation sur les étapes précédentes du RNN, nous utilisons des matrices qui peuvent être considérées comme des flèches horizontales dans la figure ci-dessus. Comme les matrices peuvent modifier la taille des sorties, si le déterminant que nous sélectionnons est supérieur à 1, le gradient gonflera au fil du temps et provoquera une explosion du gradient. Mathématiquement parlant, si la valeur propre que nous sélectionnons est petite par rapport à 0, le processus de propagation réduira les gradients et entraînera la disparition du gradient. In typical RNNs, gradients will be propagated through all the possible arrows, which provides the gradients a large chance to vanish or explode. For example, the gradient at time 1 is large, which is indicated by the bright color. When it goes through one rotation, the gradient shrinks a lot and at time 3, it gets killed.;Dans les RNNs standards, les gradients se propagent à travers toutes les flèches possibles, ce qui leur donne une grande chance de disparaître ou d’exploser. Par exemple, le gradient au temps 1 est grand, ce qui est indiqué par la couleur vive. Lorsqu’il effectue une rotation, le gradient rétrécit beaucoup et au temps 3, il a disparu. Solution;Solution An ideal to prevent gradients from exploding or vanishing is to skip connections. To fulfill this, multiply networks can be used.;L’idéal pour éviter que les gradients n’explosent ou ne disparaissent est de sauter des connexions. Pour y parvenir, on peut utiliser des réseaux de multiplication. In the case above, we split the original network into 4 networks. Take the first network for instance. It takes in a value from input at time 1 and sends the output to the first intermediate state in the hidden layer. The state has 3 other networks where the ∘∘s allows the gradients to pass while the −−s blocks propagation. Such a technique is called gated recurrent network.;Dans le cas ci-dessus, nous avons divisé le réseau initial en 4 réseaux. Prenons le premier réseau par exemple. Il prend une valeur de l’entrée au temps 1 et envoie la sortie au premier état intermédiaire de la couche cachée. L’état a 3 autres réseaux où le ∘∘ permet aux gradients de passer tandis que le −− bloque la propagation. Une telle technique est appelée réseau récurrent à portes. LSTM is one prevalent gated RNN and is introduced in detail in the following sections.;Une LSTM est un RNN à portes et est présentée en détail dans les sections suivantes. Long Short-Term Memory;Long Short-Term Memory Model Architecture;Architecture du modèle Below are equations expressing an LSTM. The input gate is highlighted by yellow boxes, which will be an affine transformation. This input transformation will be multiplying c[t], which is our candidate gate.;Les équations expliquant une LSTM sont visibles dans la figure 22. La porte d’entrée est représentée par des cases jaunes, et sont une transformation affine. Cette transformation d’entrée multiplie c[t], qui est notre porte candidate. Don’t forget gate is multiplying the previous value of cell memory c[t−1]. Total cell value c[t] is don’t forget gate plus input gate. Final hidden representation is element-wise multiplication between output gate o[t] and hyperbolic tangent version of the cell c[t], such that things are bounded. Finally, candidate gate c~[t] is simply a recurrent net. So we have a o[t] to modulate the output, a f[t] to modulate the don’t forget gate, and a i[t] to modulate the input gate. All these interactions between memory and gates are multiplicative interactions. i[t], f[t] and o[t] are all sigmoids, going from zero to one. Hence, when multiplying by zero, you have a closed gate. When multiplying by one, you have an open gate.;La « Don’t forget gate » sur le graphique multiplie la valeur précédente de la cellule mémoire c[t−1]. La valeur totale de la cellule c[t] est égale à la somme de la « Don’t forget gate» et de l’« Input gate ». La représentation cachée finale est une multiplication par élément entre la porte de sortie o[t] et la version tangente hyperbolique de la cellule c[t], de sorte que les valeurs soient limitées. Enfin, la porte candidate c~[t] est simplement un réseau récurrent. Nous avons donc un o[t] pour moduler la sortie, un f[t] pour moduler la porte « don’t forget », et un i[t] pour moduler la porte d’entrée. Toutes ces interactions entre la mémoire et les portes sont des interactions multiplicatives. i[t], f[t] et o[t] sont tous des sigmoïdes, allant de 0 à 1. Par conséquent, en multipliant par 0, vous obtenez une porte fermée. En multipliant par 1, vous avez une porte ouverte. How do we turn off the output? Let’s say we have a purple internal representation thth and put a zero in the output gate. Then the output will be zero multiplied by something, and we get a zero. If we put a one in the output gate, we will get the same value as the purple representation.;Comment éteindre la sortie ? Supposons que nous ayons une représentation interne violette thth et que nous mettions un 0 dans la porte de sortie. La sortie sera alors 0 multiplié par quelque chose ce qui donne 0. Si nous mettons un 1 dans la porte de sortie, nous obtenons la même valeur que la représentation en violet. Similarly, we can control the memory. For example, we can reset it by having f[t]and i[t] to be zeros. After multiplication and summation, we have a zero inside the memory. Otherwise, we can keep the memory, by still zeroing out the internal representation thth but keep a one in f[t]. Hence, the sum gets c[t−1] and keeps sending it out. Finally, we can write such that we can get a one in the input gate, the multiplication gets purple, then set a zero in the don’t forget gate so it actually forget.;De même, nous pouvons contrôler la mémoire. Par exemple, nous pouvons la réinitialiser en faisant en sorte que f[t] et i[t] soient des 0. Après multiplication et sommation, nous avons un 0 dans la mémoire. Sinon, nous pouvons conserver la mémoire, en mettant toujours à 0 la représentation interne th mais en gardant un 1 dans f[t]. Ainsi, la somme obtient c[t−1] et continue à l’envoyer. Enfin, nous pouvons écrire de manière à obtenir un 1 dans la porte d’entrée, la multiplication devient violette, puis mettre un 0 dans la porte « don’t forget » pour qu’elle oublie réellement. Examples;Exemples Sequence Classification;Classification des séquences "The goal is to classify sequences. Elements and targets are represented locally (input vectors with only one non-zero bit). The sequence begins with an B, ends with a E (the “trigger symbol”), and otherwise consists of randomly chosen symbols from the set {a, b, c, d} except for two elements at positions t1​ and t2​ that are either X or Y. For the DifficultyLevel.HARD case, the sequence length is randomly chosen between 100 and 110, t1t1​ is randomly chosen between 10 and 20, and t2t2​ is randomly chosen between 50 and 60. There are 4 sequence classes Q, R, S, and U, which depend on the temporal order of X and Y. The rules are: X, X -> Q; X, Y -> R; Y, X -> S; Y, Y -> U.";"Cette section se réfère au code du notebook Jupyter trouvable ici pour la version en anglais et ici pour la version en français. L’objectif est de classer les séquences. Les éléments et les cibles sont représentés localement (vecteurs d’entrée avec un seul bit non nul). La séquence commence par un B (pour begins en anglais), se termine par un E (pour ends en anglais) qui le symbole déclencheur. Sinon la séquence est constituée de symboles choisis au hasard dans l’ensemble {a, b, c, d}, à l’exception de deux éléments aux positions t1 et t2 qui sont soit X soit Y. Dans le cas du DifficultyLevel.HARD, la longueur de la séquence est choisie au hasard entre 100 et 110, t1t1​ est choisi au hasard entre 10 et 20, et t2t2​ est choisi au hasard entre 50 et 60. Il y a 4 classes de séquence Q, R, S, et U, qui dépendent de l’ordre temporel de X et Y. Les règles sont les suivantes : X, X -> Q; X, Y -> R; Y, X -> S; Y, Y -> U." 1). Dataset Exploration;1) Exploration du jeu de données The return type from a data generator is a tuple with length 2. The first item in the tuple is the batch of sequences with shape (32,9,8). This is the data going to be fed into the network. There are eight different symbols in each row (X, Y, a, b, c, d, B, E). Each row is a one-hot vector. A sequence of rows represents a sequence of symbols. The first all-zero row is padding. We use padding when the length of the sequence is shorter than the maximum length in the batch. The second item in the tuple is the corresponding batch of class labels with shape (32,4), since we have 4 classes (Q, R, S, and U). The first sequence is: BbXcXcbE. Then its decoded class label is [1,0,0,0], corresponding to Q.;Le type retourné par un générateur de données est un tuple de longueur 2. Le premier élément du tuple est le batch de séquences de forme (32,9,8). Ce sont les données qui vont être introduites dans le réseau. Il y a huit symboles différents dans chaque ligne (X, Y, a, b, c, d, B, E). Chaque ligne est un vecteur one-hot. Une séquence de lignes représente une séquence de symboles. La première ligne entièrement nulle est un rembourrage. Nous utilisons le rembourrage lorsque la longueur de la séquence est plus courte que la longueur maximale du batch. Le deuxième élément du tuple est le batch correspondant aux labels des classes de forme (32,4), puisque nous avons 4 classes (Q, R, S, et U). La première séquence est : BbXcXcbE. Ensuite, son label décodé est [1,0,0,0], ce qui correspond à Q. 2). Defining the Model and Training;2) Définition du modèle et entraînement Let’s create a simple recurrent network, an LSTM, and train for 10 epochs. In the training loop, we should always look for five steps:;Créons un simple réseau récurrent, une LSTM, et entraînons-les sur 10 époques. Dans la boucle d’entraînement, nous devons toujours regarder cinq étapes : Perform the forward pass of the model;Effectuer la passe en avant du modèle Compute the loss;Calculer la perte Zero the gradient cache;Remettre à zéro le cache des gradients Backpropagate to compute the partial derivative of loss with regard to parameters;Rétropropager pour calculer la dérivée partielle de la perte en fonction des paramètres Step in the opposite direction of the gradient;Aller dans le sens inverse du gradient With an easy level of difficulty, RNN gets 50% accuracy while LSTM gets 100% after 10 epochs. But LSTM has four times more weights than RNN and has two hidden layers, so it is not a fair comparison. After 100 epochs, RNN also gets 100% accuracy, taking longer to train than the LSTM.;Avec un niveau de difficulté facile, RNN obtient une précision de 50% tandis que LSTM obtient 100% après 10 époques. Mais la LSTM a quatre fois plus de poids que le RNN et possède deux couches cachées, ce qui ne permet pas une comparaison équitable. Après 100 époques, le RNN obtient également une précision de 100 %, ce qui prend plus de temps que la LSTM pour s’entraîner. If we increase the difficulty of the training part (using longer sequences), we will see the RNN fails while LSTM continues to work.;Si nous augmentons la difficulté de l’entraînement (en utilisant des séquences plus longues), le RNN échouera alors que la LSTM continuera de fonctionner. The above visualization is drawing the value of hidden state over time in LSTM. We will send the inputs through a hyperbolic tangent, such that if the input is below −2.5, it will be mapped to −1, and if it is above 2.5, it will be mapped to 1. So in this case, we can see the specific hidden layer picked on X (fifth row in the picture) and then it became red until we got the other X. So, the fifth hidden unit of the cell is triggered by observing the X and goes quiet after seeing the other X. This allows us to recognize the class of sequence.;La visualisation ci-dessus donne la valeur de l’état caché au fil du temps dans la LSTM. Nous passons les entrées dans une tangente hyperbolique, de sorte que si l’entrée est inférieure à −2,5, elle sera mise en correspondance avec −1 et si elle est supérieure à 2,5, elle sera mise en correspondance avec 1. Dans ce cas, nous pouvons donc voir la couche cachée spécifique choisie sur X (cinquième ligne de l’image), qui devient rouge jusqu’à ce que nous obtenions l’autre X. Ainsi, la cinquième unité cachée de la cellule est déclenchée par l’observation du X et se calme après avoir vu l’autre X. Cela nous permet de reconnaître la classe de la séquence. Signal Echoing;L’écho du signal "Echoing signal n steps is an example of synchronized many-to-many task. For instance, the 1st input sequence is ""1 1 0 0 1 0 1 1 0 0 0 0 0 0 0 0 1 1 1 1 ..."", and the 1st target sequence is ""0 0 0 1 1 0 0 1 0 1 1 0 0 0 0 0 0 0 0 1 ..."". In this case, the output is three steps after. So we need a short-time working memory to keep the information. Whereas in the language model, it says something that hasn’t already been said.";L’écho du signal n étapes est un exemple de tâche synchronisée de plusieurs à plusieurs. Par exemple, la 1ère séquence d’entrée est 1 1 0 0 1 0 1 1 0 0 0 0 0 0 0 0 0 1 1 1 1 ..., et la 1ère séquence cible est 0 0 0 1 1 0 0 1 0 1 1 0 0 0 0 0 0 0 0 0 0 1 .... Dans ce cas, la sortie se fait trois étapes plus tard. Nous avons donc besoin d’une mémoire de travail de courte durée pour conserver les informations. Alors que dans le modèle linguistique, cela revient à dire quelque chose qui n’a pas encore été dit. Before we send the whole sequence to the network and force the final target to be something, we need to cut the long sequence into little chunks. While feeding a new chunk, we need to keep track of the hidden state and send it as input to the internal state when adding the next new chunk. In LSTM, you can keep the memory for a long time as long as you have enough capacity. In RNN, after you reach a certain length, it starts to forget about what happened in the past.;Avant d’envoyer la séquence complète au réseau et de forcer la cible finale à être quelque chose, nous devons couper la longue séquence en petits morceaux. Tout en alimentant un nouveau morceau, nous devons garder une trace de l’état caché et l’envoyer comme entrée à l’état interne lors de l’ajout du nouveau morceau suivant. Dans les LSTMs, vous pouvez conserver la mémoire pendant une longue période tant que vous avez une capacité suffisante. Dans les RNNs, une fois que vous avez atteint une certaine longueur, la mémoire commence à oublier ce qui s’est passé dans le passé. Week 7;Semaine 7 We introduced the concept of the energy-based models and the intention for different approaches other than feed-forward networks. To solve the difficulty of the inference in EBM, latent variables are used to provide auxiliary information and enable multiple possible predictions. Finally, the EBM can generalize to probabilistic model with more flexible scoring functions.;Nous introduisons le concept des modèles à base d’énergie (EBMs pour energy-based models) et l’intention d’adopter des approches différentes autres que les réseaux feed-forward. Pour résoudre la difficulté de l’inférence chez les EBMs, des variables latentes sont utilisées pour fournir des informations auxiliaires et permettre plusieurs prédictions. Enfin, les EBMs peuvent être généralisés aux modèles probabilistes avec des fonctions de notation plus souples. We discussed self-supervised learning, introduced how to train an Energy-based models, discussed Latent Variable EBM, specifically with an explained K-means example. We also introduced Contrastive Methods, explained a denoising autoencoder with a topographic map, the training process, and how it can be used, followed by an introduction to BERT. Finally, we talked about Contrastive Divergence, also explained using a topographic map.;Nous discutons de l’apprentissage autosupervisé, présentons la manière d’entraîné un EBM, discutons de la gestion des variables latentes, en particulier avec l’exemple des K-means. Nous présentons également les méthodes contrastives, expliquons le fonctionnement d’un auto-encodeur débruiteur avec une carte topographique ainsi que le processus d’entraînement et la façon dont il peut être utilisé. Nous poursuivons avec une introduction à BERT. Enfin, nous parlons de la divergence contrastive, également expliquée à l’aide d’une carte topographique. We discussed some applications of Autoencoders and talked about why we want to use them. Then we talked about different architectures of Autoencoders (under or over complete hidden layer), how to avoid overfitting issues and the loss functions we should use. Finally we implemented a standard Autoencoder and a denoising Autoencoder.;Nous discutons de certaines applications des auto-encodeurs et des raisons pour lesquelles nous voulons les utiliser. Nous parlons ensuite des différentes architectures d’auto-encodeurs (sous ou sur une couche cachée complète), de la manière d’éviter les problèmes de surentraînement et des fonctions de perte que nous devrions utiliser. Enfin, nous mettons en place un auto-encodeur standard et un auto-encodeur débruiteur. Energy-Based Models;Modèles à base d’énergie (EBMs) Overview;Vue d’ensemble We will introduce a new framework for defining models. It provides a unifying umbrella that helps define supervised, unsupervised and self-supervised models. Energy-based models observe a set of variables x and output a set of variables y. There are 2 major problems with feed-forward nets:;Nous allons introduire un nouveau cadre pour la définition des modèles. Il fournit un parapluie unificateur qui aide à définir des modèles supervisés, non supervisés et autosupervisé. Les modèles à base d’énergie (EBMs) observent un ensemble de variables x et produisent un ensemble de variables y. Les réseaux feed-forward posent deux problèmes majeurs : 1. What if the inference procedure is a more complex calculation than stacked layers of weighted sums?;1. Que faire si la procédure d’inférence est un calcul plus complexe que des couches empilées de sommes pondérées ? 2. What if there are multiple possible outputs for a single input? Example: Predicting future frames of video. Essentially in a classification net, we train this net to emit a score for each class. However, this is not possible to do in a continuous high dimensional domain like images. (We cannot have softmax over images!). Even if the output is discrete, it could have a large sample space. For example, the text is compositional leading to a huge number of possible combinations. Energy-based models provide a better framework to model these modalities.;2. Que faire s’il y a plusieurs résultats possibles pour une seule entrée comme par exemple la prédiction des images futures dans une vidéo ? EBM approach;L’approche par EBMs Instead of trying to classify x’s to y’s, we would like to predict if a certain pair of (x, y) fit together or not. Or in other words, find a y compatible with x. We can also pose the problem as finding a y for which some F(x,y) is low. For example:;Au lieu d’essayer de classer les x en y, nous aimerions prédire si une certaine paire de (x, y) s’assemble ou non. Ou, en d’autres termes, trouver un y compatible avec x. Nous pouvons également poser le problème de trouver un y pour lequel certains F(x,y) sont faibles. Par exemple : Is y an accurate high-resolution image of x ?;est-ce que y est une image haute résolution précise de x ? Is text A a good translation of text B?;le texte A est-il une bonne traduction du texte B ? Definition;Definition We define an energy function F:X×Y→R where F(x,y) describes the level of dependency between (x,y) pairs. (Note that this energy is used in inference, not in learning.) The inference is given by the following equation:;Nous définissons une fonction énergie F:X×Y→R où F(x,y) décrit le niveau de dépendance entre les paires (x,y). A noter que cette énergie est utilisée en inférence et non pas pour l’apprentissage. L’inférence est donnée par l’équation suivante : Solution: gradient-based inference;Solution : l’inférence basée sur les gradients We would like the energy function to be smooth and differentiable so that we can use it to perform the gradient-based method for inference. In order to perform inference, we search this function using gradient descent to find compatible y’s. There are many alternate methods to gradient methods to obtain the minimum.;Nous aimerions que la fonction d’énergie soit lisse et différenciable afin d’effectuer l’inférence. Nous recherchons cette fonction en utilisant la descente de gradient pour trouver des y compatibles. Il existe de nombreuses méthodes alternatives aux méthodes de gradient pour obtenir le minimum. Aside: Graphical models are a special case of Energy-Based models. The energy function decomposes as a sum of energy terms. Each energy terms take into account a subset of variables that we are dealing with. If they organize in a particular form, there are efficient inference algorithms to find the minimum of the sum of the terms with respect to the variable that we are interested in inferring.;Note : les modèles graphiques sont un cas particulier des modèles à base d’énergie. La fonction d’énergie se décompose en une somme de termes d’énergie. Chaque terme énergétique prend en compte un sous-ensemble de variables que nous avons à traiter. S’ils s’organisent sous une forme particulière, il existe des algorithmes d’inférence efficaces pour trouver le minimum de la somme des termes par rapport à la variable que nous souhaitons inférer. EBM with latent variables;EBMs à variables latentes The output y depends on x as well as an extra variable z (the latent variable) which we do not know the value of. These latent variables can provide auxiliary information. For example, a latent variable can tell you the positions of word boundaries in a chunk of text. This would be helpful to know when we want to interpret handwriting without spaces. This is also especially useful to know in speech that can have hard-to-decipher gaps. Additionally, some languages have very faint word boundaries (e.g. French). Hence, having this latent variable in our model will be very useful to interpret such an input.;La sortie y dépend de x ainsi que d’une variable supplémentaire z (la variable latente) dont nous ne connaissons pas la valeur. Ces variables latentes peuvent fournir des informations auxiliaires. Par exemple, elle peut vous indiquer la position des limites des mots dans un morceau de texte. C’est utile quand nous voulons interpréter une écriture sans espaces. C’est aussi particulièrement utile pour les discours qui peuvent présenter des lacunes difficiles à déchiffrer. De plus, certaines langues ont des limites de mots très faibles comme par exemple le français. Ainsi, la présence de cette variable latente dans notre modèle est très utile pour interpréter de telles entrées. Inference;Inférence To do inference with latent variable EBM, we want to simultaneously minimize energy function with respect to y and z.;Pour réaliser l’inférence d’un EBM à variable latente, nous voulons minimiser simultanément la fonction d’énergie par rapport à y et z : Another big advantage of allowing latent variables, is that by varying the latent variable over a set, we can make the prediction output y vary over the manifold of possible predictions as well (the ribbon is shown in the graph below): F(x,y)=argminzE(x,y,z).;Un autre grand avantage d’autoriser des variables latentes est qu’en faisant varier la variable latente sur un ensemble, nous pouvons aussi faire varier la prédiction y sur la multitude de prédictions possibles (le ruban est montré dans le graphique ci-dessous) : F(x,y)=argminzE(x,y,z). This allows a machine to produce multiple outputs, not just one.;Cela permet à une machine de produire plusieurs sorties. Examples;Exemples One example is video prediction. There are many good applications for us to use video prediction, one example is to make a video compression system. Another is to use video taken from a self-driving car and predict what other cars are going to do.;Un exemple est la prédiction vidéo. Il existe de nombreuses bonnes applications pour l’utilisation de la prédiction vidéo, par exemple pour la réalisation d’un système de compression vidéo. Une autre est d’utiliser la vidéo d’une voiture autonome et de prédire ce que les autres voitures vont faire. Another example is translation. Language translation has always been a difficult problem because there is no single correct translation for a piece of text from one language to another. Usually, there are a lot of different ways to express the same idea and people find it is hard to reason why they pick one over the other. So it might be nice if we have some way of parametrising all the possible translations that a system could produce to respond to a given text. Let’s say if we want to translate German to English, there could be multiple translations in English that are all correct, and by varying some latent variables then you may vary the translation produced.;Un autre exemple est la traduction. La traduction a toujours été un problème difficile car il n’existe pas de traduction unique et correcte d’un texte d’une langue à l’autre. En général, il existe de nombreuses façons différentes d’exprimer une même idée et les gens ont du mal à comprendre pourquoi ils en choisissent une plutôt qu’une autre. Il serait donc bon que nous ayons un moyen de paramétrer toutes les traductions possibles qu’un système pourrait produire pour un texte donné. Disons que si nous voulons traduire de l’allemand en anglais, il pourrait y avoir plusieurs traductions en anglais qui sont toutes correctes, et en faisant varier certaines variables latentes, vous pourriez alors faire varier la traduction produite. Energy-based models v.s. probabilistic models;Les EBMs vs les modèles probabilistes We can look at the energies as unnormalised negative log probabilities, and use Gibbs-Boltzmann distribution to convert from energy to probability after normalization is:;Nous pouvons considérer les énergies comme des probabilités logarithmiques négatives non normalisées et utiliser la distribution de Gibbs-Boltzmann pour convertir l’énergie en probabilité après normalisation qui est : "where β is positive constant and needs to be calibrated to fit your model: as β→∞, this function converges to the argmax function; smaller values of β leads to a smoother distribution. (In physics, β is inverse temperature: β→∞ means temperature goes to zero).";où β est une constante positive et doit être calibrée pour s’adapter à votre modèle. Un plus grand β donne un modèle plus fluctuant tandis qu’un plus petit β donne un modèle plus lisse. En physique, β est la température inverse : β→∞ signifie que la température va à 0. Thus, if we have a latent variable model and want to eliminate the latent variable z in a probabilistically correct way, we just need to redefine the energy function Fβ​ (Free Energy);Ainsi, si nous disposons d’un modèle à variable latente et que nous voulons éliminer la variable latente z de manière probabiliste, il suffit de redéfinir la fonction d’énergie Fβ​ : l’énergie libre. Free Energy;L’énergie libre Computing this can be very hard… In fact, in most cases, it’s probably intractable. So if you have a latent variable that you want to minimize over inside of your model, or if you have a latent variable that you want to marginalize over (which you do by defining this Energy function F), and minimizing corresponds to the infinite β limit of this formula, then it can be done.;Calculer ceci peut être très difficile. En fait, dans la plupart des cas, c’est probablement insoluble. Donc si vous avez une variable latente que vous voulez minimiser à l’intérieur de votre modèle ou si vous avez une variable latente que vous voulez marginaliser (ce que vous faites en définissant cette fonction d’énergie F) et que la minimisation correspond à la limite infinie β de cette formule, alors c’est possible. Under the definition of Fβ(x,y) above, P(y∣x) is just an application of the Gibbs-Boltzmann formula and z has been marginalized implicitly inside of this. Physicists call this “Free Energy”, which is why we call it F. So ee is the energy, and F is free energy.;Selon la définition de Fβ(x,y) ci-dessus, P(y∣x) n’est qu’une application de la formule de Gibbs-Boltzmann et z a été implicitement marginalisé à l’intérieur de celle-ci. Les physiciens appellent cela l’énergie libre, c’est pourquoi nous l’appelons F (free energy en anglais). Donc ee est l’énergie et F est l’énergie libre. In probability-based models, you can also have latent variables, which can be marginalized over.;Dans les modèles basés sur les probabilités, il est aussi possible d’avoir des variables latentes qui peuvent être marginalisées. The difference is that in probabilistic models, you basically don’t have the choice of the objective function you’re going to minimize, and you have to stay true to the probabilistic framework in the sense that every object you manipulate has to be a normalized distribution (which you may approximate using variational methods, etc.). Here, we’re saying that ultimately what you want to do with these models is make decisions. If you build a system that drives a car, and the system tells you “I need to turn left with probability 0.8 or turn right with probability 0.2”, you’re going to turn left. The fact that the probabilities are 0.2 and 0.8 doesn’t matter – what you want is to make the best decision, because you’re forced to make a decision. So probabilities are useless if you want to make decisions. ;La différence est que dans les modèles probabilistes, nous n’avons pas le choix de la fonction objectif que nous allons minimiser. Il faut rester fidèle au cadre probabiliste au sens que chaque objet qui est manipulé doit avoir une distribution normalisée (qu’il est possible d’approximer en utilisant des méthodes variationnelles, etc.). Ce que nous voulons faire en fin de compte avec ces modèles, c’est prendre des décisions. Par exemple avec un système qui conduit une voiture et qui indique « Tourner à gauche avec une probabilité de 0,8 ou tourner à droite avec une probabilité de 0,2 », on va tourner à gauche. Le fait que les probabilités soient de 0,2 et 0,8 n’a pas d’importance. Ce que nous voulons, c’est prendre la meilleure décision, parce que nous sommes obligés de prendre une décision. Les probabilités sont donc inutiles quand nous voulons prendre des décisions. If you want to combine the output of an automated system with another one (for example, a human, or some other system), and these systems haven’t been trained together, but rather they have been trained separately, then what you want are calibrated scores so that you can combine the scores of the two systems so that you can make a good decision. There is only one way to calibrate scores, and that is to turn them into probabilities. All other ways are either inferior or equivalent. But if you’re going to train a system end-to-end to make decisions, then whatever scoring function you use is fine, as long as it gives the best score to the best decision. Energy-based models give you way more choices in how you handle the model, way more choices of how you train it, and what objective function you use. If you insist your model be probabilistic, you have to use maximum likelihood – you basically have to train your model in such a way that the probability it gives to the data you observed is maximum. The problem is that this can only be proven to work in the case where your model is “correct” – and your model is never “correct”. There’s a quote from a famous statistician [Goerge Box] that says “All models are wrong, but some are useful.” So probabilistic models, particularly those in high-dimensional spaces, and in combinatorial spaces such as text, are all approximate models. They’re all wrong in a way, and if you try to normalize them, you make them more wrong. So you’re better off not normalizing them.; Si nous voulons combiner la sortie d’un système automatisé avec un autre (par exemple, un système humain ou autre) et que ces systèmes n’ont pas été entraînés ensemble, mais plutôt séparément, alors ce que nous voulons, ce sont des scores calibrés pour pouvoir combiner les scores des deux systèmes afin de prendre une bonne décision. Il n’y a qu’une seule façon de calibrer les scores et c’est de les transformer en probabilités. Tous les autres moyens sont soit inférieurs, soit équivalents. Mais si on souhaite entraîner un système de bout en bout à la prise de décision, alors n’importe quelle fonction de notation utilisée est bonne, à condition qu’elle donne le meilleur score à la meilleure décision. Les EBMs offrent beaucoup plus de choix quant à la façon de manipuler le modèle, peut-être même plus de choix sur la manière de l’entraîner ainsi que pour la fonction objectif pouvant être utilisée. Si nous insistons pour que votre modèle soit probabiliste, nous devons utiliser le maximum de vraisemblance. Il nous faut entraîner le modèle de telle manière que la probabilité qu’il donne aux données observées soit maximale. Le problème est que l’on ne peut prouver que cela fonctionne que si votre modèle est « correct » mais un modèle n’est jamais « correct ». Le statisticien Goerge Box a dit : « Tous les modèles sont faux mais certains sont utiles ». Les modèles probabilistes, en particulier ceux dans les espaces en grandes dimensions et dans les espaces combinatoires comme le texte, sont donc tous des modèles approximatifs. Ils sont tous erronés d’une certaine manière et si nous essayons de les normaliser, nous les rendons encore plus erronés. Il est donc préférable de ne pas les normaliser. This is an energy function that’s meant to capture the dependency between x and y. It’s like a mountain range if you will. The valleys are where the black dots are (these are data points), and there are mountains all around. Now, if you train a probabilistic model with this, imagine that the points are actually on an infinitely thin manifold. So the data distribution for the black dots is actually just a line, and there are three of them. They don’t actually have any width. So if you train a probabilistic model on this, your density model should tell you when you are on this manifold. On this manifold, the density is infinite, and just ϵ outside of it should be zero. That would be the correct model of this distribution. Not only should the density be infinite, but the integral over [x and y] should be 1. This is very difficult to implement on the computer! Not only that, but it’s also basically impossible. Let’s say you want to compute this function through some sort of neural net – your neural net will have to have infinite weights, and they would need to be calibrated in such a way that the integral of the output of that system over the entire domain is 1. That’s basically impossible. The accurate, correct probabilistic model for this particular data example is impossible. This is what maximum likelihood will want you to produce, and there’s no computer in the world that can compute this. So in fact, it’s not even interesting. Imagine that you had the perfect density model for this example, which is a thin plate in that (x, y) space – you couldn’t do inference! If I give you a value of x, and ask you “what’s the best value of y?” You wouldn’t be able to find it because all values of y except a set of zero-probability have a probability of zero, and there are just a few values that are possible. For these values of x for example:;Il s’agit d’une fonction d’énergie qui vise à capturer la dépendance entre x et y. C’est comme une chaîne de montagnes. Les vallées sont là où se trouvent les points noirs (ce sont des points de données) et il y a des montagnes tout autour. Considérons que les points sont sur une variété infiniment mince, la distribution des données pour les points noirs n’est donc en fait qu’une ligne, et il y en a trois. Ils n’ont aucune largeur. Donc si nous entraînons un modèle probabiliste sur cela, le modèle de densité devrait vous dire quand nous sommes sur cette surface. Sur cette variété, la densité est infinie et toutes ϵ en dehors d’elle devrait être zéro. Ce serait le modèle correct de cette distribution. Ainsi non seulement la densité doit être infinie, mais l’intégrale sur [x et y] doit être égale à 1. C’est très difficile à mettre en œuvre sur ordinateur car c’est fondamentalement impossible. Si nous voulions calculer cette fonction par une sorte de réseau neuronal, celui-ci devra avoir des poids infinis et ils devront être calibrés de telle sorte que l’intégrale de la sortie de ce système sur l’ensemble du domaine soit de 1. C’est pratiquement impossible. Le modèle probabiliste précis et correct pour cet exemple particulier de données est impossible. C’est ce que le maximum de vraisemblance voudra que nous produisions mais aucun ordinateur au monde peut calculer ça. Donc, en fait, ce n’est même pas intéressant. Et si nous imaginons avoir le modèle de densité parfait pour cet exemple, qui est une fine plaque dans cet espace (x, y), nous ne pourrions pas faire d’inférence ! Si on nous donne une valeur de x et qu’on nous demande quelle est la meilleure valeur pour y, nous ne pourrions pas la trouver car toutes les valeurs de y, à l’exception d’un ensemble de probabilité 0, ont une probabilité de zéro et il n’y a que quelques valeurs possibles. There are 3 values of y that are possible, and they are infinitely narrow. So you wouldn’t be able to find them. There’s no inference algorithm that will allow you to find them. The only way you can find them is if you make your contrast function smooth and differentiable, and then you can start from any point and by gradient descent you can find a good value for y for any value of x. But this is not going to be a good probabilistic model of the distribution if the distribution is of the type I mentioned. So here is a case where insisting to have a good probabilistic model is actually bad. Maximum likelihood sucks [in this case]!;Il y a 3 valeurs de y qui sont possibles pour le x donné et elles sont infiniment étroites. Il n’y a pas d’algorithme d’inférence permettant de les trouver. La seule façon de faire ça est de rendre votre fonction contrastive lisse et différentiable. Alors il est possible de partir de n’importe quel point et par descente de gradient trouver une bonne valeur pour y pour n’importe quelle valeur de x. Mais ce ne sera pas un bon modèle probabiliste de la distribution si la distribution est comme celle mentionnée. Voici donc un cas où insister pour avoir un bon modèle probabiliste est en fait mauvais. Le maximum de vraisemblance est néfaste dans ce cas ! So if you are a true Bayesian, you say “oh but you can correct this by having a strong prior where the prior says your density function has to be smooth”. You could think of this as a prior. But, everything you do in Bayesian terms – take the logarithm thereof, forget about normalization – you get energy-based models. Energy-based models that have a regulariser, which is additive to your energy function, are completely equivalent to Bayesian models where the likelihood is exponential of the energy, and now you get exp(energy)exp(regulariser), and so it’s equal to exp(energy+regulariser). And if you remove the exponential you have an energy-based model with an additive regulariser. So there is a correspondence between probabilistic and Bayesian methods there.;Si vous êtes un Bayésien, vous dites « oh mais on peut corriger ça en ayant un a priori fort indiquant que la fonction de densité doit être lisse ». Mais, tout ce qui est fait en termes bayésiens (mathématiquement parlant), mène aux modèles à base d’énergie. Les EBMs qui ont un régulariseur, qui est additif à la fonction d’énergie, sont complètement équivalents aux modèles bayésiens où la vraisemblance de l’énergie est exponentielle : nous avons exp(énergie)exp(régulariseur) et c’est égal à exp(énergie+régulariseur). Supprimer l’exponentielle, donne un modèle à base d’énergie avec un régulariseur additif. Il y a donc là une correspondance entre les méthodes probabilistes et bayésiennes. SSL, EBM with details and examples;Apprentissage autosupervisé, détails des EBMs et exemples Self supervised learning;Apprentissage autosupervisé Self Supervised Learning (SSL) encompasses both supervised and unsupervised learning. The objective of the SSL pretext task is to learn a good representation of the input so that it can subsequently be used for supervised tasks. In SSL, the model is trained to predict one part of the data given other parts of the data. For example, BERT was trained using SSL techniques and the Denoising Auto-Encoder (DAE) has particularly shown state-of-the-art results in Natural Language Processing (NLP).;L’apprentissage autosupervisé (SSL pour Self-Supervised Learning) englobe à la fois l’apprentissage supervisé et non supervisé. L’objectif du SSL est d’apprendre une bonne représentation de l’entrée afin qu’elle puisse ensuite être utilisée pour des tâches supervisées. En SSL, le modèle est entraîné pour prédire une partie des données en fonction d’autres parties des données. Par exemple, BERT a été entraîné en combinant le SSL et l’auto-encodeur débruiteur. Ce modèle a montré des résultats de pointe en traitement du langage naturel (NLP pour Natural Language Processing). Self Supervised Learning task can be defined as the following:;La tâche d’apprentissage autosupervisé peut être définie comme suit : Predict the future from the past.;prédire l’avenir à partir du passé Predict the masked from the visible.;prédire le masqué à partir du visible Predict any occluded parts from all available parts.;prédire les parties occultées à partir de toutes les parties disponibles For example, if a system is trained to predict the next frame when the camera is moved, the system will implicitly learn about the depth and parallax. This will force the system to learn that objects occluded from its vision do not disappear but continue to exist and the distinction between animate, inanimate objects, and the background. It can also end up learning about intuitive physics like gravity.;Par exemple, si un système est entraîné à prédire l’image suivante d’une vidéo, lorsque la caméra est déplacée, le système apprend implicitement la profondeur et la parallaxe. Cela oblige le système à apprendre que les objets occultés de sa vision ne disparaissent pas mais continuent d’exister. De même pour la distinction entre les objets animés, inanimés et l’arrière-plan. Le système peut également finir par apprendre la physique intuitive comme la gravité. State-of-the-art NLP systems (BERT) pre-train a giant neural network on an SSL task. You remove some of the words from a sentence and make the system predict the missing words. This has been very successful. Similar ideas were also tried out in computer vision realm. As shown in the image below, you can take an image and remove a portion of the image and train the model to predict the missing portion.;Les systèmes de NLP de pointe sont pré-entraînés via des réseaux neuronaux géants et du SSL. Nous supprimons certains mots d’une phrase et faisons en sorte que le système prédise les mots manquants. Cette méthode (BERT) a été couronnée de succès. Des idées similaires ont également été expérimentées dans le domaine de la vision par ordinateur. Comme le montre l’image ci-dessous, il est possible de prendre une image et en supprimer une partie, puis entraîner le modèle à prédire la partie manquante. Although the models can fill in the missing space they have not shared the same level of success as NLP systems. If you were to take the internal representations generated by these models, as input to a computer vision system, it is unable to beat a model that was pre-trained in a supervised manner on ImageNet. The difference here is that NLP is discrete whereas images are continuous. The difference in success is because in the discrete domain we know how to represent uncertainty, we can use a big softmax over the possible outputs, in the continuous domain we do not.;Bien que les modèles puissent combler l’espace manquant, ils n’ont pas connu le même succès que les applications en NLP. Si nous prenons les représentations internes générées par ces modèles et les donnons en entrée d’un système de vision par ordinateur, celui-ci est incapable de battre un modèle qui a été pré-entraîné de manière supervisée sur ImageNet. La différence de succès est qu’en NLP les mots sont discrets alors qu’en vision les images sont continues. Dans le domaine discret, nous savons comment représenter l’incertitude, nous pouvons utiliser un grand softmax sur les sorties possibles alors que ce n’est pas le cas dans le domaine continu. An intelligent system (AI agent) needs to be able to predict the results of its own action on the surroundings and itself to make intelligent decisions. Since the world is not completely deterministic and there is not enough compute power in a machine/human brain to account for every possibility, we need to teach AI systems to predict in the presence of uncertainty in high dimensional spaces. Energy-based models (EBMs) can be extremely useful for this.;Un système intelligent doit être capable de prédire les résultats de sa propre action sur l’environnement et de prendre lui-même des décisions intelligentes. Comme le monde n’est pas complètement déterministe et qu’il n’y a pas assez de puissance de calcul dans une machine/un cerveau humain pour prendre en compte toutes les possibilités, nous devons apprendre aux systèmes d’IA à prédire en présence d’incertitude dans les espaces en grandes dimensions. Les EBMs peuvent être extrêmement utiles à cet effet. A neural network trained using Least Squares to predict the next frame of a video will result in blurry images because the model cannot exactly predict the future so it learns to average out all possibilities of the next frame from the training data to reduce the loss.;Un réseau neuronal entraîné à l’utilisation des moindres carrés pour prédire la prochaine image d’une vidéo produira des images floues parce que le modèle ne peut pas prédire exactement l’avenir. Pour réduire la perte, il apprend donc à faire la moyenne de toutes les possibilités de la prochaine image à partir des données d’entraînement. Latent variable energy-based models as a solution to make predictions for next frame:;Les EMBs à variable latente comme solution pour faire des prédictions d’une image suivante Unlike linear regression, Latent variable energy-based models take what we know about the world as well as a latent variable which gives us information about what happened in reality. A combination of those two pieces of information can be used to make a prediction that will be close to what actually occurs.;Contrairement à la régression linéaire, les EMBs à variable latente prennent ce que nous savons du monde ainsi qu’une variable latente qui nous donne des informations sur ce qui s’est passé dans la réalité. Une combinaison de ces deux éléments d’information peut être utilisée pour faire une prédiction qui sera proche de ce qui se passe réellement. These models can be thought of as systems that rate compatibility between the input x and actual output y depending on the prediction using the latent variable that minimizes the energy of the system. You observe input x and produce possible predictions yˉ​ for different combinations of input x and latent variables z and choose the one that minimizes the energy, prediction error, of the system.;Ces modèles peuvent être considérés comme des systèmes qui évaluent la compatibilité entre l’entrée x et la sortie réelle y en fonction de la prédiction utilisant la variable latente qui minimise l’énergie du système. Nous observons l’entrée x, produisons des prédictions possibles yˉ​ pour différentes combinaisons (x,z) et choisissons celle qui minimise l’énergie, l’erreur de prédiction, du système. Depending upon the latent variable we draw, we can end up with all the possible predictions. The latent variable could be thought of as a piece of important information about the output y that is not present in the input x.;En fonction de la variable latente que nous tirons, nous pouvons nous retrouver avec toutes les prédictions possibles. La variable latente peut être considérée comme une information importante sur la sortie y qui n’est pas présente dans l’entrée x. Scalar-valued energy function can take two versions:;La fonction d’énergie à valeur scalaire peut prendre deux versions : 1. Conditional F(x,y) - measure the compatibility between x and y;1. conditionnelle : F(x,y) mesure la compatibilité entre x et y 2. Unconditional F(y) - measure the compatibility between the components of y;2. inconditionnel : F(y) mesure la compatibilité entre les composantes de y Training an Energy-Based Model;Entraîner un EBM There are two classes of learning models to train an Energy-Based Model to parametrize F(x,y).;Il existe deux classes de modèles d’apprentissage pour entraîner un EMB à paramétrer F(x,y). 1. Contrastive methods: Push down on F(x[i],y[i]), push up on other points F(x[i],y’);1. Les méthodes contrastives : on pousse vers le bas sur F(x[i],y[i]) et on pousse vers le haut sur d’autres points F(x[i],y’) 2. Architectural Methods: Build F(x,y) so that the volume of low energy regions is limited or minimized through regularization;2. Les méthodes architecturales : on construit F(x,y) de manière à limiter ou à minimiser le volume des régions à faible énergie par la régularisation There are seven strategies to shape the energy function. The contrastive methods differ in the way they pick the points to push up. While the architectural methods differ in the way they limit the information capacity of the code.;Il existe sept stratégies pour façonner la fonction d’énergie. Les méthodes contrastives diffèrent dans la manière de choisir les points à pousser vers le haut. Les méthodes architecturales diffèrent dans la façon dont elles limitent la capacité d’information du code. An example of the contrastive method is Maximum Likelihood learning. The energy can be interpreted as an unnormalised negative log density. Gibbs distribution gives us the likelihood of y given x. It can be formulated as follows:;Un exemple de la méthode contrastive est l’apprentissage par maximum de vraisemblance. L’énergie peut être interprétée comme une densité logarithmique négative non normalisée. La distribution de Gibbs nous donne la vraisemblance de y pour x. Elle peut être formulée comme suit : Maximum likelihood tries to make the numerator big and the denominator small to maximize the likelihood. This is equivalent to minimizing −log(P(Y∣W)) which is given below;Le maximum de vraisemblance essaie de rendre le numérateur grand et le dénominateur petit pour maximiser la probabilité. Cela équivaut à minimiser −log(P(Y∣W)) qui est donné ci-dessous : Gradient of the negative log likelihood loss for one sample Y is as follows:;Le gradient de la perte de la vraisemblance logarithmique négative pour un échantillon Y est le suivant : In the above gradient, the first term of the gradient at the data point y and the second term of the gradient gives us the expected value of the gradient of the energy over all ys. Hence, when we perform gradient descent the first term tries to reduce energy given to the data point y and the second term tries to increase the energy given to all other ys.;Dans le gradient ci-dessus, le premier terme du gradient au point de données y et le second terme du gradient nous donne la valeur attendue du gradient de l’énergie sur l’ensemble des y. Ainsi, lorsque nous effectuons la descente de gradient, le premier terme tente de réduire l’énergie donnée au point de données y et le second terme tente d’augmenter l’énergie donnée à tous les autres y. The gradient of the energy function is generally very complex and hence computing, estimating or approximating the integral is a very interesting case as it is intractable in most of the cases.;Le gradient de la fonction d’énergie est généralement très complexe et par conséquent le calcul, l’estimation ou l’approximation de l’intégrale est un cas très intéressant car il est insoluble dans la plupart des cas. Latent variable energy-based model;EMB à variable latente The main advantage of Latent variable models is that they allow multiple predictions through the latent variable. As z varies over a set, y varies over the manifold of possible predictions. Some examples include:;Le principal avantage des modèles à variables latentes est qu’ils permettent des prévisions multiples grâce à la variable latente. Comme z varie sur un ensemble, y varie sur la multiplicité des prédictions possibles. En voici quelques exemples : Latent variable EBM example: K-means;Exemple d’EMB à variable latente : les K-means K-means is a simple clustering algorithm that can also be considered as an energy-based model where we are trying to model the distribution over y. The energy function is E(y,z)=∥y−Wz∥2 where z is a 1-hot vector.;Les K-means sont un algorithme de clustering simple qui peut également être considéré comme un modèle à base d’énergie dont nous essayons de modéliser la distribution sur y. La fonction d’énergie est E(y,z)=∥y−Wz∥2 où z est un vecteur one-hot. Given a value of y and k, we can do inference by figuring out which of the k possible columns of W minimizes the reconstruction error or energy function. To train the algorithm, we can adopt an approach where we can find z to choose the column of W closest to y and then try to get even closer by taking a gradient step and repeat the process. However, coordinate gradient descent actually works better and faster.;Avec une valeur de y et k, nous pouvons faire une inférence en déterminant laquelle des colonnes possibles de k de W minimise l’erreur de reconstruction ou la fonction d’énergie. Pour entraîner l’algorithme, nous pouvons adopter une approche où nous pouvons trouver z pour choisir la colonne de W la plus proche de y et ensuite essayer de nous rapprocher encore plus en prenant un pas de gradient et en répétant le processus. Cependant, la descente de gradient coordonné fonctionne en fait mieux et plus rapidement. In the plot below we can see the data points along the pink spiral. The black blobs surrounding this line corresponds to quadratic wells around each of the prototypes of W.;Dans le graphique ci-dessous, nous pouvons voir les points de données le long de la spirale rose. Les taches noires entourant cette ligne correspondent à des puits quadratiques autour de chacun des prototypes de W. Once we learn the energy function, we can begin to address questions like:;Une fois que nous avons appris la fonction d’énergie, nous pouvons commencer à aborder des questions comme : 1. Given a point y1​, can we predict y2​?;1. Étant donné un point y1​, pouvons-nous prédire y2​ ? 2. Given y, can we find the closest point on the data manifold?;2. Étant donné y, pouvons-nous trouver le point le plus proche sur la variété des données ? K-means belongs to architectural methods (as opposed to contrastive methods). Hence we do not push up the energy anywhere, all we do is push the energy down in certain regions. One disadvantage is that once the value of k has been decided, there can only be k points that have 0 energy, and every other point will have higher energy that grows quadratically as we move away from them.;Les K-means appartiennent aux méthodes architecturales (par opposition aux méthodes contrastives). Par conséquent, nous n’augmentons l’énergie nulle part. Tout ce que nous faisons, c’est de la faire baisser dans certaines régions. Un inconvénient est qu’une fois que la valeur de k a été décidée, il ne peut y avoir que des points k qui ont une énergie de 0. Tous les autres points auront une énergie plus élevée qui croîtra de façon quadratique à mesure que nous nous en éloignerons. Contrastive methods;Les méthodes contrastives According to Dr Yann LeCun, everyone will be using architectural methods at some point, but at this moment, it is contrastive methods that work for images. Consider the figure below which shows us some data points and contours of the energy surface. Ideally, we want the energy surface to have the lowest energy on the data manifold. Hence what we would like to do is lower the energy (i.e. the value of F(x,y)) around the training example, but this alone may not be enough. Hence we also raise it for the y’s in the region that should have high energy but has low energy.;Selon Yann, tout le monde utilisera un jour des méthodes architecturales, mais pour l’instant, ce sont les méthodes contrastives qui fonctionnent pour les images. Considérons la figure ci-dessous qui nous montre quelques points de données et les contours de la surface énergétique. Idéalement, nous voulons que la surface énergétique ait l’énergie la plus faible sur la variété des données. Par conséquent, nous aimerions réduire l’énergie (c’est-à-dire la valeur de F(x,y)) autour de l’exemple d’entraînement, mais cela peut ne pas suffire. C’est pourquoi nous l’augmentons également pour les y dans la région qui devrait avoir une énergie élevée mais qui a une énergie faible. There are several ways to find these candidates y’s that we want to raise energy for. Some examples are:;Il y a plusieurs façons de trouver les candidats pour lesquels nous voulons collecter de l’énergie. En voici quelques exemples : 1. Denoising Autoencoder;1. L’auto-encodeur débruiteur (DAE) 2. Contrastive Divergence;2. La divergence contrastive 3. Monte Carlo;3. Monte Carlo 4. Markov Chain Monte Carlo;4. Les chaînes de Markov par Monte Carlo 5. Hamiltonian Monte Carlo;5. Monte Carlo Hamiltonien We will briefly discuss denoising autoencoders and contrastive divergence.;Aborderons brièvement la question des DAEs et de la divergence contrastive. Denoising autoencoder (DAE);Auto-encodeur débruiteur (DAE) One way of finding y’s to increase energy for it is by randomly perturbing the training example as shown by the green arrows in the plot below.;Une façon de trouver des y pour augmenter l’énergie nécessaire est de perturber aléatoirement l’exemple d’entraînement comme le montrent les flèches vertes dans le graphique ci-dessous : Once we have a corrupted data point, we can push the energy up here. If we do this sufficiently many times for all the data points, the energy sample will curl up around the training examples. The following plot illustrates how training is done.;Une fois que nous avons un point de données corrompu, nous pouvons pousser l’énergie jusqu’ici. Si nous le faisons suffisamment de fois pour tous les points de données, l’échantillon d’énergie se recroquevillera autour des exemples d’entraînement. Le graphique suivant illustre la façon dont l’entraînement est effectué : Steps for training:;Étapes de l’entraînement : 1. Take a point y and corrupt it;1. Prendre un point y et le corrompre 2. Train the Encoder and Decoder to reconstruct the original data point from this corrupted data point;2. Entraîner l’encodeur et le décodeur à reconstruire le point de données original à partir de ce point de données corrompu If the DAE is properly trained, the energy grows quadratically as we move away from the data manifold.;Si le DAE est correctement entraîné, l’énergie croît de façon quadratique à mesure que nous nous éloignons de la surface de données. The following plot illustrates how we use the DAE.;Le graphique suivant illustre la façon dont nous utilisons le DAE. BERT;BERT BERT is trained similarly, except that the space is discrete as we are dealing with text. The corruption technique consists of masking some of the words and the reconstruction step consists of trying to predict these. Hence, this is also called a masked autoencoder.;BERT est entraîné de la même manière, sauf que l’espace est discret car nous avons affaire à du texte. La technique de corruption consiste à masquer certains mots et l’étape de reconstruction consiste à essayer de les prédire. C’est pourquoi on appelle aussi cela un auto-encodeur masqué. Contrastive divergence;Divergence contrastive Contrastive Divergence presents us with a smarter way to find the y point that we want to push up the energy for. We can give a random kick to our training point and then move down the energy function using gradient descent. At the end of the trajectory, we push up the energy for the point we land on. This is illustrated in the plot below using the green line.;La divergence contrastive nous offre une façon plus intelligente de trouver le point y pour lequel nous voulons faire monter l’énergie. Nous pouvons donner un « coup de pied » aléatoire à notre point d’entraînement et ensuite descendre la fonction d’énergie en utilisant la descente de gradient. A la fin de la trajectoire, nous poussons l’énergie vers le haut pour le point où nous atterrissons. Ceci est illustré dans le graphique ci-dessous par la ligne verte. Introduction to autoencoders;Introduction aux auto-encodeurs Application of autoencoders;Application des auto-encodeurs Image generation;Génération d’images Can you tell which face is fake in Fig. 1? In fact, both of them are produced by the StyleGan2 generator. Although the facial details are very realistic, the background looks weird (left: blurriness, right: misshapen objects). This is because the neural network is trained on faces samples. The background then has a much higher variability. Here the data manifold has roughly 50 dimensions, equal to the degrees of freedom of a face image.;Pouvez-vous dire quel visage est faux dans la figure 1 ? En fait, les deux sont produits par le générateur StyleGan2. Bien que les détails du visage soient très réalistes, l’arrière-plan semble bizarre (à gauche : flou, à droite : objets déformés). Cela s’explique par le fait que le réseau neuronal est entraîné sur des échantillons de visages. L’arrière-plan présente alors une variabilité beaucoup plus importante. Ici, la variété des données a environ 50 dimensions, ce qui équivaut aux degrés de liberté d’une image de visage. Difference of Interpolation in Pixel Space and Latent Space;Différence d’interpolation dans l’espace des pixels et l’espace latent If we linearly interpolate between the dog and bird image (Fig. 2) in pixel space, we will get a fading overlay of two images in Fig. 3. From the top left to the bottom right, the weight of the dog image decreases and the weight of the bird image increases.;Si nous interpolons linéairement entre l’image du chien et celle de l’oiseau (figure 2) dans l’espace des pixels, nous obtenons une superposition de deux images en fondu dans la figure 3. Du haut à gauche au bas à droite, le poids de l’image du chien diminue et celui de l’image de l’oiseau augmente. If we interpolate on two latent space representation and feed them to the decoder, we will get the transformation from dog to bird in Fig. 4.;Si nous interpolons sur deux représentations de l’espace latent et les transmettons au décodeur, nous obtenons la transformation du chien en l’oiseau visible sur la figure 4. Obviously, latent space is better at capturing the structure of an image.;De toute évidence, l’espace latent est plus efficace pour saisir la structure d’une image. Transformation Examples;Exemples de transformation Image Super-resolution;Image en super-résolution This model aims to upscale images and reconstruct the original faces. From left to right in Fig. 9, the first column is the 16x16 input image, the second one is what you would get from a standard bicubic interpolation, the third is the output generated by the neural net, and on the right is the ground truth.;Ce modèle vise à améliorer les images et à reconstruire les visages originaux. De gauche à droite sur la figure 9, la première colonne est l’image d’entrée 16x16, la deuxième est ce que nous obtenons avec une interpolation bicubique standard, la troisième est la sortie générée par le réseau neuronal, et à droite est la véritable image. From the output images, it is clear that there exist biases in the training data, which makes the reconstructed faces inaccurate. For example, the top left Asian man is made to look European in the output due to the imbalanced training images. The reconstructed face of the bottom left women looks weird due to the lack of images from that odd angle in the training data.;D’après les images de sortie, il est clair qu’il existe des biais dans les données d’entraînement, ce qui rend les visages reconstruits inexacts. Par exemple, l’homme asiatique en haut à gauche a l’air européen dans les images de sortie en raison du déséquilibre des images d’entraînement. Le visage reconstruit en bas à gauche est bizarre en raison de l’absence d’images sous cet angle dans les données d’entraînement. Putting a grey patch on the face like in Fig. 10 makes the image away from the training manifold. The face reconstruction in Fig. 11 is done by finding the closest sample image on the training manifold via Energy function minimization.;En plaçant une tache grise sur le visage, comme sur la figure 10, on éloigne l’image de la variété d’entraînement. La reconstruction du visage de la figure 11 est réalisée en trouvant l’échantillon d’image le plus proche sur la variété d’entraînement via la minimisation de la fonction énergie. Caption to Image;Génération d’images d’après une légende The translation from text description to image in Fig. 12 is achieved by extracting text features representations associated with important visual information and then decoding them to images.;La traduction en image de la description textuelle de la figure 12 est réalisée en extrayant les représentations des caractéristiques textuelles associées à des informations visuelles importantes, puis en les décodant en images. Autoencoders are artificial neural networks, trained in an unsupervised manner, that aim to first learn encoded representations of our data and then generate the input data (as closely as possible) from the learned encoded representations. Thus, the output of an autoencoder is its prediction for the input.;Les auto-encodeurs sont des réseaux de neurones artificiels, entraînés de manière non supervisée, qui visent à apprendre d’abord les représentations codées de nos données et ensuite à générer les données d’entrée (aussi proches que possible) à partir des représentations codées apprises. Ainsi, la sortie d’un auto-encodeur est sa prédiction pour l’entrée. Fig. 13 shows the architecture of a basic autoencoder. As before, we start from the bottom with the input x which is subjected to an encoder (affine transformation defined by WhWh​, followed by squashing). This results in the intermediate hidden layer hh. This is subjected to the decoder(another affine transformation defined by Wx​ followed by another squashing). This produces the output x^, which is our model’s prediction/reconstruction of the input. As per our convention, we say that this is a 3 layer neural network.;La figure 13 montre l’architecture d’un auto-encodeur de base. Comme précédemment, nous partons du bas avec l’entrée x qui est soumise à un encodeur (transformation affine définie par WhWh​, suivie d’un écrasement). Il en résulte la couche cachée intermédiaire hh. Celle-ci est soumise au décodeur (une autre transformation affine définie par Wx​, suivie d’un autre écrasement). Cela produit la sortie x^, qui est la prédiction/reconstruction de l’entrée par notre modèle. We can represent the above network mathematically by using the following equations:;Nous pouvons représenter mathématiquement le réseau ci-dessus en utilisant les équations suivantes : We also specify the following dimensionalities:;Nous précisons également les dimensions suivantes : Why are we using autoencoders?;Pourquoi utilisons-nous des auto-encodeurs ? The primary applications of an autoencoder is for anomaly detection or image denoising. We know that an autoencoder’s task is to be able to reconstruct data that lives on the manifold i.e. given a data manifold, we would want our autoencoder to be able to reconstruct only the input that exists in that manifold. Thus we constrain the model to reconstruct things that have been observed during training, and so any variation present in new inputs will be removed because the model would be insensitive to those kinds of perturbations.;Les principales applications d’un auto-encodeur sont la détection d’anomalies ou le débruitage d’images. Nous savons que la tâche d’un auto- encodeur est de reconstruire des données qui vivent sur la variété, c’est-à-dire que si nous avons une variété de données, nous voudrions que notre auto-encodeur ne puisse reconstruire que l’entrée qui existe dans cette variété. Ainsi, nous contraignons le modèle à reconstruire les choses qui ont été observées pendant l’entraînement et donc toute variation présente dans les nouvelles entrées sera supprimée car le modèle est insensible à ce genre de perturbations. Another application of an autoencoder is as an image compressor. If we have an intermediate dimensionality d lower than the input dimensionality nn, then the encoder can be used as a compressor and the hidden representations (coded representations) would address all (or most) of the information in the specific input but take less space.;Une autre application de l’auto-encodeur est la compression d’images. Si nous avons une dimension intermédiaire d inférieure à la dimension d’entrée nn, alors l’encodeur peut être utilisé comme un compresseur et les représentations cachées (représentations codées) traitent toutes (ou la plupart) des informations de l’entrée spécifique en prenant moins de place. Reconstruction loss;Perte de reconstruction Let us now look at the reconstruction losses that we generally use. The overall loss for the dataset is given as the average per sample loss i.e.;Examinons maintenant les pertes liées à la reconstruction que nous utilisons généralement avec les auto-encodeurs. La perte globale pour le jeu de données est donnée comme la perte moyenne par échantillon, c’est-à-dire : When the input is categorical, we could use the Cross-Entropy loss to calculate the per sample loss which is given by;Lorsque l’entrée est catégorielle, nous pouvons utiliser la perte d’entropie-croisée pour calculer la perte par échantillon qui est donnée par : And when the input is real-valued, we may want to use the Mean Squared Error Loss given by;Et lorsque l’entrée est évaluée en valeur réelle, nous pouvons utiliser la perte d’erreur moyenne au carré donnée par : Under-/over-complete hidden layer;Couche cachée sous/sur-complète When the dimensionality of the hidden layer d is less than the dimensionality of the input n then we say it is under complete hidden layer. And similarly, when d>nd>n, we call it an over-complete hidden layer. Fig. 14 shows an under-complete hidden layer on the left and an over-complete hidden layer on the right.;Lorsque la dimensionnalité de la couche cachée d est inférieure à la dimensionnalité de l’entrée n, on dit que la couche cachée est sous-complète. Et de même, lorsque d>nd>n, nous disons qu’il s’agit d’une couche cachée sur-complète. La figure 14 montre une couche cachée sous-complète à gauche et une couche cachée sur-complète à droite. As discussed above, an under-complete hidden layer can be used for compression as we are encoding the information from input in fewer dimensions. On the other hand, in an over-complete layer, we use an encoding with higher dimensionality than the input. This makes optimization easier.;Comme nous l’avons vu plus haut, une couche cachée sous-complète peut être utilisée pour la compression car nous encodons les informations provenant de l’entrée en moins de dimensions. En revanche, dans une couche sur-complète, nous utilisons un codage de dimension plus élevée que l’entrée. Cela facilite l’optimisation. Since we are trying to reconstruct the input, the model is prone to copying all the input features into the hidden layer and passing it as the output thus essentially behaving as an identity function. This needs to be avoided as this would imply that our model fails to learn anything. Hence, we need to apply some additional constraints by applying an information bottleneck. We do this by constraining the possible configurations that the hidden layer can take to only those configurations seen during training. This allows for a selective reconstruction (limited to a subset of the input space) and makes the model insensitive to everything not in the manifold.;Comme nous essayons de reconstruire l’entrée, le modèle est enclin à copier toutes les caractéristiques d’entrée dans la couche cachée et à la faire passer comme sortie, se comportant ainsi essentiellement comme une fonction identité. Cela doit être évité car cela impliquerait que notre modèle n’apprend rien. Nous devons donc appliquer des contraintes supplémentaires en créant un goulot d’étranglement au niveau de l’information. Nous le faisons en limitant les configurations possibles que la couche cachée peut prendre aux seules configurations vues pendant l’entraînement. Cela permet une reconstruction sélective (limitée à un sous-ensemble de l’espace d’entrée) et rend le modèle insensible à tout ce qui ne se trouve pas dans la variété. It is to be noted that an under-complete layer cannot behave as an identity function simply because the hidden layer doesn’t have enough dimensions to copy the input. Thus an under-complete hidden layer is less likely to overfit as compared to an over-complete hidden layer but it could still overfit. For example, given a powerful encoder and a decoder, the model could simply associate one number to each data point and learn the mapping. There are several methods to avoid overfitting such as regularization methods, architectural methods, etc.;Il est à noter qu’une couche sous-complète ne peut pas se comporter comme une fonction d’identité simplement parce que la couche cachée n’a pas assez de dimensions pour copier l’entrée. Ainsi, une couche cachée sous-complète a moins de chances de faire du surentraînement qu’une couche cachée sur-complète. Néanmoins elle peut quand même en faire. Par exemple, avec un encodeur et un décodeur puissants, le modèle pourrait simplement associer un numéro à chaque point de données et apprendre l’association. Il existe plusieurs méthodes pour éviter le surentraînement, telles que les méthodes de régularisation, les méthodes architecturales, etc. Denoising autoencoder;Auto-encodeur débruiteur Fig.15 shows the manifold of the denoising autoencoder and the intuition of how it works.;La figure 15 montre les multiples possibilités de l’auto-encodeur débruiteur et l’intuition de son fonctionnement. In this model, we assume we are injecting the same noisy distribution we are going to observe in reality, so that we can learn how to robustly recover from it. By comparing the input and output, we can tell that the points that already on the manifold data did not move, and the points that far away from the manifold moved a lot.;Dans ce modèle, nous supposons que nous injectons la même distribution bruitée que celle que nous allons observer dans la réalité, afin que nous puissions apprendre à nous en remettre de manière robuste. En comparant l’entrée et la sortie, nous pouvons dire que les points qui se trouvaient déjà sur la variété des données n’ont pas bougé et que les points qui étaient éloignés sur la variété ont beaucoup bougé. Fig.16 gives the relationship between the input data and output data.;La figure 16 présente la relation entre les données d’entrée et les données de sortie. We can also use different colours to represent the distance of each input point moves, Fig.17 shows the diagram.;Nous pouvons utiliser différentes couleurs pour représenter la distance de chaque mouvement de point d’entrée, la figure 17 montre le diagramme. The lighter the colour, the longer the distance a point travelled. From the diagram, we can tell that the points at the corners travelled close to 1 unit, whereas the points within the 2 branches didn’t move at all since they are attracted by the top and bottom branches during the training process.;Plus la couleur est claire, plus la distance parcourue par un point est longue. D’après le diagramme, nous pouvons dire que les points aux coins ont parcouru une distance proche d’une unité, alors que les points à l’intérieur des deux branches n’ont pas bougé du tout puisqu’ils sont attirés par les branches supérieures et inférieures pendant le processus d’entraînement. Contractive autoencoder;Auto-encoder contractif Fig.18 shows the loss function of the contractive autoencoder and the manifold.;La figure 18 montre la fonction de perte de l’auto-encodeur contractif et de la variété. The loss function contains the reconstruction term plus squared norm of the gradient of the hidden representation with respect to the input. Therefore, the overall loss will minimize the variation of the hidden layer given variation of the input. The benefit would be to make the model sensitive to reconstruction directions while insensitive to any other possible directions.;La fonction de perte contient le terme de reconstruction plus la norme au carré du gradient de la représentation cachée par rapport à l’entrée. Par conséquent, la perte globale minimise la variation de la couche cachée compte tenu de la variation de l’entrée. L’avantage est de rendre le modèle sensible aux directions de reconstruction tout en étant insensible aux autres directions possibles. Fig.19 shows how these autoencoders work in general.;La figure 19 montre comment ces auto-encodeurs fonctionnent en général. The training manifold is a single-dimensional object going in three dimensions. Where x∈X⊆Rn, the goal for autoencoder is to stretch down the curly line in one direction, where z∈Z⊆Rd. As a result, a point from the input layer will be transformed to a point in the latent layer. Now we have the correspondence between points in the input space and the points on the latent space but do not have the correspondence between regions of the input space and regions of the latent space. Afterwards, we will utilize the decoder to transform a point from the latent layer to generate a meaningful output layer.;La variété d’entraînement est un objet unidimensionnel allant à trois dimensions. Où x∈X⊆Rn, le but de l’auto-encodeur est d’étirer la ligne bouclée dans une direction, où z∈Z⊆Rd. En conséquence, un point de la couche d’entrée est transformé en un point de la couche latente. Nous avons maintenant la correspondance entre les points de l’espace d’entrée et les points de l’espace latent, mais pas la correspondance entre les régions de l’espace d’entrée et les régions de l’espace latent. Ensuite, nous utilisons le décodeur pour transformer un point de la couche latente afin de générer une couche de sortie significative. Define autoencoder model architecture and reconstruction loss;Définir l’architecture du modèle d’auto-encodeur et la perte de reconstruction Using 28×28 image, and a 30-dimensional hidden layer. The transformation routine would be going from 784→30→784. By applying hyperbolic tangent function to encoder and decoder routine, we are able to limit the output range to (−1,1). Mean Squared Error (MSE) loss will be used as the loss function of this model.;On utilise une image 28×28 et une couche cachée en 30 dimensions. La routine de transformation passe de 784→30→784. En appliquant la fonction tangente hyperbolique à la routine d’encodage et de décodage, nous sommes en mesure de limiter la plage de sortie à (−1,1). La perte d’erreur quadratique moyenne (MSE) est utilisée comme fonction de perte de ce modèle. Train standard autoencoder;Entraîner un auto-encodeur standard To train a standard autoencoder using PyTorch, you need put the following 5 methods in the training loop:;Pour entraîner un auto-encodeur standard en utilisant PyTorch, nous devons mettre les 5 méthodes suivantes dans la boucle d’entraînement : Going forward:;Passe avant : 1) Sending the input image through the model by calling output = model(img) .;1) Envoyer l’image d’entrée à travers le modèle en appelant output = model(img). 2) Compute the loss using: criterion(output, img.data).;2) Calculer la perte en utilisant : criterion(output, img.data). Going backward:;Passe arrière : 3) Clear the gradient to make sure we do not accumulate the value: optimizer.zero_grad().;3) Effacer le gradient pour s’assurer que nous n’accumulons pas la valeur : optimizer.zero_grad(). 4) Back propagation: loss.backward();4) Rétropropagation : loss.backward() 5) Step backwards: optimizer.step();5) étape arrière : optimizer.step() Fig. 20 shows the output of the standard autoencoder.;La figure 20 montre la sortie de l’auto-encodeur standard. Train denoising autoencoder;Entraîner un auto-encodeur débruiteur For denoising autoencoder, you need to add the following steps:;Pour l’auto-encodeur débruiteur, nous devons ajouter les étapes suivantes : 1) Calling do = nn.Dropout() creates a function that randomly turns off neurons.;1) Appeler do = nn.Dropout() crée une fonction qui éteint les neurones de façon aléatoire. 2) Create noise mask: do(torch.ones(img.shape)).;2) Créer un masque de bruit : do(torch.ones(img.shape)). 3) Create bad images by multiply good images to the binary masks: img_bad = (img * noise).to(device).;3) Créez de mauvaises images en multipliant les bonnes images aux masques binaires : img_bad = (img * noise).to(device). Fig. 21 shows the output of the denoising autoencoder.;La figure 21 montre la sortie de l’auto-encodeur débruiteur. Kernels comparison;Comparaison des noyaux It is important to note that in spite of the fact that the dimension of the input layer is 28×28=784, a hidden layer with a dimension of 500 is still an over-complete layer because of the number of black pixels in the image. Below are examples of kernels used in the trained under-complete standard autoencoder. Clearly, the pixels in the region where the number exists indicate the detection of some sort of pattern, while the pixels outside of this region are basically random. This indicates that the standard autoencoder does not care about the pixels outside of the region where the number is.;Il est important de noter que malgré le fait que la dimension de la couche d’entrée est de 28×28=784 une couche cachée d’une dimension de 500 est toujours une couche sur-complète en raison du nombre de pixels noirs dans l’image. Nous pouvons voir ci-dessous des exemples de noyaux utilisés dans un auto-encodeur standard sous-complet entraîné. Il est clair que les pixels dans la région où le nombre existe indiquent la détection d’une sorte de motif, tandis que les pixels en dehors de cette région sont essentiellement aléatoires. Cela indique que l’auto-encodeur standard ne se soucie pas des pixels situés en dehors de la région où se trouve le nombre. On the other hand, when the same data is fed to a denoising autoencoder where a dropout mask is applied to each image before fitting the model, something different happens. Every kernel that learns a pattern sets the pixels outside of the region where the number exists to some constant value. Because a dropout mask is applied to the images, the model now cares about the pixels outside of the number’s region.;D’autre part, lorsque les mêmes données sont transmises à un auto-encodeur débruiteur où un masque de dropout est appliqué à chaque image avant l’application du modèle, quelque chose de différent se produit. Chaque noyau qui apprend un modèle fixe les pixels en dehors de la région où le nombre existe à une certaine valeur constante. Comme un masque de dropout est appliqué aux images, le modèle se préoccupe maintenant des pixels situés en dehors de la région où le nombre existe. Compared to the state of the art, our autoencoder actually does better!! You can see the results below.;Par rapport à l’état de l’art, notre auto-encodeur fait en fait mieux ! Regardons les résultats ci-dessous : Week 8;Semaine 8 In this section, we focused on the introduction of contrastive methods in Energy-Based Models in several aspects. First, we discuss the advantage brought by applying contrastive methods in self-supervised learning. Second, we discussed the architecture of denoising autoencoders and their weakness in image reconstruction tasks. We also talked about other contrastive methods, like contrastive divergence and persistent contrastive divergence.;Dans cette section, nous nous focalisons sur l’introduction des méthodes contrastives dans les modèles à base d’énergie (EBMs) sous plusieurs aspects. Tout d’abord, nous discutons de l’avantage apporté par l’application des méthodes contrastives dans l’apprentissage autosupervisé. Ensuite, nous discutons de l’architecture des auto-encodeurs débruiteurs et de leur faiblesse dans les tâches de reconstruction d’images. Nous évoquons également d’autres méthodes contrastives, comme la divergence contrastive et la divergence contrastive persistante. In this section, we discussed regularized latent variable EBMs in detail covering concepts of conditional and unconditional versions of these models. We then discussed the algorithms of ISTA, FISTA and LISTA and look at examples of sparse coding and filters learned from convolutional sparse encoders. Finally we talked about Variational Auto-Encoders and the underlying concepts involved.;Dans cette section, nous discutons en détail des EBMs à variables latentes régularisées en couvrant les concepts de versions conditionnelles et inconditionnelles de ces modèles. Nous discutons ensuite des algorithmes ISTA, FISTA et LISTA. Nous examinons des exemples de codage épars et de filtres appris d’encodeurs convolutifs épars. Enfin, nous parlons des auto-encodeurs variationnels et des concepts sous-jacents impliqués. In this section, we discussed a specific type of generative model called Variational Autoencoders and compared their functionalities and advantages over Classic Autoencoders. We explored the objective function of VAE in detail, understanding how it enforced some structure in the latent space. Finally, we implemented and trained a VAE on the MNIST dataset and used it to generate new samples.;Dans cette section, nous discutons d’un type spécifique de modèle génératif appelé auto-encodeurs variationnels (VAEs pour Variational Autoencoders) et comparons leurs fonctionnalités et avantages par rapport aux auto-encodeurs classiques. Nous explorons en détail la fonction objectif du VAE, en comprenant notamment comment elle impose une certaine structure dans l’espace latent. Enfin, nous mettons en œuvre et entraînons un VAE sur le jeu de données MNIST et l’utilisons pour générer de nouveaux échantillons. Contrastive Methods in Energy-Based Models;Méthodes Contrastives pour les modèles à base d’énergie Recap;Recapitulatif As we have learned from the last lecture, there are two main classes of learning methods:;Comme nous l’avons vu lors du dernier cours, il existe deux grandes catégories de méthodes d’apprentissage : 1. Contrastive Methods that push down the energy of training data points, F(xi​,yi​), while pushing up energy on everywhere else, F(xi​,y’).;1. Les méthodes contrastives qui poussent vers le bas l’énergie des points des données d’entraînement, F(xi​,yi​), tout en poussant vers le haut l’énergie sur tous les autres points, F(xi​,y’). 2. Architectural Methods that build energy function F which has minimized/limited low energy regions by applying regularization.;2. Les méthodes architecturales qui construisent une fonction d’énergie F qui minimise/limite les régions à faible énergie en appliquant une régularisation. To distinguish the characteristics of different training methods, Dr. Yann LeCun has further summarized 7 strategies of training from the two classes mention before. One of which is methods that are similar to Maximum Likelihood method, which push down the energy of data points and push up everywhere else.;Pour distinguer les caractéristiques des différentes méthodes d’entraînement, Yann a listé lors du cours précédent sept stratégies d’entraînement des deux classes mentionnées à l’instant. L’une d’entre elles est une méthode similaire à la méthode du maximum de vraisemblance, qui pousse l’énergie des points de données vers le bas et vers le haut partout ailleurs. Maximum Likelihood method probabilistically pushes down energies at training data points and pushes everywhere else for every other value of y’≠yi. Maximum Likelihood doesn’t “care” about the absolute values of energies but only “cares” about the difference between energy. Because the probability distribution is always normalized to sum/integrate to 1, comparing the ratio between any two given data points is more useful than simply comparing absolute values.;La méthode du maximum de vraisemblance pousse de façon probabiliste les énergies vers le bas des points des données d’entraînement et vers le haut partout ailleurs pour chaque autre valeur de y’≠yi​. La méthode du maximum de vraisemblance ne se soucie pas des valeurs absolues des énergies, mais seulement de la différence entre les énergies. Comme la distribution des probabilités est toujours normalisée à 1, la comparaison du rapport entre deux points donnés est plus utile que la simple comparaison des valeurs absolues. Contrastive methods in self-supervised learning;Méthodes contrastives en apprentissage autosupervisé In contrastive methods, we push down on the energy of observed training data points (xi​, yi​), while pushing up on the energy of points outside of the training data manifold.;Dans les méthodes contrastives, nous poussons vers le bas l’énergie des points des données d’entraînement observés (xi​, yi​), tout en poussant vers le haut l’énergie des points en dehors de la variété des données d’entraînement. In self-supervised learning, we use one part of the input to predict the other parts. We hope that our model can produce good features for computer vision that rival those from supervised tasks.;Dans l’apprentissage autosupervisé, nous utilisons une partie des données d’entrée pour prédire les autres parties. Nous espérons que notre modèle peut produire de bonnes caractéristiques pour la vision par ordinateur qui rivalisent avec celles des tâches supervisées. Researchers have found empirically that applying contrastive embedding methods to self-supervised learning models can indeed have good performances which rival that of supervised models. We will explore some of these methods and their results below.;Les chercheurs ont constaté empiriquement que l’application de méthodes d’enchâssement contrastives (contrastive embedding methods) à des modèles d’apprentissage autosupervisé peut donner de bonnes performances rivalisant avec celles des modèles supervisés. Nous allons explorer certaines de ces méthodes et leurs résultats. Contrastive embedding;Méthodes d’enchâssement contrastives Conceptually, contrastive embedding methods take a convolutional network, and feed x and y through this network to obtain two feature vectors: h and h’. Because x and y have the same content (i.e. a positive pair), we want their feature vectors to be as similar as possible. As a result, we choose a similarity metric (such as cosine similarity) and a loss function that maximizes the similarity between h and h’. By doing this, we lower the energy for images on the training data manifold.;Conceptuellement, les méthodes d’enchâssement contrastives prennent un réseau convolutif et passent x et y à travers ce réseau pour obtenir deux vecteurs de caractéristiques : h et h’. Comme x et y ont le même contenu (une paire positive), nous voulons que leurs vecteurs de caractéristiques soient aussi similaires que possible. Par conséquent, nous choisissons une métrique de similarité (telle que la similarité cosinus) et une fonction de perte qui maximise la similarité entre h et h’. Ce faisant, nous réduisons l’énergie des images sur la variété des données d’entraînement. However, we also have to push up on the energy of points outside this manifold. So we also generate negative samples (xneg​, yneg​), images with different content (different class labels, for example). We feed these to our network above, obtain feature vectors h and h’, and now try to minimize the similarity between them.;Cependant, nous devons également pousser l’énergie des points situés en dehors de cette variété. Ainsi, nous générons également des échantillons négatifs (xneg​, yneg​), des images au contenu différent (labels de classe différents par exemple). Nous les transmettons à notre réseau, obtenons les vecteurs de caractéristiques h et h’, et essayons de minimiser la similarité entre eux. This method allows us to push down on the energy of similar pairs while pushing up on the energy of dissimilar pairs.;Cette méthode nous permet de pousser vers le bas l’énergie des paires similaires tout en poussant vers le haut l’énergie des paires dissemblables. Recent results (on ImageNet) have shown that this method can produce features that are good for object recognition that can rival the features learned through supervised methods.;Des résultats récents (sur ImageNet) ont montré que cette méthode peut produire des caractéristiques qui sont bonnes pour la reconnaissance d’objets et qui peuvent rivaliser avec les caractéristiques apprises par des méthodes supervisées. Self-Supervised Results (MoCo, PIRL, SimCLR);Résultats des méthodes autosupervisées (MoCo, PIRL, SimCLR) As seen in the figure above, MoCo and PIRL achieve SOTA results (especially for lower-capacity models, with a small number of parameters). PIRL is starting to approach the top-1 linear accuracy of supervised baselines (~75%).;Comme le montre la figure ci-dessus, les méthodes MoCo et PIRL obtiennent les résultats de l’état de l’art (en particulier pour les modèles de faible capacité, avec un petit nombre de paramètres). PIRL commence à se rapprocher du top 1 de la précision linéaire des baselines supervisées (environ 75%). We can understand PIRL more by looking at its objective function: NCE (Noise Contrastive Estimator) as follows.;Nous pouvons mieux comprendre PIRL en examinant sa fonction objectif, la NCE (Noise Contrastive Estimator) : Here we define the similarity metric between two feature maps/vectors as the cosine similarity.;Nous définissons ici la métrique de similarité entre deux cartes/vecteurs de caractéristiques comme étant la similarité cosinus. What PIRL does differently is that it doesn’t use the direct output of the convolutional feature extractor. It instead defines different heads F and g, which can be thought of as independent layers on top of the base convolutional feature extractor.;PIRL n’utilise pas la sortie directe de l’extracteur de caractéristiques du ConvNet. Il définit plutôt différentes têtes F et g, qui peuvent être considérées comme des couches indépendantes au-dessus de l’extracteur de caractéristiques. In a mini-batch, we will have one positive (similar) pair and many negative (dissimilar) pairs. We then compute the similarity between the transformed image’s feature vector (It) and the rest of the feature vectors in the minibatch (one positive, the rest negative). We then compute the score of a softmax-like function on the positive pair. Maximizing a softmax score means minimizing the rest of the scores, which is exactly what we want for an energy-based model. The final loss function, therefore, allows us to build a model that pushes the energy down on similar pairs while pushing it up on dissimilar pairs.;Dans un mini-batch, nous avons une paire positive (similaire) et de nombreuses paires négatives (dissemblables). Nous calculons ensuite la similarité entre le vecteur caractéristique de l’image transformée (It) et le reste des vecteurs caractéristiques du mini-batch (un positif, le reste négatif). Nous calculons ensuite le score d’une fonction de type softmax sur la paire positive. Maximiser un score softmax signifie minimiser le reste des scores, ce qui est exactement ce que nous voulons pour un modèle à base d’énergie. La fonction de perte finale nous permet donc de construire un modèle qui pousse l’énergie vers le bas sur des paires similaires tout en la poussant vers le haut sur des paires dissemblables. Dr. LeCun mentions that to make this work, it requires a large number of negative samples. In SGD, it can be difficult to consistently maintain a large number of these negative samples from mini-batches. Therefore, PIRL also uses a cached memory bank.;Yann mentionne que pour que cela fonctionne, il faut un grand nombre d’échantillons négatifs. Dans la SGD, il peut être difficile de maintenir de façon constante un grand nombre de ces échantillons négatifs à partir de mini-batchs. C’est pourquoi PIRL utilise également une banque mémoire en cache. Why do we use cosine similarity instead of L2 Norm? With an L2 norm, it’s very easy to make two vectors similar by making them “short” (close to centre) or make two vectors dissimilar by making them very “long” (away from the centre). This is because the L2 norm is just a sum of squared partial differences between the vectors. Thus, using cosine similarity forces the system to find a good solution without “cheating” by making vectors short or long.;Pourquoi utilisons-nous la similarité cosinus au lieu de la norme L2 ? Avec une norme L2, il est très facile de rendre deux vecteurs similaires en les rendant « courts » (proches du centre) ou de rendre deux vecteurs dissemblables en les rendant très « longs » (éloignés du centre). En effet, la norme L2 n’est qu’une somme des carrés des différences partielles entre les vecteurs. Ainsi, l’utilisation de la similarité cosinus oblige le système à trouver une bonne solution sans « tricher » en rendant les vecteurs courts ou longs. SimCLR;SimCLR SimCLR shows better results than previous methods. In fact, it reaches the performance of supervised methods on ImageNet, with top-1 linear accuracy on ImageNet. The technique uses a sophisticated data augmentation method to generate similar pairs, and they train for a massive amount of time (with very, very large batch sizes) on TPUs. Dr. LeCun believes that SimCLR, to a certain extent, shows the limit of contrastive methods. There are many, many regions in a high-dimensional space where you need to push up the energy to make sure it’s actually higher than on the data manifold. As you increase the dimension of the representation, you need more and more negative samples to make sure the energy is higher in those places not on the manifold.;SimCLR donne de meilleurs résultats que les méthodes précédentes. En fait, avec un nombre de paramètres suffisants, elle atteint les performances des méthodes supervisées de la « top-1 linear accuracy » sur ImageNet. La technique utilise une méthode sophistiquée d’augmentation de données pour générer des paires similaires et l’entraînement est réalisé pendant un temps considérable (avec des batchs très très importants) sur des TPUs. Yann pense que SimCLR, dans une certaine mesure, montre la limite des méthodes contrastives. Il y a beaucoup beaucoup de régions dans un espace en grande dimension où il faut pousser l’énergie vers le haut pour s’assurer qu’elle est effectivement plus élevée que sur la surface de données. Au fur et à mesure que vous augmentez la dimension de la représentation, vous avez besoin de plus en plus d’échantillons négatifs pour vous assurer que l’énergie est plus élevée dans les endroits qui ne sont pas sur la surface. Denoising autoencoder;Auto-encodeur débruiteur In week 7’s practicum, we discussed denoising autoencoder. The model tends to learn the representation of the data by reconstructing corrupted input to the original input. More specifically, we train the system to produce an energy function that grows quadratically as the corrupted data move away from the data manifold.;Dans les travaux dirigés de la semaine 7, nous avons discuté de l’auto-encodeur débruiteur. Le modèle tend à apprendre la représentation des données en reconstruisant l’entrée corrompue à l’entrée originale. Plus précisément, nous entraînons le système à produire une fonction d’énergie qui croît quadratiquement à mesure que les données corrompues s’éloignent de la variétés des données. Issues;Problèmes However, there are several problems with denoising autoencoders. One problem is that in a high dimensional continuous space, there are uncountable ways to corrupt a piece of data. So there is no guarantee that we can shape the energy function by simply pushing up on lots of different locations. Another problem with the model is that it performs poorly when dealing with images due to the lack of latent variables. Since there are many ways to reconstruct the images, the system produces various predictions and doesn’t learn particularly good features. Besides, corrupted points in the middle of the manifold could be reconstructed to both sides. This will create flat spots in the energy function and affect the overall performance.;Cependant, l’auto-encodeur débruiteur pose plusieurs problèmes. L’un des problèmes est que dans un espace continu de grande dimension, il existe d’innombrables façons de corrompre une donnée. Il n’y a donc aucune garantie que nous puissions modeler la fonction d’énergie en poussant simplement sur un grand nombre d’endroits différents. Other Contrastive Methods;Autres méthodes contrastives There are other contrastive methods such as contrastive divergence, Ratio Matching, Noise Contrastive Estimation, and Minimum Probability Flow. We will briefly discuss the basic idea of contrastive divergence.;Il existe d’autres méthodes contrastives telles que la divergence contrastive, le Ratio Matching, le Noise Contrastive Estimation ou encore le Minimum Probability Flow. Nous abordons brièvement l’idée de base de la divergence contrastive. Contrastive Divergence;Divergence contrastive Contrastive divergence (CD) is another model that learns the representation by smartly corrupting the input sample. In a continuous space, we first pick a training sample y and lower its energy. For that sample, we use some sort of gradient-based process to move down on the energy surface with noise. If the input space is discrete, we can instead perturb the training sample randomly to modify the energy. If the energy we get is lower, we keep it. Otherwise, we discard it with some probability. Keep doing so will eventually lower the energy of y. We can then update the parameter of our energy function by comparing y and the contrasted sample yˉ​ with some loss function.;La divergence contrastive est un autre modèle qui apprend la représentation en corrompant intelligemment l’échantillon d’entrée. Dans un espace continu, nous choisissons d’abord un échantillon d’entraînement y et nous en diminuons l’énergie. Pour cet échantillon, nous utilisons une sorte de processus basé sur des gradients pour descendre sur la surface de l’énergie avec du bruit. Si l’espace d’entrée est discret, nous pouvons à la place perturber l’échantillon d’entraînement de manière aléatoire pour modifier l’énergie. Si l’énergie que nous obtenons est plus faible, nous la gardons. Sinon, nous la rejetons avec une certaine probabilité. Si nous continuons ainsi, nous finissons par diminuer l’énergie de y. Nous pouvons alors mettre à jour le paramètre de notre fonction d’énergie en comparant y et l’échantillon contrasté yˉ​ avec une certaine fonction de perte. Persistent Contrastive Divergence;Divergence contrastive persistante One of the refinements of contrastive divergence is persistent contrastive divergence. The system uses a bunch of “particles” and remembers their positions. These particles are moved down on the energy surface just like what we did in the regular CD. Eventually, they will find low energy places in our energy surface and will cause them to be pushed up. However, the system does not scale well as the dimensionality increases.;L’un des raffinements de la divergence contrastive est la divergence contrastive persistante. Le système utilise un groupe de « particules » et se souvient de leurs positions. Ces particules sont déplacées vers le bas sur la surface d’énergie, tout comme nous l’avons fait dans la divergence contrastive ordinaire. Finalement, elles trouvent des endroits à faible énergie dans notre surface énergétique et les font monter. Cependant, le système ne s’adapte pas bien à l’échelle car la dimensionnalité augmente. Regularized Latent Variable Energy Based Models;EBMs à variables latentes régularisées Regularized latent variable EBMs;EBMs à variables latentes régularisées Models with latent variables are capable of making a distribution of predictions y‾y​ conditioned on an observed input x and an additional latent variable z. Energy-based models can also contain latent variables:;Les modèles avec des variables latentes sont capables de faire une distribution de prédictions y‾y​ conditionnée par une entrée observée x et une variable latente supplémentaire z. Les modèles à base d’énergie peuvent également contenir des variables latentes : Unfortunately, if the latent variable z has too much expressive power in producing the final prediction y‾y​, every true output y will be perfectly reconstructed from input x with an appropriately chosen z. This means that the energy function will be 0 everywhere, since the energy is optimized over both y and z during inference.;Malheureusement, si la variable latente z a une trop grande puissance expressive dans la production de la prédiction finale y‾y​, chaque sortie réelle y sera parfaitement reconstruite à partir de l’entrée x avec un z choisi de manière appropriée. Cela signifie que la fonction d’énergie sera partout égale à 0, puisque l’énergie est optimisée à la fois sur y et z pendant l’inférence. A natural solution is to limit the information capacity of the latent variable z. One way to do this is to regularize the latent variable:;Une solution naturelle consiste à limiter la capacité d’information de la variable latente z. Un moyen d’y parvenir est de régulariser la variable latente : This method will limit the volume of space of z which takes a small value and the value which will, in turn, controls the space of y that has low energy. The value of λ controls this tradeoff. A useful example of R is the L1​ norm, which can be viewed as an almost everywhere differentiable approximation of effective dimension. Adding noise to z while limiting its L2​ norm can also limit its information content (VAE).;Cette méthode limite le volume de l’espace de z qui prend une petite valeur et la valeur qui, à son tour, contrôle l’espace de y ayant une faible énergie. La valeur de λ contrôle ce compromis. Un exemple utile de R est la norme L1​, qui peut être considérée comme une approximation différenciable de la dimension effective presque partout. Ajouter du bruit à z tout en limitant sa norme L2​ peut également limiter son contenu en information (VAE). Sparse Coding;Codage épars Sparse coding is an example of an unconditional regularized latent-variable EBM which essentially attempts to approximate the data with a piecewise linear function.;Le codage épars est un exemple d’EBM à variables latentes régularisées inconditionnelles qui tente essentiellement d’approcher les données avec une fonction linéaire par morceaux : The n-dimensional vector z will tend to have a maximum number of non-zero components m« nm« n. Then each Wz will be elements in the span of mm columns of W.;Le vecteur z de dimension n a tendance à avoir un nombre maximum de composantes non nulles m« nm« n. Chaque Wz est donc constitué d’éléments dans l’intervalle des mm colonnes de W. After each optimization step, the matrix W and latent variable z are normalized by the sum of the L2​ norms of the columns of W. This ensures that W and z do not diverge to infinity and zero.;Après chaque étape d’optimisation, la matrice W et la variable latente z sont normalisées par la somme des normes L2​ des colonnes de W. Cela garantit que W et z ne divergent pas à l’infini et à zéro. FISTA;FISTA FISTA (fast ISTA) is an algorithm that optimizes the sparse coding energy function E(y,z) with respect to z by alternately optimizing the two terms ∥y−Wz∥2 and λ∥z∥L1​. We initialize Z(0) and iteratively update z according to the following rule:;FISTA (fast ISTA) est un algorithme qui optimise la fonction d’énergie de codage épars E(y,z) par rapport à z en optimisant alternativement les deux termes ∥y−Wz∥2 et λ∥z∥L1​. Nous initialisons Z(0) et mettons à jour itérativement z selon la règle suivante : The inner expression Z(t)−1LWd⊤(WdZ(t)−Y) is a gradient step for the ∥y−Wz∥2 term. The Shrinkagefunction then shifts values towards 0, which optimizes the λ∥z∥L1​​ term.;L’expression interne Z(t)−1LWd⊤(WdZ(t)−Y) est un pas de gradient pour le terme ∥y−Wz∥2. La fonction Shrinkage décale ensuite les valeurs vers 0, ce qui optimise le terme λ∥z∥L1​​. LISTA;LISTA FISTA is too expensive to apply to large sets of high-dimensional data (e.g. images). One way to make it more efficient is to instead train a network to predict the optimal latent variable z:;FISTA est trop coûteux pour être appliqué à des jeux de données de grandes dimensions (par exemple les images). Un moyen de le rendre plus efficace est d’entraîner un réseau à prédire la variable latente optimale z : The energy of this architecture then includes an additional term that measures the difference between the predicted latent variable z‾z and the optimal latent variable z:;L’énergie de cette architecture comprend alors un terme supplémentaire qui mesure la différence entre la variable latente prédite z‾z et la variable latente optimale z : This update rule can be interpreted as a recurrent network, which suggests that we can instead learn the parameters We​ that iteratively determine the latent variable z. The network is run for a fixed number of time steps k and the gradients of We​ are computed using standard backpropagation-through-time. The trained network then produces a good z in fewer iterations than the FISTA algorithm.;Cette règle de mise à jour peut être interprétée comme un réseau récurrent, ce qui suggère que nous pouvons apprendre les paramètres We​ qui déterminent itérativement la variable latente z. Le réseau est exécuté pour un nombre de pas de temps k fixe et les gradients de We sont calculés en utilisant la rétropropagation standard à travers le temps. Le réseau entraîné produit alors un bon z en moins d’itérations que l’algorithme FISTA. Sparse coding examples;Exemples de codage épars When a sparse coding system with 256 dimensional latent vector is applied to MNIST handwritten digits, the system learns a set of 256 strokes that can be linearly combined to nearly reproduce the entire training set. The sparse regularizer ensures that they can be reproduced from a small number of strokes.;Lorsqu’un système de codage épars avec un vecteur latent à 256 dimensions est appliqué aux chiffres manuscrits de MNIST, le système apprend un ensemble de 256 traits qui peuvent être combinés linéairement pour reproduire presque tout l’ensemble d’entraînement. Le régularisateur épars garantit qu’ils peuvent être reproduits à partir d’un petit nombre de traits. When a sparse coding system is trained on natural image patches, the learned features are Gabor filters, which are oriented edges. These features resemble features learned in early parts of animal visual systems.;Lorsqu’un système de codage épars est entraîné sur des images naturelles, les caractéristiques apprises sont les filtres de Gabor, qui sont des bords orientés. Ces caractéristiques ressemblent aux caractéristiques apprises dans les premières parties des systèmes visuels des animaux. Convolutional sparse coding;Codage convolutif épars Suppose, we have an image and the feature maps (z1,z2,⋯ ,zn​) of the image. Then we can convolve (∗) each of the feature maps with the kernel Ki​. Then the reconstruction can be simply calculated as:;Supposons que nous ayons une image et les cartes de caractéristiques (z1,z2,⋯ ,zn​) de l’image. Nous pouvons faire une convolution (∗) de chacune des cartes de caractéristiques avec le noyau Ki​. La reconstruction peut être alors simplement calculée comme : This is different from the original sparse coding where the reconstruction was done as Y=∑iWiZi. In regular sparse coding, we have a weighted sum of columns where the weights are coefficients of Zi​. In convolutional sparse coding, it is still a linear operation but the dictionary matrix is now a bunch of feature maps and we convolve each feature map with each kernel and sum up the results.;Cela est différent du codage épars original où la reconstruction est faite sous la forme Y=∑iWiZi​. Dans le codage épars de base, nous avons une somme pondérée de colonnes où les poids sont des coefficients de Zi​. Dans le codage convolutif épars, il s’agit toujours d’une opération linéaire, mais la matrice du dictionnaire est maintenant un ensemble de cartes de caractéristiques et nous effectuons une convolution de chacune d’elles avec chaque noyau et nous additionnons les résultats. Convolutional sparse auto-encoder on natural images;Auto-encodeur convolutif épars sur des images naturelles The filters in the encoder and decoder look very similar. Encoder is simply a convolution followed by some non-linearity and then a diagonal layer to change the scale. Then there is sparsity on the constraint of the code. The decoder is just a convolutional linear decoder and the reconstruction here is the square error.;Les filtres de l’encodeur et du décodeur se ressemblent beaucoup. L’encodeur est simplement une convolution suivie d’une non-linéarité, puis une couche diagonale pour changer l’échelle. Ensuite, il y a de l’éparsité sur la contrainte du code. Le décodeur n’est qu’un décodeur linéaire convolutif et la reconstruction est ici l’erreur quadratique. "So, if we impose that there is only one filter then it is just a centre surround type filter. With two filters, we can get some weird shaped filters. With four filters, we get oriented edges (horizontal and vertical); we get 2 polarities for each of the filters. With eight filters we can get oriented edges at 8 different orientations. With 16, we get more orientation along with the centres around. As we go on increasing the filters, we get more diverse filters that is in addition to edge detectors, we also get grating detectors of various orientations, centres around, etc.";Donc, si nous imposons qu’il n’y ait qu’un seul filtre, alors il s’agit juste d’un filtre de type center surround. Avec deux filtres, nous pouvons obtenir des filtres de forme étrange. Avec quatre filtres, nous obtenons des bords orientés (horizontaux et verticaux) et 2 polarités pour chacun des filtres. Avec huit filtres, nous pouvons obtenir des bords orientés à 8 orientations différentes. Avec 16 filtres, nous obtenons plus d’orientation ainsi que les center surround. En augmentant les filtres, on obtient des filtres plus variés, c’est-à-dire en plus des détecteurs de bords, on obtient également des détecteurs de réseaux de différentes orientations, des center surround, etc. This phenomenon seems to be interesting since it is similar to what we observe in the visual cortex. So this is an indication that we can learn really good features in a completely unsupervised way.;Ce phénomène semble intéressant car il est similaire à ce que nous observons dans le cortex visuel. C’est donc une indication que nous pouvons apprendre de très bonnes caractéristiques d’une manière totalement non supervisée. As a side use, if we take these features and plug them in a convolutional net and then train them on some task, then we don’t necessarily get better results than training an image net from scratch. However, there are some instances where it can help to boost performance. For instance, in cases where the number of samples are not large enough or there are few categories, by training in a purely supervised manner, we get degenerate features.;Par ailleurs, si nous prenons ces caractéristiques et les connectons à un réseau convolutif, puis que nous les entraînons à une tâche quelconque, nous n’obtenons pas nécessairement de meilleurs résultats qu’un réseau d’images entraîner à partir de zéro. Cependant, dans certains cas, cela peut contribuer à améliorer les performances. Par exemple, dans les cas où le nombre d’échantillons n’est pas assez important ou s’il y a peu de catégories, en entraînant de manière purement supervisée, nous obtenons des caractéristiques dégénérées. The figure above is another example on colour images. The decoding kernel (on the right side) is of size 9 by 9. This kernel is applied convolutionally over the entire image. The image on the left is of the sparse codes from the encoder. The z vector is very sparse space where there are just few components that are white or black (non-grey).;La figure ci-dessus est un autre exemple sur les images en couleur. Le noyau de décodage (sur le côté droit) est de taille 9 par 9. Ce noyau est appliqué par convolution sur l’ensemble de l’image. L’image de gauche est constituée des codes épars de l’encodeur. Le vecteur z est un espace très épars où il n’y a que peu de composantes blanches ou noires (non grises). Variational autoencoder;Auto-encodeurs variationnels Variational Autoencoders have an architecture similar to Regularized Latent Variable EBM, with the exception of sparsity. Instead, the information content of the code is limited by making it noisy.;Les auto-encodeurs variationnels ont une architecture similaire à celle des EBMs à variable latente régularisée, à l’exception de l’éparsité. Au contraire, le contenu informationnel du code est limité en le rendant bruyant. The latent variable z is not computed by minimizing the energy function with respect to z. Instead, the energy function is viewed as sampling z randomly according to a distribution whose logarithm is the cost that links it to z‾z. The distribution is a Gaussian with mean z‾z and this results in Gaussian noise being added to z‾z.;La variable latente z n’est pas calculée en minimisant la fonction énergie par rapport à z. Au lieu de cela, la fonction énergie est considérée comme un échantillonnage aléatoire de z selon une distribution dont le logarithme est le coût qui la relie à z‾z. La distribution est une gaussienne avec une moyenne de z‾z et cela se traduit par l’ajout d’un bruit gaussien à z‾z. The code vectors with added Gaussian noise can be visualized as fuzy balls as shown in Fig. 9(a).;Les vecteurs de code avec ajout de bruit gaussien peuvent être visualisés sous forme de boules floues, comme le montre la figure 9(a). The system tries to make the code vectors z‾z as large as possible so that the effect of z(noise) is as small as possible. This results in the fuzy balls floating away from the origin as shown in Fig. 9(b). Another reason why the system tries to make the code vectors large is to prevent overlapping fuzy balls, which causes the decoder to confuse between different samples during reconstruction.;Le système essaie de rendre les vecteurs de code z‾z aussi grands que possible afin que l’effet de z (bruit) soit aussi petit que possible. Cela a pour résultat que les « boules floues » s’éloignent de l’origine comme le montre la figure 9(b). Une autre raison pour laquelle le système tente de rendre les vecteurs de code plus grands est d’éviter le chevauchement des « boules floues », qui entraîne une confusion du décodeur entre les différents échantillons lors de la reconstruction. But we want the fuzy balls to cluster around a data manifold, if there is one. So, the code vectors are regularized to have a mean and variance close to zero. To do this, we link them to the origin by a spring as shown in Fig. 10.;Mais nous voulons que les boules floues se regroupent autour d’une variété de données, s’il y en a une. Ainsi, les vecteurs de code sont régularisés pour avoir une moyenne et une variance proches de 0. Pour ce faire, nous les relions à l’origine par un ressort comme le montre la figure 10. The strength of the spring determines how close the fuzy balls are to the origin. If the spring is too weak, then the fuzy balls would fly away from the origin. And if it’s too strong, then they would collapse at the origin, resulting in a high energy value. To prevent this, the system lets the spheres overlap only if the corresponding samples are similar. It is also possible to adapt the size of the fuzy balls. This is limited by a penalty function (KL Divergence) that tries to make the variance close to 1 so that the size of the ball is neither too big nor too small that it collapses.;La force du ressort détermine la proximité des « boules floues » par rapport à l’origine. Si le ressort est trop faible, les boules s’éloignent de l’origine. Et si le ressort est trop fort, alors elles s’effondrent à l’origine, ce qui entraîne une valeur d’énergie élevée. Pour éviter cela, le système ne laisse les sphères se chevaucher que si les échantillons correspondants sont similaires. Il est également possible d’adapter la taille des boules floues. Ceci est limité par une fonction de pénalité (KL Divergence) qui tente de rendre la variance proche de 1 afin que la taille de la boule ne soit ni trop grande ni trop petite pour qu’elle s’effondre. Generative Models - Variational Autoencoders;Modèles Génératifs et Auto-encodeurs variationnels Recap: Auto-encoder (AE);Récapitulatif : Auto-encodeur (AE) To summarize at a high level, a very simple form of AE is as follows:;Pour résumer l’auto-encodeur de manière très simple : First, the autoencoder takes in an input and maps it to a hidden state through an affine transformation h=f(Wh​x+bh​), where F is an (element-wise) activation function. This is the encoder stage. Note that h is also called the code.;Tout d’abord, l’auto-encodeur prend une entrée et l’associe à un état caché par une transformation affine h=f(Whx+bh), où F est une fonction d’activation (par élément). C’est l’étape de l’encodeur. Notons que h est également appelé le code. Next, x^=g(Wx​h+bx​), where g is an activation function. This is the decoder stage.;Ensuite, x^=g(Wx​h+bx​), où g est une fonction d’activation. C’est l’étape du décodeur. For a detailed explaination, refer to the notes of Week 7.;Pour une explication détaillée, voir les notes de la semaine 7. Intuition behind VAE and a comparison with classic autoencoders;Intuition derrière les VAEs et comparaison avec les auto-encodeurs classiques Next, we introduce Variational Autoencoders (or VAE), a type of generative models. But why do we even care about generative models? To answer the question, discriminative models learn to make predictions given some observations, but generative models aim to simulate the data generation process. One effect is that generative models can better understand the underlying causal relations which leads to better generalization.;Ensuite, nous présentons les auto-encodeurs variationnels (VAEs), un type de modèles génératifs. Mais pourquoi s’intéresser aux modèles génératifs ? Pour répondre à la question, les modèles discriminants apprennent à faire des prédictions à partir de certaines observations, mais les modèles génératifs visent à simuler le processus de génération de données. Un des effets est que les modèles génératifs peuvent mieux comprendre les relations causales sous-jacentes, ce qui conduit à une meilleure généralisation. Note that although VAE has “Autoencoders” (AE) in its name (because of structural or architectural similarity to auto-encoders), the formulations between VAEs and AEs are very different. See Figure 1 below.;Il est à noter que bien que le nom VAE contienne le terme « auto-encodeurs » (AE) en raison de la similarité structurelle ou architecturale avec les auto-encodeurs, les formulations entre VAE et AE sont très différentes. What’s the difference between variational auto-encoder (VAE) and classic auto-encoder (AE)?;Quelle est la différence entre l’auto-encodeur variationnel (VAE) et l’auto-encodeur classique (AE) ? For VAE:;Pour le VAE : First, the encoder stage: we pass the input x to the encoder. Instead of generating a hidden representation h (the code) in AE, the code in VAE comprises two things: E(z) and V(z) where z is the latent random variable following a Gaussian distribution with mean E(z) and variance V(z). Note that people use Gaussian distributions as the encoded distribution in practice, but other distributions can be used as well. The encoder will be a function from x to R2d: x↦h (here we use h to represent the concatenation of E(z) and V(z)).;D’abord, l’étape de l’encodeur : nous passons l’entrée x à l’encodeur. Au lieu de générer une représentation cachée h (le code) dans AE, le code dans VAE comprend deux choses : E(z) et V(z) où z est la variable aléatoire latente suivant une distribution gaussienne avec la moyenne E(z) et la variance V(z). A noter qu’en pratique, les gens utilisent les distributions gaussiennes comme distribution encodée, mais d’autres distributions peuvent également être utilisées. L’encodeur sera une fonction de x à R2d : x↦h (ici nous utilisons h pour représenter la concaténation de E(z) et V(z)). "Next, we will sample z from the above distribution parametrized by the encoder; specifically, E(z) and V(z) are passed into a sampler to generate the latent variable z.";Ensuite, nous allons échantillonner z à partir de la distribution ci-dessus paramétrée par l’encodeur. Plus précisément, E(z) et V(z) sont passés dans un échantillonneur pour générer la variable latente z. Next, z is passed into the decoder to generate x^.;Ensuite, z est passé dans le décodeur pour générer x^. The decoder will be a function from z to Rn: z↦x^.;Le décodeur sera une fonction de z vers Rn: z↦x^. In fact, for classic autoencoder, we can think of h as just the vector E(z) in the VAE formulation. In short, the main difference between VAEs and AEs is that VAEs have a good latent space that enables generative process.;En fait, pour l’auto-encodeur classique, on peut considérer h comme le vecteur E(z) de la formulation VAE. En bref, la principale différence entre les VAEs et les AEs est que les VAEs ont un bon espace latent qui permet le processus de génération. The VAE objective (loss) function;La fonction de perte des VAEs See Figure 2 above. For now, ignore the top-right corner (which is the reparameterisation trick explained in the next section).;Décrivons cette figure 2 ci-dessus. Commençons par ignorer le coin supérieur droit (qui est l’astuce de reparamétrage expliquée dans la section suivante). First, we encode from input space (left) to latent space (right), through encoder and noise. Next, we decode from latent space (right) to output space (left). To go from the latent to input space (the generative process) we will need to either learn the distribution (of the latent code) or enforce some structure. In our case, VAE enforces some structure to the latent space.;D’abord nous encodons, de l’espace d’entrée (à gauche) à l’espace latent (à droite), en passant par l’encodeur et le bruit. Ensuite, nous décodons de l’espace latent (à droite) à l’espace de sortie (à gauche). Pour passer de l’espace latent à l’espace d’entrée (le processus de génération), nous devrons soit apprendre la distribution (du code latent), soit appliquer une certaine structure. Dans notre cas, le VAE applique une certaine structure à l’espace latent. As usual, to train VAE, we minimize a loss function. The loss function is therefore composed of a reconstruction term as well as a regularization term.;Comme d’habitude, pour entraîner le VAE, nous minimisons une fonction de perte. La fonction de perte est donc composée d’un terme de reconstruction ainsi que d’un terme de régularisation. The reconstruction term is on the final layer (left side of the figure). This corresponds to l(x,x^) in the figure.;Le terme de reconstruction se trouve sur la dernière couche (côté gauche de la figure). Cela correspond à l(x,x^) dans la figure. The regularization term is on the latent layer, to enforce some specific Gaussian structure on the latent space (right side of the figure). We do so by using a penalty term lKL​(z,N(0,Id​)). Without this term, VAE will act like a classic autoencoder, which may lead to overfitting, and we won’t have the generative properties that we desire.;Le terme de régularisation se trouve sur la couche latente, pour renforcer une structure gaussienne spécifique sur l’espace latent (côté droit de la figure). Pour ce faire, nous utilisons un terme de pénalité lKL(z,N(0,Id)). Sans ce terme, le VAE agira comme un auto-encodeur classique, ce qui peut conduire à du surentraînement et nous n’aurons pas les propriétés génératrices que nous souhaitons. Discussion on sampling z (reparameterisation trick);Discussion sur l’échantillonnage z (astuce de paramétrage) How do we sample from the distribution returned by the encoder in VAE? According to above, we sample from the Gaussian distribution, in order to obtain z. However, this is problematic, because when we do gradient descent to train the VAE model, we don’t know how to do backpropagation through the sampling module.;Comment prélever un échantillon de la distribution renvoyée par l’encodeur dans la VAE ? Selon ce qui précède, nous effectuons un échantillonnage à partir de la distribution gaussienne, afin d’obtenir z. Cependant, cela est problématique, car lorsque nous effectuons une descente de gradient pour entraîner le modèle VAE, nous ne savons pas comment effectuer la rétropropagation par le module d’échantillonnage. Instead, we use the reparameterization trick to “sample” z. We use z=E(z)+ϵ⊙V(z);Nous utilisons plutôt l’astuce du reparamétrage pour échantillonner z. Nous utilisons z=E(z)+ϵ⊙V(z) ​ where ϵ∼N(0,Id​). In this case, backpropagation in training is possible. Specifically, the gradients will go through the (element-wise) multiplication and addition in the above equation.;​ où ϵ∼N(0,Id​). Dans ce cas, la rétropropagation lors de l’entraînement est possible. Plus précisément, les gradients passeront par la multiplication (par élément) et l’addition dans l’équation ci-dessus. Breaking apart the VAE Loss Function;Rompre la fonction de perte des VAEs Visualizing Latent Variable Estimates and Reconstruction Loss;Visualisation des estimations de variables latentes et de la perte de reconstruction As stated above, the loss function for the VAE contains two parts: a reconstruction term and a regularization term. We can write this as;Comme indiqué ci-dessus, la fonction de perte pour le VAE comporte deux parties : un terme de reconstruction et un terme de régularisation. On peut écrire cela comme : To visualize the purpose of each term in the loss function, we can think of each estimated z value as a circle in 2d space, where the centre of the circle is E(z) and the surrounding area are the possible values of z determined by V(z).;Pour visualiser l’objectif de chaque terme dans la fonction de perte, nous pouvons penser à chaque valeur estimée de z comme un cercle dans un espace de 2d, où le centre du cercle est E(z) et la zone environnante sont les valeurs possibles de z déterminées par V(z). In Figure 3 above, each bubble represents an estimated region of z, and the arrows represent how the reconstruction term pushes each estimated value away from the others, which is explained more below.;Dans la figure 3 ci-dessus, chaque bulle représente une région estimée à z et les flèches représentent comment le terme de reconstruction éloigne chaque valeur estimée des autres, ce qui est expliqué plus en détail ci-dessous. If there is overlap between any two estimates of z, (visually, if two bubbles overlap) this creates ambiguity for reconstruction because the points in the overlap can be mapped to both original inputs. Therefore the reconstruction loss will push the points away from one another.;S’il y a un chevauchement entre deux estimations de z, (visuellement si deux bulles se chevauchent), cela crée une ambiguïté pour la reconstruction car les points de chevauchement peuvent être mis en correspondance avec les deux entrées originales. Par conséquent, la perte de reconstruction éloignera les points l’un de l’autre. However, if we use just the reconstruction loss, the estimates will continue to be pushed away from each other and the system could blow up. This is where the penalty term comes in.;Cependant, si nous n’utilisons que la perte de reconstruction, les estimations continueront à être éloignées l’une de l’autre et le système pourrait exploser. C’est là qu’intervient le terme de pénalité. Note: for binary inputs the reconstruction loss is;Note : pour les entrées binaires, la perte de reconstruction est : and for real valued inputs the reconstruction loss is;et pour les entrées ayant une valeur réelle, la perte de reconstruction est : The penalty term;Le terme de pénalité The second term is the relative entropy (a measure of the distance between two distributions) between z which comes from a Gaussian with mean E(z), variance V(z) and the standard normal distribution. If we expand this second term in the VAE loss function we get:;Le deuxième terme est l’entropie relative (une mesure de la distance entre deux distributions) entre z qui provient d’une gaussienne avec la moyenne E(z), la variance V(z) et la distribution normale standard. Si nous élargissons ce deuxième terme dans la fonction de perte du VAE, nous obtenons Where each expression in the summation has four terms. Below we write out and graph the first three terms in Figure 4.;Chaque expression de la somme comporte quatre termes. Ci-dessous, nous écrivons les trois premiers termes dans la figure 4 et nous les reportons sur un graphique. So we can see that this expression is minimized when zi​ has variance 1. Therefore our penalty loss will keep the variance of our estimated latent variables at around 1. Visually, this means our “bubbles” from above will have a radius of around 1.;On peut donc voir que cette expression est minimisée lorsque zi​ a la variance à 1. Par conséquent, notre perte de pénalité maintiendra la variance de nos variables latentes estimées à environ 1. Visuellement, cela signifie que nos « bulles » du haut auront un rayon d’environ 1. The last term, E(zi)2, minimizes the distance between the zi​ and therefore prevents the “exploding” encouraged by the reconstruction term.;Le dernier terme, E(zi)2, minimise la distance entre les zi​ et empêche donc l’explosion favorisée par le terme de reconstruction. Figure 5 above shows how VAE loss pushed the estimated latent variables as close together as possible without any overlap while keeping the estimated variance of each point around one.;La figure 5 ci-dessus montre comment la perte du VAE a poussé les variables latentes estimées aussi près que possible l’une de l’autre sans aucun chevauchement tout en maintenant la variance estimée de chaque point autour de 1. Note: The β in the VAE loss function is a hyperparameter that dictates how to weight the reconstruction and penalty terms.;Note : le β dans la fonction de perte du VAE est un hyperparamètre qui dicte comment pondérer les termes de reconstruction et de pénalité. The Encoder and the Decoder;L’encodeur et le décodeur 1. We define the encoder and decoder in our VAE module.;1. Nous définissons l’encodeur et le décodeur dans notre module VAE. 2. For the last linear layer of encoder, we define the output to be of size 2d, of which the first d values are the means and the remaining d values are the variances. We sample z∈Rd using these means and variances as explained in the reparameterisation trick before.;2. Pour la dernière couche linéaire de l’encodeur, nous définissons la sortie comme étant de taille 2d, dont les premières valeurs d sont les moyennes et les autres valeurs d sont les variances. Nous échantillonnons z∈Rd en utilisant ces moyennes et variances comme expliqué dans l’astuce de reparamétrage précédente. 3. For the last linear layer in the decoder, we use the sigmoid activation so that we can have output in range [0,1], similar to the input data.;3. Pour la dernière couche linéaire dans le décodeur, nous utilisons l’activation sigmoïde afin de pouvoir avoir une sortie dans la plage [0,1], similaire aux données d’entrée. Reparameterisation and the forward function;Reparamétrage et fonction forward For the reparameterise function, if the model is in training mode, we compute the standard deviation (std) from log variance (logvar). We use log variance instead of variance because we want to make sure the variance is non-negative, and taking the log of it ensures that we have the full range of the variance, which makes the training more stable.;Pour la fonction reparameterise, si le modèle est en mode entraînement, nous calculons l’écart-type (std) de la variance logarithmique (logvar). Nous utilisons la variance logarithmique au lieu de la variance parce que nous voulons nous assurer que la variance n’est pas négative, et le fait de prendre le logarithme de celle-ci nous assure d’avoir la gamme complète de la variance, ce qui entraîne une plus grande stabilité de l’apprentissage. During training, the reparameterise function will do the reparameterisation trick so that we can do backpropagation in training. To connect to the concept of a yellow bubble, as explained in the lecture, every time this function is called, we draw a point eps = std.data.new(std.size()).normal_(), so if we do 100 times, we will get 100 points which roughly forms a sphere because it’s normal distribution, and the line eps.mul(std).add_(mu) will make this sphere centred in mu with radius equal to std.;Pendant l’entraînement, la fonction reparameterise permet de faire l’astuce permettant la rétropropagation. Pour faire le lien avec le concept de la bulle jaune, chaque fois que cette fonction est appelée, nous dessinons un point eps = std.data.new(std.size()).normal_(). Donc si nous le faisons 100 fois, nous obtenons 100 points qui forment approximativement une sphère parce que c’est une distribution normale et la ligne eps.mul(std).add_(mu) fait que cette sphère est centrée en mu avec un rayon égal à std. For the forward function, we first compute the mu (first half) and logvar (second half) from the encoder, then we compute the z via the reparamterise function. Finally, we return the output of the decoder.;Pour la fonction forward, nous calculons d’abord mu (première moitié) et le logvar (seconde moitié) à partir de l’encodeur, puis nous calculons le symbole z via la fonction reparamterise. Enfin, nous renvoyons la sortie du décodeur. Loss function for the VAE;Fonction de perte pour le VAE Here we define the reconstruction loss (binary cross entropy) and the relative entropy (KL divergence penalty).;Nous définissons ici la perte de reconstruction (entropie binaire croisée) et l’entropie relative (pénalité de divergence KL). Generating new samples;Générer de nouveaux échantillons After we train our model, we can sample a random z from the normal distribution and feed it to our decoder. We can observe in Figure 6 that some of the results are not good because our decoder has not “covered” the whole latent space. This can be improved if we train the model for more epochs.;Après avoir entraîné notre modèle, nous pouvons échantillonner un z aléatoire de la distribution normale et l’envoyer à notre décodeur. Nous pouvons observer sur la figure 6 que certains des résultats ne sont pas bons parce que notre décodeur n’a pas couvert tout l’espace latent. Cela peut être amélioré si nous entraînons le modèle pour d’autres époques. We can look at how one digit morphs into another, which would not have been possible if we used an autoencoder. We can see that when we walk in the latent space, the output of the decoder still looks legit. Figure 7 below shows how we morph the digit 3 to 8.;Nous pouvons voir comment un chiffre se transforme en un autre, ce qui n’aurait pas été possible si nous avions utilisé un auto-encodeur. Nous pouvons voir que lorsque nous marchons dans l’espace latent, la sortie du décodeur semble toujours légitime. La figure 7 ci-dessous montre comment nous transformons le chiffre 3 en 8. Projection of means;Projection des moyennes Finally, let’s take a look at how the latent space changes during/after training. The following charts in Figure 8 are the means from the output of the encoder, projected on 2D space, where each colour represents a digit. We can see that from epoch 0, the classes are spreading everywhere, with only little concentration. As the model is trained, the latent space becomes more well-defined and the classes (digits) starts to form clusters.;Enfin, examinons comment l’espace latent change pendant ou après l’entraînement. Les graphiques de la figure 8 sont les moyennes issues de la sortie de l’encodeur, projetées sur l’espace 2D, où chaque couleur représente un chiffre. Nous pouvons voir qu’à partir de l’époque 0, les classes se répandent partout, avec une faible concentration. Au fur et à mesure que le modèle est entraîné, l’espace latent devient plus défini et les classes (chiffres) commencent à former des groupes. Week 9;Semaine 9 We discussed discriminative recurrent sparse auto-encoders and group sparsity. The main idea was how to combine sparse coding with discriminative training. We went through how to structure a network with a recurrent autoencoder similar to LISTA and a decoder. Then we discussed how to use group sparsity to extract invariant features.;Nous discutons des auto-encodeurs discriminants récurrents épars et de l’éparsité de groupe. L’idée principale est de savoir comment combiner un codage épars avec un entraînement discriminant. Nous examinons comment structurer un réseau avec un auto-encodeur récurrent similaire à LISTA et un décodeur. Nous discutons ensuite de la manière d’utiliser l’éparsité de groupe pour extraire les caractéristiques invariantes. In this section, we talked about the World Models for autonomous control including the neural network architecture and training schema. Then, we discussed the difference between World Models and Reinforcement Learning (RL). Finally, we studied Generative Adversarial Networks (GANs) in terms of energy-based model with the contrastive method.;Dans cette section, nous parlons des modèles du monde (world models) pour le contrôle autonome, y compris l’architecture du réseau neuronal et le schéma d’entraînement. Ensuite, nous discutons de la différence entre les modèles du monde et l’apprentissage par renforcement. Enfin, nous étudions les Generative Adversarial Networks (GANs) à travers les EBMs avec la méthode contrastive. During this week’s practicum, we explored Generative Adversarial Networks (GANs) and how they can produce realistic generative models. We then compared GANs with VAEs from week 8 to highlight key differences between two networks. Next, we discussed several model limitations of GANs. Finally, we looked at the source code for the PyTorch example Deep Convolutional Generative Adversarial Networks (DCGAN).;Nous explorons les GANs et la manière dont ils peuvent produire des modèles générateurs réalistes. Nous comparons ensuite les GANs avec les VAEs de la semaine 8 pour mettre en évidence les principales différences entre les deux réseaux. Ensuite, nous discutons de plusieurs limites des GANs. Enfin, nous examinons le code source de l’exemple « PyTorch Deep Convolutional Generative Adversarial Networks (DCGAN) ». Discriminative Recurrent Sparse Auto-Encoder and Group Sparsity;Auto-encodeurs discriminants récurrents épars et l’éparsité de groupe Discriminative recurrent sparse autoencoder (DrSAE);Auto-encodeurs discriminants récurrents épars (Discriminative recurrent sparse autoencoder : DrSAE) The idea of DrSAE consists of combining sparse coding, or the sparse auto-encoder, with discriminative training.;L’idée des DrSAEs consiste à combiner un codage épars ou l’auto-encodeur épars avec un entraînement discriminant. The encoder, We​, is similar to the encoder in the LISTA method. The X variable is run through We​, and then through a non-linearity. This result is then multiplied by another learned matrix, S, and added to We​. Then it is sent through another non-linearity. This process can be repeated a number of times, with each repetition as a layer.;L’encodeur We​ est similaire à celui de la méthode LISTA. La variable X est passée par We​, puis par une non-linéarité. Ce résultat est ensuite multiplié par une autre matrice apprise, S, et ajouté à We​. Il est ensuite envoyé à travers une autre non-linéarité. Ce processus peut être répété un certain nombre de fois, chaque répétition constituant une couche. We train this neural network with 3 different criteria:;Nous entraînons ce réseau de neurones avec 3 critères différents : 1. L1​: Apply L1​ criterion on the feature vector Z to make it sparse.;1. L1​ : appliquer le critère L1​ sur le vecteur d’entités Z pour le rendre épars. 2. Reconstruct X: This is done using a decoding matrix that reproduces the input on the output. This is done by minimizing square error, indicated by Wd​ in Figure 1.;2. Reconstruire X : ceci est fait en utilisant une matrice de décodage qui reproduit l’entrée sur la sortie. Ceci est fait en minimisant l’erreur quadratique, indiquée par Wd​ dans la figure 1. 3. Add a Third Term: This third term, indicated by Wc​, is a simple linear classifier which attempts to predict a category.;3. Ajouter un troisième terme : ce troisième terme, indiqué par Wc​, est un simple classifieur linéaire qui tente de prédire une catégorie. The system is trained to minimize all 3 of these criteria at the same time.;Le système est entraîné à minimiser ces trois critères en même temps. The advantage of this is by forcing the system to find representations that can reconstruct the input, then you’re basically biasing the system towards extracting features that contain as much information about the input as possible. In other words, it enriches the features.;L’avantage de cette méthode est de forcer le système à trouver des représentations qui peuvent reconstruire l’entrée, puis nous biaisons le système vers l’extraction de caractéristiques qui contiennent autant d’informations sur l’entrée que possible. En d’autres termes, cela enrichit les caractéristiques. Group Sparsity;Eparsité de groupe The idea here is to generate sparse features, but not just normal features that are extracted by convolutions, but to basically produce features that are sparse after pooling.;L’idée ici est de générer des caractéristiques éparses, c’est-à-dire pas seulement des caractéristiques normales qui sont extraites par des convolutions mais de produire essentiellement des caractéristiques qui sont éparses après le pooling. Figure 2 shows an example of an auto-encoder with group sparsity. Here, instead of the latent variable Z going to an L1​, it goes through basically an L2​ over groups. So you take the L2​ norm for each component in a group of Z, and take the sum of those norms. So now that is what is used as the regulariser, so we can have sparsity on groups of Z. These groups, or pools of features, tend to group together features that are similar to one another.;La figure 2 montre un exemple d’auto-encodeur avec éparsité de groupe. Ici, au lieu de la variable latente Z passant par une L1​, elle passe par une L2​ sur les groupes. Nous prenons donc la norme L2​ pour chaque composant dans un groupe de Z et effectuons la somme de ces normes. C’est donc ce qui est utilisé comme régulariseur afin que nous puissions avoir une certaine éparsité dans les groupes de Z. Ces groupes de caractéristiques ont tendance à regrouper des caractéristiques qui sont similaires les unes aux autres. AE with group sparsity: questions and clarification;Auto-encodeur avec éparsité de groupe : questions des étudiants Can a similar strategy used in the first slide with classifier and regulariser be applied for VAE?;Une stratégie similaire à celle utilisée dans la première diapositive avec le classifieur et le régulariseur peut-elle être appliquée pour les VAEs ? Adding noise and forcing sparsity in a VAE are two ways of reducing the information that the latent variable/code. Prevent learning of an identity function.;Ajouter du bruit et forcer l’éparsité dans un VAE sont deux moyens de réduire l’information de la variable latente. Cela empêche l’apprentissage d’une fonction d’identité. In slide “AE with Group Sparsity”, what is Pj​?;Dans la diapositive « AE with Group Sparsity », qu’est-ce que Pj​ ? p is a pool of features. For a vector z, it would be a subset of the values in z.;p est un pool de caractéristiques. Pour un vecteur z, ce serait un sous-ensemble des valeurs de z. Clarification on feature pooling.;Clarification sur le pooling des caractéristiques. Encoder produces latent variable z, which is regularized using the L2​ norm of pooled features. This z is used by the decoder for image reconstruction.;L’encodeur produit une variable latente z qui est régularisée en utilisant la norme L2​ des caractéristiques mises en commun. Cette variable z est utilisée par le décodeur pour la reconstruction de l’image. Does group regularization help with grouping similar features?;La régularisation des groupes aide-t-elle à regrouper des caractéristiques similaires ? The answer is unclear, work done here was done before computational power/ data was readily available. Techniques have not been brought back to the forefront.;La réponse n’est pas claire, le travail effectué ici a été fait avant que la puissance de calcul/les données ne soient facilement disponibles. Les techniques n’ont pas été remises au premier plan. Image level training, local filters but no weight sharing;Entraînement au niveau de l’image, filtres locaux mais pas de partage de poids The answer about whether it helps is not clear. People interested in this are either interested in image restoration or some kind of self-supervised learning. This would work well when dataset was very small. When you have an encoder and decoder that is convolutional and you train with group sparsity on complex cells, after you are done pre-training, the system you get rid of the decoder and only use the encoder as a feature extractor, say the first layer of the convolutional net and you stick a second layer on top of it.;La réponse à la question de savoir si cela aide n’est pas claire. Les personnes travaillant sur le sujet s’intéressent soit à la restauration d’images, soit à une sorte d’apprentissage autosupervisé. Cela fonctionnerait plutôt bien lorsque le jeu de données est très réduit. Lorsque nous avons un encodeur et un décodeur convolutifs et entraînons avec l’éparsité de groupe sur des cellules complexes, après avoir terminé l’entraînement, le système nous débarrasse du décodeur et n’utilise l’encodeur que comme un extracteur de caractéristiques. Nous pouvons alors coller une deuxième couche par-dessus. As can be seen above, you are start with an image, you have an encoder which is basically Convolution RELU and some kind of scaling layer after this. You train with group sparsity. You have a linear decoder and a criterion which is group by 1. You take the group sparsity as a regulariser. This is like L2 pooling with an architecture similar to group sparsity.;Comme on peut le voir ci-dessus, nous commençons avec une image, nous avons un encodeur qui est en fait une convolution puis une ReLU et une sorte de couche de mise à l’échelle. Nous entrainons avec une éparsité de groupe. Nous avons un décodeur linéaire et un critère qui est le groupe par 1. Nous prenons l’éparsité de groupe comme régularisation. C’est comme le pooling L2 avec une architecture similaire à l’éparsité de groupe. You can also train another instance of this network. This time, you can add more layers and have a decoder with the L2 pooling and sparsity criterion, train it to reconstruct its input with pooling on top. This will create a pretrained 2-layer convolutional net. This procedure is also called Stacked Autoencoder. The main characteristic here is that it is trained to produce invariant features with group sparsity.;Nous pouvons aussi entraîner une autre instance de ce réseau. Cette fois, en ajoutant d’autres couches et en ayant un décodeur avec le polling L2 et le critère d’éparsité. On entraîne alors à reconstruire l’entrée avec le pooling au-dessus. Cela crée un ConvNet à deux couches pré-entraîné. Cette procédure est également appelée stacked autoencoder. La principale caractéristique de cette procédure est qu’elle est entraînée à produire des caractéristiques invariantes avec une éparsité de groupe. Should we use all possible sub-trees as groups?;Devrions-nous utiliser tous les sous-arbres possibles comme groupes ? It’s up to you, you can use multiple trees if you want. We can train the tree with a bigger tree than necessary and then removes branches rarely used.;C’est à vous de décider, vous pouvez utiliser plusieurs arbres si vous le souhaitez. Nous pouvons entraîner l’arbre avec un arbre plus grand que nécessaire et ensuite retirer les branches rarement utilisées. These are called pin-wheel patterns. This is a kind of organisation of the features. The orientation varies continuously as you go around those red dots. If we take one of those red dots and if do a little circle around the red dots, you notice that the orientation of the extractor kind of varies continuously as you move around. Similar trends are observed in the brain.;C’est ce qu’on appelle les pinwheel patterns (motifs en forme de pales de turbines). C’est une sorte d’organisation des caractéristiques. L’orientation varie continuellement lorsque vous contournez ces points rouges. Si nous prenons un de ces points rouges et si nous faisons un petit cercle autour des points rouges, nous remarquons que l’orientation de l’extracteur varie en quelque sorte continuellement lorsque nous nous déplaçons. Des tendances similaires sont observées dans le cerveau. Is the group sparsity term trained to have a small value?;Le terme d’éparsité de groupe est-il entraîné à avoir une petite valeur ? It is a regulariser. The term itself is not trained, it’s fixed. It’s just the L2 norm of the groups and the groups are predetermined. But, because it is a criterion, it determines what the encoder and decoder will do and what sort of features will be extracted.;Il s’agit d’un régulariseur. Le terme lui-même n’est pas entraîné, il est fixe. C’est juste la norme L2 des groupes et les groupes sont prédéterminés. Mais, comme c’est un critère, il détermine ce que l’encodeur et le décodeur vont faire et quel type de caractéristiques seront extraites. Here, there is a linear decoder with square reconstruction error. There is a criterion in the energy. The matrix S is either determined by hand or learned so as to maximise this term. If the terms in S are positive and large, it implies that the system does not want zi and zj to be on at the same time. Thus, it is sort of a mutual inhibition (called natural inhibition in neuroscience). Thus, you try to find a value for S that is as large as possible.;Ici, il y a un décodeur linéaire avec une erreur de reconstruction quadratique. Il y a un critère dans l’énergie. La matrice S est soit déterminée à la main, soit apprise de façon à maximiser ce terme. Si les termes dans S sont positifs et grands, cela implique que le système ne veut pas que zi​ et zj​ soient allumés en même temps. Il s’agit donc d’une sorte d’inhibition mutuelle (appelée inhibition naturelle en neurosciences). Nous essayons donc de trouver une valeur pour S qui soit la plus grande possible. If you organise S in terms of a tree, the lines represent the zero terms in the S matrix. Whenever you don’t have a line, there is a non-zero term. So, every feature inhibits all other features except those which are up the tree or down the tree from it. This is something like the converse of group sparsity.;En organisant S en termes d’arbre, les lignes représentent les termes nuls dans la matrice S. Chaque fois qu’il n’y a pas de ligne, il y a un terme non nul. Ainsi, chaque caractéristique inhibe toutes les autres caractéristiques, sauf celles qui sont en haut de l’arbre ou en bas de l’arbre. C’est un peu l’inverse de l’éparsité de groupe. You see again that systems are organising features in more or less a continuous fashion. Features along the branch of a tree represent the same feature with different levels of selectivity. Features along the periphery vary more or less continuously because there is no inhibition.;Nous voyons encore une fois que les systèmes organisent les caractéristiques de manière plus ou moins continue. Les caractéristiques le long de la branche d’un arbre représentent la même caractéristique avec différents niveaux de sélectivité. Les caractéristiques en périphérie varient plus ou moins. To train this system, at each iteration, you give an x and find the z which minimizes this energy function.Then do one step of gradient descent to update W. You can also do one step of gradient ascent to make the terms in S larger.;Pour entraîner ce système, à chaque itération, nous donnons un x et trouvons z qui minimise cette fonction énergétique. Ensuite, nous faisons une étape de descente de gradient pour mettre à jour le W. Nous pouvons également faire une étape de montée de gradient pour augmenter les termes en S. World Models and Generative Adversarial Networks;Modèles du monde et réseaux génératifs antagonistes World models for autonomous control;Modèles du monde pour le contrôle autonome "One of the most important uses of self-supervised learning is to learn world models for control. When humans perform a task, we have an internal model for how the world works. For example, we gain an intuition for physics when we’re about 9 months old, mostly through observation. In some sense, this is similar to self-supervised learning; in learning to predict what will happen, we learn abstract principles, just like self-supervised models learn latent features. But taking this one step further, the internal models let us act on the world. For example, we can use our learned physics intuition and our learned understanding of how our muscles work to predict — and execute — how to catch a falling pen.";L’une des utilisations les plus importantes de l’apprentissage autosupervisé est l’apprentissage de modèles du monde pour le contrôle. Lorsque les humains effectuent une tâche, ils disposent d’un modèle interne pour le fonctionnement du monde. Par exemple, nous acquérons une intuition pour la physique à l’âge de 9 mois environ, principalement par l’observation. Dans un certain sens, cela ressemble à l’apprentissage autosupervisé. En apprenant à prédire ce qui va se passer, nous apprenons des principes abstraits, tout comme les modèles autosupervisés apprennent des caractéristiques latentes. Mais en allant plus loin, les modèles internes nous permettent d’agir sur le monde. Par exemple, nous pouvons utiliser notre intuition en physique et notre compréhension du fonctionnement de nos muscles pour prédire (et exécuter) comment attraper un stylo qui tombe. What is a “world model”?;Qu’est-ce qu’un modèle du monde (world model) ? An autonomous intelligence system comprises four major modules (Figure 1.). First, the perception module observes the world and computes a representation of the state of the world. This representation is incomplete because 1) the agent doesn’t observe the whole universe, and 2) the accuracy of the observations is limited. It is also worth noting that in the feed-forward model, the perception module is only present for the initial time step. Second, the actor module (also called a policy module) imagines taking some action based on the (represented) state of the world. Third, the model module predicts the outcome of the action given the (represented) state of the world, and also possibly given some latent features. This prediction gets passed forward to the next time step as the guess for the next state of the world, taking on the role of the perception module from the initial time step. Fig 2 gives an in-detail demonstration of this feed-forward process. Finally, the critic module turns that same prediction into a cost of performing the proposed action, e.g. given the speed with which I believe the pen is falling, if I move muscles in this particular way, how badly will I miss the catch?;Un système intelligent autonome comprend quatre grands modules (figure 1). Tout d’abord, le module de perception observe le monde et calcule une représentation de l’état du monde. Cette représentation est incomplète parce que : 1) l’agent n’observe pas l’univers en entier 2) la précision des observations est limitée. Il est également intéressant de noter que dans le modèle feed-forward, le module de perception n’est présent que pour le pas de temps initial. Deuxièmement, le module acteur (également appelé module politique) imagine une action basée sur l’état (représenté) du monde. Troisièmement, le module modèle prédit le résultat de l’action en fonction de l’état (représenté) du monde, et peut-être aussi en fonction de certaines caractéristiques latentes. Cette prédiction est transmise au pas de temps suivant en tant que supposition de l’état suivant du monde, en prenant le rôle du module de perception à partir du pas de temps initial. La figure 2 présente une démonstration détaillée de ce processus d’anticipation. Enfin, le module critique transforme cette même prédiction en un coût de réalisation de l’action proposée. Par exemple étant donné la vitesse à laquelle je crois que le stylo tombe, si je bouge les muscles de cette manière particulière, à quel point vais-je rater la prise ? The classical setting;Le cadre classique In classical optimal control, there is no actor/policy module, but rather just an action variable. This formulation is optimized by a classical method called Model Predictive Control, which was used by NASA in the 1960s to compute rocket trajectories when they switched from human computers (mostly Black women mathematicians) to electronic computers. We can think of this system as an unrolled RNN, and the actions as latent variables, and use backpropagation and gradient methods (or possibly other methods, such as dynamic programming for a discrete action set) to infer the sequence of actions that minimizes the sum of the time step costs.;Dans le cadre classique du contrôle, il n’y a pas de module acteur/politique, mais plutôt une variable d’action. Cette formulation est optimisée par une méthode classique appelée « Model Predictive Control » qui a été utilisée par la NASA dans les années 1960 pour calculer les trajectoires des fusées lorsqu’elles sont passées des ordinateurs humains (principalement des mathématiciennes noires) aux ordinateurs électroniques. Nous pouvons considérer ce système comme un RNN déroulé et les actions comme des variables latentes. On peut utiliser des méthodes de rétropropagation et de gradient (ou éventuellement d’autres méthodes, comme la programmation dynamique pour un ensemble d’actions discrètes) pour inférer la séquence d’actions qui minimise la somme des coûts des pas de temps. Aside: We use the word “inference” for latent variables, and “learning” for parameters, though the process of optimizing them is generally similar. One important difference is that a latent variable takes a specific value for each sample, whereas, parameters are shared between samples.;Note : nous utilisons le mot « inférence » pour les variables latentes et « apprentissage » pour les paramètres, bien que le processus d’optimisation de ceux-ci soit généralement similaire. Une différence importante est qu’une variable latente prend une valeur spécifique pour chaque échantillon, alors que les paramètres sont partagés entre les échantillons. An improvement;Une amélioration Now, we’d prefer not to go through the complicated process of backpropagating every time we want to make a plan. To address this, we use the same trick we used for variational autoencoder to improve sparse coding: we train an encoder to directly predict the optimal action sequence from the world representations. In this regime, the encoder is called a policy network.;Nous préférons ne pas passer par le processus compliqué de la rétropropagation chaque fois que nous voulons faire un plan. Pour y remédier, nous utilisons la même astuce que pour l’auto-encodeur variationnel pour améliorer le codage épars : nous entraînons un encodeur à prédire directement la séquence d’action optimale à partir des représentations du monde. Dans ce régime, l’encodeur est appelé un réseau politique. Once trained, we can use the policy networks to predict the optimal action sequence immediately after perception.;Une fois entraînés, nous pouvons utiliser les réseaux politiques pour prédire la séquence d’action optimale immédiatement après la perception. Reinforcement learning (RL);Apprentissage par renforcement The main differences between RL and what we have studied up to this point are two-fold:;Les principales différences entre l’apprentissage par renforcement (nous le noterons RL dans la suite, d’après le terme anglais Reinforcement learning) et ce que nous avons étudié jusqu’à présent sont de deux ordres : 1. In Reinforcement learning environments, the cost function is a black box. In other words, the agent does not understand the reward dynamics.;1) Dans les environnements d’apprentissage par renforcement, la fonction de coût est une boîte noire. En d’autres termes, l’agent ne comprend pas la dynamique de la récompense. 2. In the setting of RL, we don’t use a forward model of the world to step the environment. Instead we interact with the real world and learn the result by observing what happens. In the real world our measure of the state of the world is imperfect so it is not always possible to predict what will happen next.;2) Dans le cadre du RL, nous n’utilisons pas un modèle de prédiction du monde. Au lieu de cela, nous interagissons avec le monde réel et apprenons le résultat en observant ce qui se passe. Dans le monde réel, notre mesure de l’état du monde est imparfaite et il n’est donc pas toujours possible de prédire ce qui se passera ensuite. The main problem of Reinforcement learning is that the cost function is not differentiable. This means that the only way to learn is through trial and error. Then the problem becomes how to explore the state space efficiently. Once you come up with a solution to this the next issue is the fundamental question of exploration vs. exploitation: would you rather take actions to maximally learn about the environment or instead exploit what you have already learned to get as high a reward as possible?;Le principal problème du RL est que la fonction de coût n’est pas différenciable. Cela signifie que la seule façon d’apprendre est de procéder par essais et erreurs. Le problème devient alors de savoir comment explorer efficacement l’espace des états. Une fois que vous avez trouvé une solution à ce problème, la question qui suit est celle fondamentale de l’exploration vs l’exploitation : préférez-vous prendre des actions pour apprendre le plus possible sur l’environnement ou plutôt exploiter ce que vous avez déjà appris pour obtenir une récompense aussi élevée que possible ? Actor-Critic methods are a popular family of RL algorithms which train both an actor and a critic. Many RL methods work similarly, by training a model of the cost function (the critic). In Actor-Critic methods the role of the critic is to learn the expected value of the value function. This enables back-propagation through the module, since the critic is just a neural network. The actor’s responsibility is to propose actions to take in the environment, and the critic’s job is to learn a model of the cost function. The actor and the critic work in tandem that leads to more efficient learning than if no critic is used. If you don’t have a good model of the world it is much more difficult to learn: e.g. the car next to the cliff will not know that falling off a cliff is a bad idea. This enables humans and animals to learn much more quickly than RL agents: we have really good world models in our head.;Les méthodes Acteur-Critique sont une famille populaire d’algorithmes de RL qui entraînent à la fois un acteur et un critique. De nombreuses méthodes de RL fonctionnent de manière similaire, en entraînant un modèle de la fonction de coût (le critique). Dans les méthodes Acteur-Critique, le rôle du critique est d’apprendre la valeur attendue de la fonction de valeur. Cela permet de faire une rétropropagation dans le module, puisque le critique n’est qu’un réseau neuronal. La responsabilité de l’acteur est de proposer des actions à entreprendre dans l’environnement. Le rôle du critique est d’apprendre un modèle de la fonction de coût. L’acteur et le critique travaillent en tandem, ce qui permet un apprentissage plus efficace que si aucun critique n’est utilisé. Sans un bon modèle du monde, il est beaucoup plus difficile d’apprendre. Par exemple, la voiture à côté de la falaise ne saura pas que tomber d’une falaise est une mauvaise idée. Un modèle du monde permet aux humains et plus généralement aux animaux d’apprendre beaucoup plus rapidement que les agents du RL. Nous avons de très bons modèles du monde dans notre tête. We cannot always predict the future of the world due to inherent uncertainty: aleatory and epistemic uncertainty. Aleatoric uncertainty is due to things you cannot control or observe in the environment. Epistemic uncertainty is when you cannot predict the future of the world because your model does not have enough training data.;Nous ne pouvons pas toujours prédire l’avenir du monde en raison de l’incertitude inhérente : l’incertitude aléatoire et épistémique. L’incertitude aléatoire est due à des choses ne pouvant pas être contrôlé ou observé dans l’environnement. L’incertitude épistémique, est quand il n’est pas possible de prédire l’avenir du monde car le modèle ne contient pas assez de données d’entraînement. The forward model would like to be able to predict;Le modèle de prédiction aimerait pouvoir prédire where z is a latent variable of which we don’t know the value. z represents what you cannot know about the world but which still influences the prediction (i.e. aleatoric uncertainty). We can regularize z with sparsity, noise, or with an encoder. We can use forward models to learn to plan. The system works by having a decoder decode a concatenation of the state representation and the uncertainty z. The best z is defined as the z that minimizes the difference between s^t+1​ and the actual observed st+1​.;où z est une variable latente dont nous ne connaissons pas la valeur. z représente ce que nous ne pouvons pas savoir sur le monde mais qui influence quand même la prédiction (c’est-à-dire l’incertitude aléatoire). On peut régulariser z avec parcimonie, du bruit ou avec un encodeur. Nous pouvons utiliser des modèles de prédiction pour apprendre à planifier. Le système fonctionne en ayant un décodeur décodant une concaténation de la représentation d’état et de l’incertitude z. Le meilleur z est défini comme celui qui minimise la différence entre s^t+1 et le st+1 effectivement observé. Generative Adversarial Network;Réseaux génératifs antagonistes There are many variations of GAN and here we think of GAN as a form of energy-based model using contrastive methods. It pushes up the energy of contrastive samples and pushes down the energy of training samples. A basic GAN consists of two parts: a generator which produces contrastive samples intelligently and a discriminator (sometimes called critic) which is essentially a cost function and acts as an energy model. Both the generator and the discriminator are neural nets.;Il existe de nombreuses variantes des réseaux génératifs antagonistes (GANs pour Generative Adversarial Networks). Nous considérons ici le GAN comme une forme de modèle à base d’énergie utilisant des méthodes contrastives. Il augmente l’énergie des échantillons contrastifs et diminue l’énergie des échantillons d’entraînement. Un GAN de base se compose de deux parties : un générateur qui produit des échantillons contrastifs de manière intelligente et un discriminateur (parfois appelé critique) qui est essentiellement une fonction de coût agissant comme un modèle énergétique. Le générateur et le discriminateur sont tous deux des réseaux neuronaux. The two kinds of input to GAN are respectively training samples and contrastive samples. For training samples, GAN passes these samples through the discriminator and makes their energy go down. For contrastive samples, GAN samples latent variables from some distribution, runs them through the generator to produce something similar to training samples, and passes them through the discriminator to make their energy go up. The loss function for discriminator is as follows:;Les deux types d’entrée dans le GAN sont respectivement des échantillons d’entraînement et des échantillons contrastifs. Pour les échantillons d’entraînement, le GAN les fait passer à travers le discriminateur et baisse leur énergie. Pour les échantillons contrastifs, le GAN échantillonne les variables latentes d’une certaine distribution, les fait passer par le générateur pour produire quelque chose de similaire aux échantillons d’entraînement et les fait passer par le discriminateur pour faire monter leur énergie. La fonction de perte pour le discriminateur est la suivante : where Ld can be a margin-based loss function like F(y)+[m−F(yˉ)]+ or log⁡(1+exp⁡[F(y)])+log⁡(1+exp⁡[−F(yˉ)])log(1+exp[F(y)])+log(1+exp[−F(yˉ​)]) as long as it makes F(y) decrease and F(yˉ) increase. In this context, y is the label, and yˉ is the response variable gives lowest energy except y itself. There is going to be a different loss function for the generator:;où Ld​ peut être une fonction de perte avec marge comme F(y)+[m−F(yˉ)]+ ou log⁡(1+exp⁡[F(y)])+log⁡(1+exp⁡[−F(yˉ)])log(1+exp[F(y)])+log(1+exp[−F(yˉ​)]) tant que cela fait diminuer F(y) et augmenter F(yˉ). Dans ce contexte, y est le label et yˉ est la variable réponse qui donne l’énergie la plus faible sauf y lui-même. La fonction de perte est différente pour le générateur : where z is the latent variable and G is the generator neural net. We want to make the generator adapt its weight and produce yˉ with low energy that can fool the discriminator.;où z est la variable latente et G est le réseau générateur. Nous voulons faire en sorte que le générateur adapte son poids et produise yˉ avec une faible énergie pouvant tromper le discriminateur. The reason why this type of model is called generative adversarial network is because we have two objective functions that are incompatible with each other and we need to minimize them simultaneously. It’s not a gradient descent problem because the goal is to find a Nash equilibrium between these two functions and gradient descent is not capable of this by default.;La raison pour laquelle ce type de modèle est appelé réseaux génératifs antagonistes est que nous avons deux fonctions objectives qui sont incompatibles l’une avec l’autre et que nous devons les minimiser simultanément. Ce n’est pas un problème de descente de gradient car le but est de trouver un équilibre de Nash entre ces deux fonctions or la descente de gradient n’en est pas capable par défaut. There will be problems when we have samples that are close to the true manifold. Assume that we have an infinitely thin manifold. The discriminator needs to produce 0 probability outside the manifold and infinite probability on the manifold. Since this is very difficult to achieve, GAN uses sigmoid and produces 0 outside the manifold and produces 1 on the manifold. The problem with this is that if we train the system successfully where we get the discriminator to produce 0 outside the manifold, the energy function is completely useless. This is because the energy function is not smooth where all energy outside the data manifold will be infinity and all energy on the data manifold will be 0. We don’t want the energy value to go from 0 to infinity in a very small step. Researchers have proposed many ways to fix this problem by regularizing the energy function. A good example of improved GAN is Wasserstein GAN which limits the size of discriminator weight.;Il y aura des problèmes lorsque nous aurons des échantillons qui seront proches de la vraie variété. Supposons que nous ayons une surface infiniment fine. Le discriminateur doit produire une probabilité de 0 à l’extérieur de la variété et une probabilité infinie sur la variété. Comme cela est très difficile à réaliser, le GAN utilise une sigmoïde pour produire 0 en dehors de la variété et 1 sur la variété. Le problème est que si nous entraînons le système avec succès en faisant en sorte que le discriminateur produise 0 en dehors de la variété, la fonction d’énergie est complètement inutile. En effet, la fonction d’énergie n’est pas homogène car toute l’énergie en dehors de la variété de données sera infinie et toute l’énergie sur la variété de données sera nulle. Nous ne voulons pas que la valeur de l’énergie passe de 0 à l’infini en un tout petit pas. Les chercheurs ont proposé de nombreux moyens pour résoudre ce problème en régularisant la fonction d’énergie. Un bon exemple de GAN amélioré est le GAN de Wasserstein qui limite la taille du poids du discriminateur. Generative Adversarial Networks;Réseaux génératifs antagonistes Introduction to generative adversarial networks (GANs);Introduction aux réseaux génératifs antagonistes (GANs) GANs are a type of neural network used for unsupervised machine learning. They are comprised of two adversarial modules: generator and cost networks. These modules compete with each other such that the cost network tries to filter fake examples while the generator tries to trick this filter by creating realistic examples x^. Through this competition, the model learns a generator that creates realistic data. They can be used in tasks such as future predictions or for generating images after being trained on a particular dataset.;Les GANs sont un type de réseau de neurones utilisé pour l’apprentissage machine non supervisé. Ils sont composés de deux modules antagonistes : les réseaux générateur et coût. Ces modules se font concurrence de telle sorte que le réseau coût tente de filtrer les faux exemples tandis que le générateur tente de tromper ce filtre en créant des exemples réalistes x^. Grâce à cette compétition, le générateur du modèle apprend à créer des données réalistes. Ces données peuvent être utilisées dans des tâches telles que la prédiction future ou pour générer des images spécialisées suite à un entraînement sur un jeu de données particulier. GANs are examples of energy based models (EBMs). As such, the cost network is trained to produce low costs for inputs closer to the true data distribution denoted by the pink x in Fig. 2. Data from other distributions, like the blue x^ in Fig. 2, should have high cost. A mean squared error (MSE) loss is typically used to calculate the cost network’s performance. It is worth noting that the cost function outputs a positive scalar value within a specified range i.e.cost:Rn→R+∪0. This is unlike a classic discriminator which uses discrete classification for its outputs.;Les GANs sont des exemples de modèles à base d’énergie (EBMs). En tant que tel, le réseau coût est entraîné à produire des coûts faibles pour les entrées les plus proches de la distribution réelle des données, désignée par le x rose dans la figure 2. Les données provenant d’autres distributions, comme le x^ bleu de la figure 2, devraient avoir un coût élevé. Une perte d’erreur quadratique moyenne (MSE) est généralement utilisée pour calculer la performance du réseau de coût. Il convient de noter que la fonction de coût produit une valeur scalaire positive dans une plage spécifiée c’est-à-dire couˆt:Rn→R+∪0. Ceci est différent d’un discriminateur classique qui utilise une classification discrète pour ses sorties. Meanwhile, the generator network (generator:Z→Rn) is trained to improve its mapping of random variable z to realistic generated data x^ to trick the cost network. The generator is trained with respect to the cost network’s output, trying to minimize the energy of x^. We denote this energy as C(G(z)), where C(⋅) is the cost network and G(⋅) is the generator network.;Pendant ce temps, le réseau générateur (generateur:Z→Rn) est entraîné à améliorer la correspondance de la variable aléatoire z aux données réalistes x^ générées pour tromper le réseau de coût. Le générateur est entraîné par rapport à la sortie du réseau de coût, en essayant de minimiser l’énergie de x^. Nous désignons cette énergie par C(G(z)), où C(⋅) est le réseau coût et G(⋅) est le réseau générateur. The training of the cost network is based on minimizing the MSE loss, while the training of the generator network is through minimizing the cost network, using gradients of C(x^) with respect to x^.;L’entraînement du réseau coût est basée sur la minimisation de la perte MSE, tandis que l’entraînement du réseau générateur est basée sur la minimisation du réseau coût, en utilisant des gradients de C(x^) par rapport à x^. To ensure that high cost is assigned to points outside the data manifold and low cost is assigned to points within it, the loss function for the cost network LC​ is C(x)+[m−C(G(z))]+ for some positive margin mm. Minimizing LC requires that C(x)→0 and C(G(z))→m. The loss for the generator LG​ is simply C(G(z)), which encourages the generator to ensure that C(G(z))→0. However, this does create instability.;Pour garantir qu’un coût élevé est attribué aux points situés à l’extérieur de la variété de données et qu’un coût faible est attribué aux points situés à l’intérieur de la variété, la fonction de perte pour le réseau coût LC est C(x)+[m−C(G(z))]+ pour une certaine marge positive mm. Pour minimiser LC​, il faut que C(x)→0 et C(G(z)→m. La perte pour le générateur LG​ est simplement C(G(z)), ce qui encourage le générateur à s’assurer que C(G(z))→0. Cependant, cela crée une instabilité. Difference between GANs and VAEs;Différence entre les GANs et les VAEs Compared to Variational Auto-Encoders (VAEs) from week 8, GANs create generators slightly differently. Recall, VAEs map inputs x to a latent space Z with an encoder and then map from Z back to the data space with a decoder to get x^. They then use the reconstruction loss to push x and x^ to be similar. GANs, on the other hand, train through an adversarial setting with the generator and cost networks competing as described above. These networks are successively trained through backpropagation through gradient based methods. Comparison of this architectural difference can be seen in Fig. 3.;Par rapport aux VAEs de la semaine 8, les GANs créent des générateurs légèrement différents. Rappelons que les VAE associent les entrées x vers un espace latent Z avec un encodeur puis associent Z vers l’espace de données avec un décodeur pour obtenir x^. Ils utilisent ensuite la perte de reconstruction pour pousser x et x^ à être similaires. Les GANs en revanche sont entrainés dans un cadre antagoniste avec les réseaux générateur et coût qui sont en concurrence comme décrit ci-dessus. Ces réseaux sont successivement entraînés par rétropropagation au moyen de méthodes basées sur le gradient. Une comparaison des différences architecturales est présentée à la figure 3. GANs also differ from VAEs through how they produce and use z. GANs start by sampling z, similar to the latent space in a VAE. They then use a generative network to map z to x^. This x^ is then sent through a discriminator/cost network to evaluate how “real” it is. One of the main differences from VAE and GAN is that we do not need to measure a direct relationship (i.e. reconstruction loss) between the output of the generative network x^ and real data x. Instead, we force x^ to be similar to x by training the generator to produce x^ such that the discriminator/cost network produces scores that are similar to those of real data x, or more “real”.;Les GANs diffèrent également des VAEs par la façon dont ils produisent et utilisent les z. Les GANs commencent par échantillonner z, comme l’espace latent dans un VAE. Ils utilisent ensuite un réseau génératif pour mettre en correspondance z avec x^. Ce x^ est envoyé à travers un réseau discriminateur/coût pour évaluer son caractère « réel ». Une des principales différences entre le VAE et le GAN est que nous n’avons pas besoin de mesurer une relation directe (c’est-à-dire la perte de reconstruction) entre la sortie du réseau générateur x^ et les données réelles x. Au lieu de cela, nous forçons x^ à être similaire à x en entraînant le générateur à produire x^ de telle sorte que le réseau discriminateur/coût produise des scores similaires à ceux des données réelles x. Major pitfalls in GANs;Les principaux pièges avec les GANs While GANs can be powerful for building generators, they have some major pitfalls.;Si les GANs peuvent être puissants pour la construction de générateurs, ils présentent quelques pièges importants. 1. Unstable convergence;1. Convergence instable As the generator improves with training, the discriminator performance gets worse because the discriminator can no longer easily tell the difference between real and fake data. If the generator is perfect, then the manifold of the real and fake data will lie on top of each other and the discriminator will create many misclassifications.;Au fur et à mesure que le générateur s’améliore avec l’entraînement, les performances du discriminateur se détériorent car celui-ci ne peut plus faire facilement la différence entre les données réelles et les fausses. Si le générateur est parfait, les données réelles et fausses se superposeront et le discriminateur créera de nombreuses erreurs de classification. This poses a problem for convergence of the GAN: the discriminator feedback gets less meaningful over time. If the GAN continues training past the point when the discriminator is giving completely random feedback, then the generator starts to train on junk feedback and its quality may collapse. [Refer to training convergence in GANs];Cela pose un problème pour la convergence du GAN : le retour d’information du discriminateur devient moins significatif avec le temps. Si le GAN continue à s’entraîner au-delà du moment où le discriminateur donne un retour d’information complètement aléatoire, alors le générateur commence à s’entraîner sur le retour d’information indésirable et sa qualité peut s’effondrer (cf. la convergence de l’entraînement dans les GANs). As a result of this adversarial nature between the generator and discriminator there is an unstable equilibrium point rather than an equilibrium.;En raison de cette nature contradictoire entre le générateur et le discriminateur, il existe un point d’équilibre instable plutôt qu’un équilibre. 2. Vanishing gradient;2. Disparition du gradient Let’s consider using the binary cross entropy loss for a GAN:;Envisageons d’utiliser la perte binaire d’entropie croisée pour un GAN : As the discriminator becomes more confident, D(x) gets closer to 1 and D(x^) gets closer to 0. This confidence moves the outputs of the cost network into flatter regions where the gradients become more saturated. These flatter regions provide small, vanishing gradients that hinder the generator network’s training. Thus, when training a GAN, you want to make sure that the cost gradually increases as you become more confident.;Au fur et à mesure que le discriminateur devient plus confiant, D(x) se rapproche de 1 et D(x^) se rapproche de 0. Cette confiance déplace les sorties du réseau coût vers des régions plus plates où les gradients sont plus saturés. Ces régions plus plates présentent de petits gradients qui disparaissent et qui entravent l’entraînement du réseau générateur. Ainsi, lorsque de l’entraînement d’un GAN, il faut nous assurer que le coût augmente progressivement à mesure que nous devenons plus confiant. 3. Mode collapse;3. Effondrement des modes If a generator maps all z’s from the sampler to a single x^ that can fool the discriminator, then the generator will produce only that x^. Eventually, the discriminator will learn to detect specifically this fake input. As a result, the generator simply finds the next most plausible x^ and the cycle continues. Consequently, the discriminator gets trapped in local minima while cycling through fake x^’s. A possible solution to this issue is to enforce some penalty to the generator for always giving the same output given different inputs.;Si un générateur fait correspondre tous les z de l’échantillonneur à un seul x^ qui peut tromper le discriminateur, alors le générateur produira seulement ce x^. Finalement, le discriminateur apprendra à détecter spécifiquement cette fausse entrée. En conséquence, le générateur trouve simplement le x^ suivant le plus plausible et le cycle continue. Par conséquent, le discriminateur se retrouve piégé dans les minima locaux pendant qu’il passe en revue les faux x^. Une solution possible à ce problème est d’imposer une pénalité au générateur pour avoir toujours donné la même sortie avec des entrées différentes. Deep Convolutional Generative Adversarial Network (DCGAN) source code;Code source du Deep Convolutional Generative Adversarial Network (DCGAN) The source code of the example can be found here.;Le code source de l’exemple peut être trouvé ici. Generator;Générateur 1. The generator upsamples the input using several nn.ConvTranspose2d modules separated with nn.BatchNorm2d and nn.ReLU.;1. Le générateur suréchantillonne l’entrée en utilisant plusieurs modules nn.ConvTranspose2d séparés par nn.BatchNorm2d et nn.ReLU. 2. At the end of the sequential, the network uses nn.Tanh() to squash outputs to (−1,1).;2. A la fin de la séquence, le réseau utilise nn.Tanh() pour écraser les sorties à (−1,1). 3. The input random vector has size nz. The output has size nc×64×64, where ncnc is the number of channels.;3. Le vecteur aléatoire d’entrée est de taille nz. La sortie est de taille nc×64×64, où ncnc est le nombre de canaux. Discriminator;Discriminateur 1. It is important to use nn.LeakyReLU as the activation function to avoid killing the gradients in negative regions. Without these gradients, the generator will not receive updates.;1. Il est important d’utiliser nn.LeakyReLU comme fonction d’activation pour éviter de tuer les gradients dans les régions négatives. Sans ces gradients, le générateur ne recevra pas de mises à jour. 2. At the end of the sequential, the discriminator uses nn.Sigmoid() to classify the input.;2. A la fin de la séquence, le discriminateur utilise nn.Sigmoid() pour classer l’entrée. These two classes are initialized as netG and netD.;Ces deux classes sont initialisées comme netG et netD. Loss function for GAN;Fonction de perte pour le GAN We use Binary Cross Entropy (BCE) between target and output.;Nous utilisons l’entropie croisée binaire (BCE) entre la cible et la sortie. criterion = nn.BCELoss();criterion = nn.BCELoss() Setup;Configuration We set up fixed_noise of size opt.batchSize and length of random vector nz. We also create labels for real data and generated (fake) data called real_label and fake_label, respectively.;Nous mettons en place un fixed_noise de taille opt.batchSize et de longueur du vecteur aléatoire nz. Nous créons également des labels pour les données réelles et les données générées (fausses) appelées respectivement real_label et fake_label. fixed_noise = torch.randn(opt.batchSize, nz, 1, 1, device=device);fixed_noise = torch.randn(opt.batchSize, nz, 1, 1, device=device) real_label = 1;real_label = 1 fake_label = 0;fake_label = 0 Then we set up optimizers for discriminator and generator networks.;Ensuite, nous mettons en place des optimiseurs pour les réseaux discriminateurs et générateurs. optimizerD = optim.Adam(netD.parameters(), lr=opt.lr, betas=(opt.beta1, 0.999));optimizerD = optim.Adam(netD.parameters(), lr=opt.lr, betas=(opt.beta1, 0.999)) optimizerG = optim.Adam(netG.parameters(), lr=opt.lr, betas=(opt.beta1, 0.999));optimizerG = optim.Adam(netG.parameters(), lr=opt.lr, betas=(opt.beta1, 0.999)) Training;Entraînement Each epoch of training is divided into two steps.;Chaque époque d’entraînement est divisée en deux étapes. Step 1 is to update the discriminator network. This is done in two parts. First, we feed the discriminator real data coming from dataloaders, compute the loss between the output and real_label, and then accumulate gradients with backpropagation. Second, we feed the discriminator data generated by the generator network using the fixed_noise, compute the loss between the output and fake_label, and then accumulate the gradient. Finally, we use the accumulated gradients to update the parameters for the discriminator network.;L’étape 1 consiste à mettre à jour le réseau discriminateur. Elle se fait en deux parties. Tout d’abord, on alimente le discriminateur en données réelles provenant des dataloaders, on calcule la perte entre la sortie et le real_label, puis on accumule des gradients avec la rétropropagation. Deuxièmement, nous alimentons le discriminateur en données générées par le réseau générateur en utilisant le fixed_noise, nous calculons la perte entre la sortie et le fake_label, et ensuite nous accumulons le gradient. Enfin, nous utilisons les gradients accumulés pour mettre à jour les paramètres du réseau discriminateur. Note that we detach the fake data to stop gradients from propagating to the generator while we train the discriminator.;A noter que nous détachons les fausses données pour empêcher les gradients de se propager vers le générateur pendant que nous entraînons le discriminateur. Also note that we only need to call zero_grad() once in the beginning to clear the gradients so the gradients from both the real and fake data can be used for the update. The two .backward() calls accumulate these gradients. We finally only need one call of optimizerD.step() to update the parameters.;A noter également que nous n’avons besoin d’appeler zero_grad() qu’une seule fois au début pour effacer les gradients afin que les gradients des données réelles et fausses puissent être utilisés pour la mise à jour. Les deux appels .backward() accumulent ces gradients. Nous n’avons finalement besoin que d’un seul appel de optimizerD.step() pour mettre à jour les paramètres. Step 2 is to update the Generator network. This time, we feed the discriminator the fake data, but compute the loss with the real_label! The purpose of doing this is to train the generator to make realistic x^’s.;L’étape 2 consiste à mettre à jour le réseau générateur. Cette fois, nous alimentons le discriminateur en fausses données, mais nous calculons la perte avec le real_label ! Le but de cette opération est d’entraîner le générateur à faire des x^ réalistes. Week 10;Semaine 10 In this section, we understand the motivation behind Self-Supervised Learning (SSL), define what it is and see some of its applications in NLP and Computer Vision. We understand how pretext tasks aid with SSL and see some example pretext tasks in images, videos and videos with sound. Finally, we try to get an intuition behind the representation learned by pretext tasks.;Dans cette section, nous voyons la motivation qui sous-tend l’apprentissage autosupervisé. Nous le définissons et voyons certaines de ses applications en traitement du langage naturel et en vision par ordinateur. Nous comprenons comment les tâches de prétexte aident en apprentissage autosupervisé et voyons quelques exemples de ces tâches en images, vidéos et vidéos avec son. Enfin, nous essayons d’avoir une intuition de la représentation apprise par les tâches de prétexte. In this section, we discuss the shortcomings of pretext tasks, define characteristics that make a good pretrained feature, and how we can achieve this using Clustering and Contrastive Learning. We then learn about ClusterFit, its steps and performance. We further dive into a specific simple framework for Contrastive Learning known as PIRL. We discuss its working as well as its evaluation in different contexts.;Dans cette section, nous discutons des lacunes des tâches de prétexte, nous définissons les éléments qui font une bonne caractéristique pré-entraînée et comment nous pouvons y parvenir en utilisant le clustering et l’apprentissage contrastif. Nous en apprenons ensuite davantage sur le modèle ClusterFit, ses étapes et ses performances. Nous nous plongeons ensuite dans PIRL, un cadre simple et spécifique pour l’apprentissage contrastif. Nous discutons de son fonctionnement ainsi que de son évaluation dans différents contextes. During this week’s practicum, we explore the Truck Backer-Upper (Nguyen & Widrow, ‘90). This problem shows how to solve an non-linear control problem using neural networks. We learn a model of a truck’s kinematics, and optimize a controller through this learned model, finding that the controller is able to learn complex behaviors through purely observational data.;Nous explorons le Truck Backer-Upper de Nguyen & Widrow (1990). Ce problème montre comment résoudre un problème de contrôle non-linéaire en utilisant des réseaux de neurones. Nous apprenons un modèle de la cinématique du camion et optimisons un contrôleur grâce à ce modèle, en constatant que le contrôleur est capable d’apprendre des comportements complexes grâce à des données purement observationnelles. Self-Supervised Learning - Pretext Tasks;Apprentissage autosupervisé et tâches de prétexte Success story of supervision: Pre-training;Succès de la supervision : le pré-entraînement In the past decade, one of the major success recipes for many different Computer Vision problems has been learning visual representations by performing supervised learning for ImageNet classification. And, using these learned representations, or learned model weights as initialization for other computer vision tasks, where a large quantum of labelled data might not be available.;Au cours de la dernière décennie, l’une des principales approches ayant eu du succès pour de nombreux problèmes de vision par ordinateur a été l’apprentissage des représentations visuelles en effectuant un apprentissage supervisé sur ImageNet. Les représentations et les poids alors appris ont pu être réutilisé comme initialisation pour d’autres tâches de vision par ordinateur où un grand nombre de données étiquetées pouvaient ne pas être disponibles. However, getting annotations for a dataset of the magnitude of ImageNet is immensely time-consuming and expensive. Example: ImageNet labelling with 14M images took roughly 22 human years.;Cependant, annoter un jeu de données de l’ampleur d’ImageNet est extrêmement long et coûteux. Par exemple l’étiquetage d’ImageNet avec 14 millions d’images a pris environ 22 années humaines. Because of this, the community started to look for alternate labelling processes, such as hashtags for social media images, GPS locations, or self-supervised approaches where the label is a property of the data sample itself.;C’est pourquoi la communauté a commencé à chercher d’autres procédés d’étiquetage, comme les mots-dièse pour les images des médias sociaux, les localisations GPS ou les approches autosupervisées où le label est une propriété de l’échantillon de données lui-même. But an important question that arises before looking for alternate labelling processes is:;Mais une question importante se pose avant de chercher d’autres procédés d’étiquetage : How much labelled data can we get after all?;Combien de données étiquetées pouvons-nous obtenir ? If we search for all images with object-level category and bounding box annotations then there are roughly 1 million images.;Si nous recherchons toutes les images avec une catégorie au niveau de l’objet et des annotations pour les boîtes de délimitation, nous obtenons environ un million d’images. Now, if the constraint for bounding box coordinates is relaxed, the number of images available jumps to 14 million (approximately).;Maintenant, si la contrainte pour les coordonnées des boîtes de délimitation est assouplie, le nombre d’images disponibles passe à environ 14 millions. However, if we consider all images available on the internet, there is a jump of 5 orders in the quantity of data available.;Cependant, si nous considérons toutes les images disponibles sur Internet, il y a un saut d’un facteur 5 dans la quantité de données disponibles. And, then there is data apart from images, which requires other sensory input to capture or understand.;Et puis, il y a les données autres que les images, qui nécessitent d’autres entrées sensorielles pour être saisies ou comprises. Hence, drawing from the fact that ImageNet specific annotation alone took 22 human years worth of time, scaling labelling to all internet photos or beyond is completely infeasible.;Par conséquent, si l’on considère que l’annotation d’ImageNet a pris à elle seule 22 années humaines, il est totalement impossible de mettre à l’échelle l’étiquetage de toutes les photos sur Internet ou au-delà. Problem of Rare Concepts (Long Tail Problem);Problème des concepts rares (problème de la longue queue) Generally, the plot presenting distribution of the labels for internet images looks like a long tail. That is, most of the images correspond to very few labels, while there exist a large number of labels for which not many images are present. Thus, getting annotated samples for categories towards the end of the tail requires huge quantities of data to be labelled because of the nature of the distribution of categories.;En général, la distribution des labels pour les images disponibles sur internet ressemble à une longue queue. C’est-à-dire que la plupart des images correspondent à très peu de labels, alors qu’il existe un grand nombre de labels pour lesquelles peu d’images sont présentes. Ainsi, pour obtenir des échantillons annotés pour les catégories vers la fin de la queue, il faut étiqueter d’énormes quantités de données en raison de la nature de la distribution des catégories. Problem of Different Domains;Problème de la différence de domaine This method of ImageNet pre-training and fine-tuning on downstream task gets even murkier when the downstream task images belong to a completely different domain, such as medical imaging. And, obtaining a dataset of the quantum of ImageNet for pre-training for different domains is not possible.;Cette méthode de pré-entraînement et de finetuning d’ImageNet sur les tâches en aval devient encore plus obscure lorsque les images des tâches en aval appartiennent à un domaine complètement différent, comme l’imagerie médicale. What is self-supervised Learning?;Qu’est-ce que l’apprentissage autosupervisé ? Two ways to define self-supervised learning;Deux façons de définir l’apprentissage autosupervisé : Basis supervised learning definition, i.e. the network follows supervised learning where labels are obtained in a semi-automated manner, without human input.;En se basant sur la définition de l’apprentissage supervisé c’est-à-dire que le réseau suit un apprentissage supervisé où les labels sont obtenus de manière semi-automatique, sans intervention humaine. Prediction problem, where a part of the data is hidden, and rest visible. Hence, the aim is to either predict the hidden data or to predict some property of the hidden data.;En voyant la tâche comme un problème de prédiction où une partie des données est cachée et le reste visible. L’objectif est soit de prédire les données cachées, soit de prédire certaines propriétés des données cachées. How self-supervised learning differs from supervised learning and unsupervised learning?;Comment l’apprentissage autosupervisé diffère-t-il de l’apprentissage supervisé et de l’apprentissage non supervisé ? Supervised learning tasks have pre-defined (and generally human-provided) labels,;Les tâches d’apprentissage supervisé ont des labels prédéfinis (et généralement fournis par l’homme), Unsupervised learning has just the data samples without any supervision, label or correct output.;L’apprentissage non supervisé ne dispose que des échantillons de données sans aucune supervision, label ou sortie correcte. Self-supervised learning derives its labels from a co-occurring modality for the given data sample or from a co-occurring part of the data sample itself.;L’apprentissage autosupervisé tire ses labels d’une modalité concomitante pour l’échantillon de données donné ou d’une partie concomitante de l’échantillon de données lui-même. Self-Supervised Learning in Natural Language Processing;L’apprentissage autosupervisé dans le traitement du langage naturel Word2Vec;Word2Vec Given an input sentence, the task involves predicting a missing word from that sentence, which is specifically omitted for the purpose of building a pretext task.;À partir d’une phrase d’entrée, la tâche consiste à prédire un mot manquant dans cette phrase, qui est spécifiquement omis dans le but de construire une tâche de prétexte. Hence, the set of labels becomes all possible words in the vocabulary, and, the correct label is the word that was omitted from the sentence.;Ainsi, l’ensemble des labels devient tous les mots possibles du vocabulaire et le label correct est le mot qui a été omis de la phrase. Thus, the network can then be trained using regular gradient-based methods to learn word-level representations.;Ainsi, le réseau peut ensuite être entraîné à l’aide de méthodes régulières basées sur des gradients pour apprendre les représentations au niveau des mots. Why self-supervised learning?;Pourquoi un apprentissage autosupervisé ? Self-supervised learning enables learning representations of data by just observations of how different parts of the data interact.;L’apprentissage autosupervisé permet d’apprendre des représentations de données en observant simplement comment différentes parties des données interagissent. Thereby drops the requirement of huge amount of annotated data.;Cela permet de réduire le nombre de données annotées. Additionally, enables to leverage multiple modalities that might be associated with a single data sample.;De plus, il permet de tirer parti des multiples modalités qui peuvent être associées à un seul échantillon de données. Self-Supervised Learning in Computer Vision;Apprentissage autosupervisé en vision par ordinateur Generally, computer vision pipelines that employ self-supervised learning involve performing two tasks, a pretext task and a real (downstream) task.;En général, les pipelines de vision par ordinateur qui font appel à l’apprentissage autosupervisé impliquent l’exécution de deux tâches, une tâche prétexte et une tâche réelle (en aval). The real (downstream) task can be anything like classification or detection task, with insufficient annotated data samples.;La tâche réelle (en aval) peut être par exemple une tâche de classification ou de détection, avec des échantillons de données annotés insuffisants. The pretext task is the self-supervised learning task solved to learn visual representations, with the aim of using the learned representations or model weights obtained in the process, for the downstream task.;La tâche prétexte est la tâche d’apprentissage autosupervisée résolue pour apprendre des représentations visuelles, dans le but d’utiliser les représentations apprises ou les poids de modèle obtenus dans le processus, pour la tâche en aval. Developing pretext tasks;Développer des tâches de prétexte Pretext tasks for computer vision problems can be developed using either images, video, or video and sound.;Les tâches de prétexte pour les problèmes de vision par ordinateur peuvent être développées en utilisant soit des images, soit de la vidéo, soit de la vidéo et du son. In each pretext task, there is part visible and part hidden data, while the task is to predict either the hidden data or some property of the hidden data.;Dans chaque tâche de prétexte, il y a une partie de données visibles et une partie de données cachées, tandis que la tâche consiste à prédire soit les données cachées, soit une certaine propriété des données cachées. Example pretext tasks: Predicting relative position of image patches;Exemple de tâches de prétexte : prédire la position relative des patchs d’image Input: 2 image patches, one is the anchor image patch while the other is the query image patch.;Entrée : 2 patchs d’image, l’un est le patch d’image d’ancrage et l’autre est le patch d’image requête. Given the 2 image patches, the network needs to predict the relative position of the query image patch with respect to the anchor image patch.;Compte tenu des deux correctifs d’image, le réseau doit prévoir la position relative du correctif d’image requête par rapport au correctif d’image d’ancrage. Thus, this problem can be modelled as an 8-way classification problem, since there are 8 possible locations for a query image, given an anchor.;Ainsi, ce problème peut être modélisé comme un problème de classification à 8 classes, puisqu’il y a 8 emplacements possibles pour une image requête, avec une ancre. And, the label for this task can be automatically generated by feeding the relative position of query patch with respect to the anchor.;Et le label pour cette tâche peut être généré automatiquement en indiquant la position relative de la zone de recherche par rapport à l’ancre. Visual representations learned by relative position prediction task;Représentations visuelles apprises par la tâche de prédiction de la position relative We can evaluate the effectiveness of the learned visual representations by checking nearest neighbours for a given image patch basis feature representations provided by the network. For computing nearest neighbours of a given image patch,;Nous pouvons évaluer l’efficacité des représentations visuelles apprises en vérifiant chez les voisins les plus proches les représentations des caractéristiques de base d’un patch d’image donné fournies par le réseau. Pour calculer les voisins les plus proches d’une image donnée : Compute the CNN features for all images in the dataset, that will act as the sample pool for retrieval.;Calculer les caractéristiques du ConvNet pour toutes les images du jeu de données, qui serviront d’échantillon pool pour la recherche. Compute CNN features for the required image patch.;Calculer les caractéristiques du ConvNet pour le correctif d’image requis. Identify nearest neighbours for the feature vector of the required image, from the pool of feature vectors of images available.;Identifier les voisins les plus proches pour le vecteur de caractéristique de l’image requise, à partir de la mise en commun de vecteurs de caractéristiques des images disponibles. Relative position task finds out image patches that are very similar to the input image patch, while maintains invariance to factors such as object colour. Thus, the relative position task is able to learn visual representations, where representations for image patches with similar visual appearance are closer in the representation space as well.;La tâche de position relative permet de trouver des zones d’image très similaires à la zone d’image d’entrée, tout en maintenant l’invariance de facteurs tels que la couleur de l’objet. Ainsi, la tâche de position relative est capable d’apprendre des représentations visuelles, où les représentations pour des taches d’image avec un aspect visuel similaire sont également plus proches dans l’espace de représentation. Predicting Rotation of Images;Prédire la rotation des images Predicting rotations is one of the most popular pretext task which has a simple and straightforward architecture and requires minimal sampling.;La prévision des rotations est l’une des tâches de prétexte les plus populaires ayant une architecture simple et directe, et nécessitant un échantillonnage minimal. We apply rotations of 0, 90, 180, 270 degrees to the image and send these rotated images to the network to predict what sort of rotation was applied to the image and the network simply performs a 4-way classification to predict the rotation.;Nous appliquons des rotations de 0, 90, 180, 270 degrés à l’image et nous envoyons ces images au réseau pour prédire quel type de rotation a été appliqué à l’image. Le réseau effectue simplement une classification à 4 classes pour prédire la rotation. Predicting rotations does not make any semantic sense, we are just using this pretext task as a proxy to learn some features and representations to be used in a downstream task.;La prédiction des rotations n’a aucun sens sémantique, nous utilisons simplement cette tâche prétexte comme un proxy pour apprendre certaines caractéristiques et représentations à utiliser dans une tâche en aval. Why rotation helps or why it works?;Pourquoi la rotation est-elle utile ou pourquoi fonctionne-t-elle ? It has been proven that it works empirically. The intuition behind it is that in order to predict the rotations, model needs to understand the rough boundaries and representation of an image. For example, it will have to segregate the sky from water or sand from the water or will understand that trees grow upwards and so on.;Il a été prouvé qu’elle fonctionne de manière empirique. L’intuition qui sous-tend cette méthode est que pour prédire les rotations, le modèle doit comprendre les limites approximatives et la représentation d’une image. Par exemple, il devra séparer le ciel de l’eau ou le sable de l’eau ou comprendre que les arbres poussent vers le haut, etc. Colourisation;Colorisation In this pretext task, we predict the colours of a grey image. It can be formulated for any image, we just remove the colour and feed this greyscale image to the network to predict its colour. This task is useful in some respects like for colourising the old greyscale films (we can apply this pretext task). The intuition behind this task is that the network needs to understand some meaningful information like that the trees are green, the sky is blue and so on.;Dans cette tâche de prétexte, on prédit les couleurs d’une image grise. Elle peut être formulée pour n’importe quelle image, il suffit d’enlever la couleur et de donner cette image en niveaux de gris au réseau pour prédire sa couleur. Cette tâche est utile à certains égards, comme pour coloriser les vieux films en niveaux de gris. L’intuition derrière cette tâche est que le réseau doit comprendre certaines informations significatives comme le fait que les arbres sont verts, le ciel est bleu, etc. It is important to note that colour mapping is not deterministic, and several possible true solutions exist. So, for an object if there are several possible colours then the network will colour it as grey which is the mean of all possible solutions. There have been recent works using Variational Auto Encoders and latent variables for diverse colourisation.;Il est important de noter que l’association des couleurs n’est pas déterministe, et que plusieurs vraies solutions existent. Ainsi, pour un objet, s’il y a plusieurs couleurs possibles, le réseau le colorera en gris, ce qui est la moyenne de toutes les solutions possibles. Des travaux récents ont utilisé des auto-encodeurs variationnels et des variables latentes pour diverses colorisations. Fill in the blanks;Remplir les blancs We hide a part of an image and predict the hidden part from the remaining surrounding part of the image. This works because the network will learn the implicit structure of the data like to represent that cars run on roads, buildings are composed of windows & doors and so on.;Nous cachons une partie d’une image et nous prédisons la partie cachée de la partie restante de l’image qui l’entoure. Cela fonctionne parce que le réseau apprend la structure implicite des données, par exemple pour représenter le fait que les voitures roulent sur les routes, que les bâtiments sont composés de fenêtres et de portes, etc. Pretext Tasks for videos;Tâches de prétexte pour les vidéos Videos are composed of sequences of frames and this notion is the idea behind self-supervision, which can be leveraged for some pretext tasks like predicting the order of frames, fill in the blanks and object tracking.;Les vidéos sont composées de séquences d’images et cette notion est l’idée qui sous-tend l’autosupervision, qui peut être mise à profit pour certaines tâches de prétexte comme la prédiction de l’ordre des images, le remplissage des blancs et le suivi des objets. Shuffle & Learn;Mélanger et apprendre (Shuffle & Learn) Given a bunch of frames, we extract three frames and if they are extracted in the right order we label it as positive, else if they are shuffled, label it as negative. This now becomes a binary classification problem to predict if the frames are in the right order or not. So, given a start and end point, we check if the middle is a valid interpolation of the two.;Lorsque nous avons plusieurs images, nous en extrayons trois et si elles sont extraites dans le bon ordre, nous les qualifions de positives. Dans le cas où elles sont mélangées, nous les qualifions de négatives. Cela devient alors un problème de classification binaire pour prédire si les images sont dans le bon ordre ou non. Ainsi, en donnant un point de départ et un point d’arrivée, nous vérifions si le milieu est une interpolation valide des deux. We can use a triplet Siamese network, where the three frames are independently fed forward and then we concatenate the generated features and perform the binary classification to predict if the frames are shuffled or not.;Nous pouvons utiliser un réseau siamois en triplet, où les trois images sont transmises indépendamment, puis nous concaténons les caractéristiques générées et effectuons la classification binaire pour prédire si les images sont mélangées ou non. Again, we can use the Nearest Neighbours algorithm to visualize what our networks are learning. In fig. 9 above, first we have a query frame which we feed-forward to get a feature representation and then look at the nearest neighbours in the representation space. While comparing, we can observe a stark difference between neighbours obtained from ImageNet, Shuffle & Learn and Random.;Là encore, nous pouvons utiliser l’algorithme des plus proches voisins pour visualiser ce que nos réseaux apprennent. Dans la figure 9 ci-dessus, nous avons d’abord une image requête que nous donnons au réseau pour obtenir une représentation des caractéristiques, puis nous regardons les voisins les plus proches dans l’espace de représentation. En comparant, nous pouvons observer une différence marquée entre les voisins obtenus à partir d’ImageNet, de Shuffle & Learn et de Random. ImageNet is good at collapsing the entire semantic as it could figure out that it is a gym scene for the first input. Similarly, it could figure out that it is an outdoor scene with grass etc. for the second query. Whereas, when we observe Random we can see that it gives high importance to the background colour.;ImageNet est capable de réduire l’ensemble de la sémantique, car il comprend qu’il s’agit d’une scène de gymnastique pour la première entrée. De même, il peut comprendre qu’il s’agit d’une scène de plein air avec de l’herbe, etc. pour la deuxième requête. En revanche, lorsque nous observons Random, nous pouvons voir qu’il accorde une grande importance à la couleur de l’arrière-plan. On observing Shuffle & Learn, it is not immediately clear whether it is focusing on the colour or on the semantic concept. After further inspection and observing various examples, it was observed that it is looking at the pose of the person. For example, in the first image the person is upside down and in second the feet are in a particular position similar to query frame, ignoring the scene or background colour. The reasoning behind this is that our pretext task was predicting whether the frames are in the right order or not, and to do this the network needs to focus on what is moving in the scene, in this case, the person.;En observant Shuffle & Learn, il n’est pas immédiatement possible de savoir s’il se concentre sur la couleur ou sur le concept sémantique. Après une inspection plus poussée et l’observation de divers exemples, on a constaté qu’il s’agit de la pose de la personne. Par exemple, dans la première image, la personne est à l’envers et dans la seconde, les pieds sont dans une position particulière similaire à celle du cadre de la requête, ignorant la couleur de la scène ou de l’arrière-plan. Le raisonnement est de notre tâche de prétexte était de prédire si les images sont dans le bon ordre ou non, et pour ce faire, le réseau doit se concentrer sur ce qui bouge dans la scène, dans ce cas, la personne. It was verified quantitatively by fine-tuning this representation to the task of human key-point estimation, where given a human image we predict where certain key points like nose, left shoulder, right shoulder, left elbow, right elbow, etc. are. This method is useful for tracking and pose estimation.;Cela a été vérifié quantitativement en ajustant cette représentation à la tâche d’estimation des points clés humains, où, étant donné une image humaine, nous prédisons où se trouvent certains points clés comme le nez, l’épaule gauche, l’épaule droite, le coude gauche, le coude droit, etc. Cette méthode est utile pour le suivi et l’estimation de la pose. In figure 10, we compare the results for supervised ImageNet and Self-Supervised Shuffle & Learn on FLIC and MPII datasets and we can see that Shuffle and Learn gives good results for key point estimation.;Dans la figure 10, nous comparons les résultats d’ImageNet supervisé et de Shuffle & Learn autosupervisé sur les jeux de données FLIC et MPII. Nous pouvons voir que Shuffle & Learn donne de bons résultats pour l’estimation des points clés. Pretext Tasks for videos and sound;Tâches de prétexte pour les vidéos et le son Video and Sound are multi-modal where we have two modalities or sensory inputs one for video and one for sound. Where we try to predict whether the given video clip corresponds to the audio clip or not.;La vidéo et le son sont multimodaux, c’est-à-dire que nous avons deux modalités ou entrées sensorielles, une pour la vidéo et une pour le son. Nous essayons de prédire si le clip vidéo donné correspond ou non au clip audio. Given a video with audio of a drum, sample the video frame with corresponding audio and call it a positive set. Next, take the audio of a drum and the video frame of a guitar and tag it as a negative set. Now we can train a network to solve this as a binary classification problem.;Dans le cas d’une vidéo avec le son d’un tambour, nous échantillons la vidéo en images avec le son correspondant et nous appelons ça un ensemble positif. Ensuite, nous prenons l’audio d’une batterie et l’image d’une guitare et les marquons comme un ensemble négatif. Nous pouvons maintenant entraîner un réseau à résoudre ce problème de classification binaire. Architecture: Pass the video frames to the vision subnetwork and pass the audio to the audio subnetwork, which gives 128-dimensional features and embeddings, we then fuse them together and solve it as a binary classification problem predicting if they correspond with each other or not.;Architecture : nous passons les images vidéo au sous-réseau de vision et l’audio au sous-réseau audio, ce qui donne des caractéristiques et des enchâssements en 128 dimensions. Nous les fusionnons et résolvons comme un problème de classification binaire prédisant si elles correspondent ou non entre elles. It can be used to predict what in the frame might be making a sound. The intuition is if it is the sound of a guitar, the network roughly needs to understand how the guitar looks and same should be true for drums.;Cela peut être utilisé pour prédire ce qui, dans l’image, pourrait produire un son. L’intuition est que s’il s’agit du son d’une guitare, le réseau doit comprendre l’aspect de la guitare. Même logique pour la batterie. Understanding what the “pretext” task learns;Comprendre ce que la tâche prétexte apprend Pretext tasks should be complementary;Les tâches de prétexte doivent être complémentaires Let’s take for example the pretext tasks Relative Position and Colourisation. We can boost performance by training a model to learn both pretext tasks as shown below:;Prenons par exemple les tâches de prétexte Position relative et Colorisation. Nous pouvons améliorer les performances en entraînant un modèle pour apprendre les deux tâches de prétexte comme indiqué ci-dessous : A single pretext task may not be the right answer to learn SS representations;Une seule tâche de prétexte peut ne pas être la bonne réponse pour apprendre les représentations autosupervisées Pretext tasks vary greatly in what they try to predict (difficultly);Les tâches de prétexte varient beaucoup dans ce qu’elles essaient de prédire (difficilement) Relative position is easy since it’s a simple classification;La position relative est facile puisqu’il s’agit d’une simple classification Masking and fill-in is far harder –> better representation;Le masquage et le remplissage sont beaucoup plus difficiles => meilleure représentation Contrastive methods generate even more info than pretext tasks;Les méthodes contrastives génèrent encore plus d’informations que les tâches prétexte How do we train multiple pre-training tasks?;Comment entraîner de multiples tâches de pré-entraînement ? The pretext output will depend on the input. The final fully-connected layer of the network can be swapped depending on the batch type.;La sortie de la prétexte dépend de l’entrée. La dernière couche entièrement connectée du réseau peut être intervertie en fonction du type de lot. For example: A batch of black-and-white images is fed to the network in which the model is to produce a coloured image. Then, the final layer is switched, and given a batch of patches to predict relative position.;Par exemple : un batch d’images en noir et blanc est envoyé au réseau dans lequel le modèle doit produire une image en couleur. Ensuite, la couche finale est permutée et reçoit un batch de patchs pour prédire la position relative. How much should we train on a pretext task?;En quelle quantité devons-nous entraîner une tâche de prétexte ? Rule of thumb: Have a very difficult pretext task such that it improves the downstream task.;Règle empirique : avoir une tâche de prétexte très difficile telle qu’elle améliore la tâche en aval. In practice, the pretext task is trained, and may not be re-trained. In development, it is trained as part of the entire pipeline.;En pratique, la tâche de prétexte est entraînée et ne peut pas être ré-entraînée. En développement, elle est entraînée dans le cadre de l’ensemble du pipeline. Scaling Self-Supervised Learning;Mise à l’échelle de l’apprentissage autosupervisé Jigsaw Puz~les;Puz~les Jigsaw Partition an image into multiple tiles and then shuffle these tiles. The model is then tasked with un-shuffling the tiles back to the original configuration. (Noorozi & Favaro, 2016);Partitionner une image en plusieurs tuiles et mélanger ces tuiles. Le modèle est ensuite chargé de rétablir la configuration d’origine des tuiles (Noorozi & Favaro, 2016). Predict which permutation was applied to the input;Prédire quelle permutation a été appliquée à l’entrée This is done by creating batches of tiles such that each tile of an image is evaluated independently. The convolution output are then concatenated and the permutation is predicted as in figure below;Cela se fait en créant des lots de tuiles de telle sorte que chaque tuile d’une image soit évaluée indépendamment. Les sorties de convolution sont ensuite concaténées et la permutation est prédite comme dans la figure ci-dessous : Considerations:;Considérations : 1. Use a subset of permutations i.e. From 9!, use 100);1. Utiliser un sous-ensemble de permutations (c’est-à-dire de 9!, utiliser 100) 2. The n-way ConvNet uses shared parameters;2. Le ConvNet à n classes utilise des paramètres partagés 3. The problem complexity is the size of the subset. The amount of information you are predicting.;3. La complexité du problème réside dans la taille du sous-ensemble, la quantité d’informations que nous prédisons Sometimes, this method can perform better on downstream tasks than supervised methods, since the network is able to learn some concepts about the geometry of its input.;Parfois, cette méthode peut être plus performante sur les tâches en aval que les méthodes supervisées car le réseau est capable d’apprendre certains concepts sur la géométrie de son entrée. Shortcomings: Few Shot Learning: Limited number of training examples;Les lacunes : le few-shot learning (apprentissage avec un nombre limité d’exemples d’entraînement) Self-supervised representations are not as sample efficient;Les représentations autosupervisées ne sont pas aussi efficaces sur l’échantillon Evaluation: Fine-tuning vs. Linear Classifier;Évaluation : Finetuning vs Classifieur linéaire This form of evaluation is a kind of Transfer Learning.;Cette forme d’évaluation est une sorte de d’apprentissage par transfert. Fine Tuning: When applying to our downstream task, we use our entire network as an initialization for which to train a new one, updating all the weights.;Finetuning : lorsque nous appliquons à notre tâche en aval, nous utilisons notre réseau entier comme une initialisation pour entraîner notre nouveau réseau, en mettant à jour tous les poids. Linear Classifier: On top of our pretext network, we train a small linear classifier to perform our downstream task, leaving the rest of the network intact.;Classifieur linéaire : en plus de notre réseau de prétexte, nous entraînons un petit classifieur linéaire pour effectuer notre tâche en aval, en laissant le reste du réseau intact. A good representation should transfer with a little training.;Une bonne représentation doit être transférée avec un petit entraînement. It is helpful to evaluate the pretext learning on a multitude of different tasks. We can do so by extracting the representation created by different layers in the network as fixed features and evaluating their usefulness across these different tasks.;Il est utile d’évaluer l’apprentissage prétexte sur une multitude de tâches différentes. Nous pouvons le faire en extrayant la représentation créée par les différentes couches du réseau en tant que caractéristiques fixes et en évaluant leur utilité à travers ces différentes tâches. Measurement: Mean Average Precision (mAP) –The precision averaged across all the different tasks we are considering.;Mesure : la précision moyenne (Mean Average Precision en anglais souvent siglée en mAP) de l’ensemble des différentes tâches que nous envisageons. Some examples of these tasks include: Object Detection (using fine-tuning), Surface Normal Estimation (see NYU-v2 dataset);Quelques exemples de ces tâches : détection d’objets (en utilisant du finetuning), estimation de la surface (voir le jeu de données NYU-v2) What does each layer learn?;Qu’apprend chaque couche ? Generally, as the layers become deeper, the mean average precision on downstream tasks using their representations will increase.;En général, plus les couches sont profondes, plus la précision moyenne sur les tâches en aval utilisant leurs représentations augmente. However, the final layer will see a sharp drop in the mAP due to the layer becoming overly specialized.;Cependant, la couche finale verra une forte baisse de la mAP en raison de la sur-spécialisation de la couche. This contrasts with supervised networks, in that the mAP generally always increases with depth of layer.;Cela contraste avec les réseaux supervisés, dans la mesure où la mAP augmente généralement toujours avec la profondeur de la couche. This shows that the pretext task is not well-aligned to the downstream task.;Cela montre que la tâche de prétexte n’est pas bien alignée sur la tâche en aval. Self-Supervised Learning - ClusterFit and PIRL;Apprentissage autosupervisé, ClusterFit et PIRL What is missing from “pretext” tasks? The hope of generalization;Que manque-t-il aux tâches de prétexte ? L’espoir de la généralisation Pretext task generally comprises of pretraining steps which is self-supervised and then we have our transfer tasks which are often classification or detection. We hope that the pretraining task and the transfer tasks are “aligned”, meaning, solving the pretext task will help solve the transfer tasks very well. So, a lot of research goes into designing a pretext task and implementing them really well.;La tâche de prétexte comprend généralement des étapes de pré-entraînement qui sont autosupervisées. Puis nous avons nos tâches de transfert qui sont souvent de classification ou de détection. Nous espérons que la tâche de pré-entraînement et les tâches de transfert sont « alignées », c’est-à-dire que la résolution de la tâche de prétexte aide à résoudre notre tâche de transfert. Ainsi, beaucoup de recherches sont nécessaires afin de concevoir une tâche de prétexte et la mettre en œuvre de façon optimale. However, it is very unclear why performing a non-semantic task should produce good features?. For example, why should we expect to learn about “semantics” while solving something like Jigsaw puzzle? Or why should “predicting hashtags” from images be expected to help in learning a classifier on transfer tasks? Therefore, the question remains. How should we design good pre-training tasks which are well aligned with the transfer tasks?;Cependant, il est très difficile de savoir pourquoi l’exécution d’une tâche non sémantique produit de bonnes caractéristiques. Par exemple, pourquoi devrions-nous nous attendre à apprendre la « sémantique » tout en résolvant quelque chose comme un puzzle ? Ou pourquoi prédire les mots-dièse à partir d’images aide à apprendre un classifieur sur des tâches de transfert ? Comment concevoir de bonnes tâches de pré-entraînement qui soient bien alignées avec les tâches de transfert ? One way to evaluate this problem is by looking at representations at each layer (refer Fig. 1). If the representations from the last layer are not well aligned with the transfer task, then the pretraining task may not be the right task to solve.;Une façon d’évaluer ce problème est d’examiner les représentations à chaque couche (voir figure 1). Si les représentations de la dernière couche ne sont pas bien alignées avec la tâche de transfert, alors la tâche de pré-entraînement peut ne pas être la bonne tâche à résoudre. Fig. 2 plots the Mean Average Precision at each layer for Linear Classifiers on VOC07 using Jigsaw Pretraining. It is clear that the last layer is very specialized for the Jigsaw problem.;La figure 2 représente la précision moyenne à chaque couche pour des classifieurs linéaires sur le jeu de données VOC07 avec un pré-entraînement Jigsaw. Il est clair que la dernière couche est très spécialisée pour le problème Jigsaw. What we want from pre-trained features?;Qu’attendons-nous des caractéristiques pré-entraînées ? Represent how images relate to one another;Représenter la façon dont les images sont liées les unes aux autres ClusterFit: Improving Generalization of Visual Representations;ClusterFit : améliorer la généralisation des représentations visuelles Be robust to “nuisance factors” – Invariance E.g. exact location of objects, lighting, exact colour;Être robuste aux facteurs de nuisance, c’est à dire être invariant, par exemple à l’éclairage, l’emplacement exact des objets, la couleur PIRL: Self-supervised learning of Pre-text Invariant Representations; PIRL : apprentissage autosupervisé des représentations invariantes du prétexte Two ways to achieve the above properties are Clustering and Contrastive Learning. They have started performing much better than whatever pretext tasks that were designed so far. One method that belongs to clustering is ClusterFit and another falling into invariance is PIRL.;Deux moyens d’atteindre les propriétés ci-dessus sont le clustering et l’apprentissage contrastif. Ils ont commencé à fonctionner bien mieux que les tâches de prétexte conçues jusqu’à présent. Une méthode qui appartient au clustering est ClusterFit et une autre qui tombe dans l’invariance est PIRL. ClusterFit: Improving Generalization of Visual Representations;ClusterFit : améliorer la généralisation des représentations visuelles Clustering the feature space is a way to see what images relate to one another.;Le clustering de l’espace des caractéristiques est un moyen de voir quelles images sont liées les unes aux autres. Method;Méthode ClusterFit follows two steps. One is the cluster step, and the other is the predict step.;ClusterFit suit deux étapes. L’une est l’étape du cluster, l’autre est l’étape de la prédiction. Cluster: Feature Clustering;Cluster : regroupement des caractéristiques We take a pretrained network and use it to extract a bunch of features from a set of images. The network can be any kind of pretrained network. K-means clustering is then performed on these features, so each image belongs to a cluster, which becomes its label.;Nous prenons un réseau pré-entraîné et l’utilisons pour extraire un ensemble de caractéristiques d’un ensemble d’images. Le réseau peut être n’importe quel type de réseau pré-entraîné. Les KK-means sont alors effectués sur ces caractéristiques, de sorte que chaque image appartient à un cluster qui devient son label. Fit: Predict Cluster Assignment;Entraînement : prévoir l’affectation des clusters For this step, we train a network from scratch to predict the pseudo labels of images. These pseudo labels are what we obtained in the first step through clustering.;Pour cette étape, nous entraînons un réseau à partir de zéro afin de prédire les pseudo labels des images. Ces pseudo labels sont ceux que nous avons obtenus lors de la première étape par le clustering. A standard pretrain and transfer task first pretrains a network and then evaluates it in downstream tasks, as it is shown in the first row of Fig. 5. ClusterFit performs the pretraining on a dataset Dcf​ to get the pretrained network Npre​. The pretrained network Npre​ are performed on dataset Dcf to generate clusters. We then learn a new network Ncf​ from scratch on this data. Finally, use Ncf for all downstream tasks.;Une tâche standard de pré-entraînement et de transfert pré-entraîne d’abord un réseau et l’évalue ensuite sur des tâches en aval, comme le montre la première ligne de la figure 5. ClusterFit effectue le pré-entraînement sur un jeu de données Dcf pour obtenir le réseau pré-entraîné Npre​. Le pré-entraînement Npre​ est effectué sur un jeu de données Dcf​ pour générer des clusters. Nous apprenons ensuite un nouveau réseau Ncf​ à partir de zéro sur ces données. Enfin, on utilise Ncf​ pour toutes les tâches en aval. Why ClusterFit Works;Pourquoi ClusterFit fonctionne ? The reason why ClusterFit works is that in the clustering step only the essential information is captured, and artefacts are thrown away making the second network learn something slightly more generic.;La raison pour laquelle ClusterFit fonctionne est que lors de l’étape de clustering, seules les informations essentielles sont saisies et les artefacts sont jetés, ce qui permet au second réseau d’apprendre quelque chose de légèrement plus générique. To understand this point, a fairly simple experiment is performed. We add label noise to ImageNet-1K, and train a network based on this dataset. Then, we evaluate the feature representation from this network on a downstream task on ImageNet-9K. As it is shown in Fig. 6, we add different amounts of label noise to the ImageNet-1K, and evaluate the transfer performance of different methods on ImageNet-9K.;Pour comprendre ce point, une expérience assez simple est réalisée. Nous ajoutons un bruit de label à ImageNet-1K et entraînons un réseau basé sur ce jeu de données. Ensuite, nous évaluons la représentation des caractéristiques de ce réseau sur une tâche en aval sur ImageNet-9K. Comme le montre la figure 6, nous ajoutons différentes quantités de bruit de label au réseau ImageNet-1K et nous évaluons les performances de transfert de différentes méthodes sur ImageNet-9K. The pink line shows the performance of pretrained network, which decreases as the amount of label noise increases. The blue line represents model distillation where we take the initial network and use it to generate labels. Distillation generally performs better than pretrained network. The green line, ClusterFit, is consistently better than either of these methods. This result validates our hypothesis.;La ligne rose indique les performances du réseau pré-entraîné, qui diminuent à mesure que le bruit du label augmente. La ligne bleue représente la distillation du modèle où nous prenons le réseau initial et l’utilisons pour générer des labels. La distillation est généralement plus performante que le réseau pré-entraîné. La ligne verte, ClusterFit, est toujours meilleure que l’une ou l’autre de ces méthodes. Ce résultat valide notre hypothèse. Why use distillation method to compare. What’s the difference between distillation and ClusterFit?;Pourquoi utiliser la méthode de distillation pour comparer ? Quelle est la différence entre la distillation et ClusterFit ? In model distillation we take the pre-trained network and use the labels the network predicted in a softer fashion to generate labels for our images. For example, we get a distribution over all the classes and use this distribution to train the second network. The softer distribution helps enhance the initial classes that we have. In ClusterFit we don’t care about the label space.;Dans la distillation de modèle, nous prenons le réseau pré-entraîné et utilisons les labels que le réseau a prédits de manière plus douce pour générer des labels pour nos images. Par exemple, nous obtenons une répartition sur toutes les classes et utilisons cette répartition pour entraîner le second réseau. La distribution plus douce permet d’améliorer les classes initiales que nous avons. Dans ClusterFit, nous ne nous soucions pas de l’espace du label. Performance;Performance We apply this method to self-supervised learning. Here Jigsaw is applied to obtain the pretrained network NpreNpre​ in ClusterFit. From Fig. 7 we see that the transfer performance on different datasets shows a surprising amount of gains, compared to other self-supervised methods.;Nous appliquons cette méthode à l’apprentissage autosupervisé. Ici, Jigsaw est appliqué pour obtenir le réseau pré-entraîné NpreNpre​ dans ClusterFit. La figure 7 montre que les performances de transfert sur différents jeux de données montrent des gains surprenants par rapport à d’autres méthodes autosupervisées. ClusterFit works for any pre-trained network. Gains without extra data, labels or changes in architecture can be seen in Fig. 8. So in some way, we can think of the ClusterFit as a self-supervised fine-tuning step, which improves the quality of representation.;ClusterFit fonctionne pour tout réseau pré-entraîné. Les gains sans données supplémentaires, labels ou changements d’architecture sont visibles dans la figure 8. D’une certaine manière, on peut donc considérer ClusterFit comme une étape de finetuning autosupervisée améliorant la qualité de la représentation. Self-supervised Learning of Pretext Invariant Representations (PIRL);PIRL : apprentissage autosupervisé des représentations invariantes de prétexte Contrastive Learning;Apprentissage contrastif Contrastive learning is basically a general framework that tries to learn a feature space that can combine together or put together points that are related and push apart points that are not related.;L’apprentissage contrastif est un cadre général qui tente d’apprendre un espace de caractéristiques afin de combiner/rassembler des points qui sont liés et écarter des points qui ne sont pas liés. In this case, imagine like the blue boxes are the related points, the greens are related, and the purples are related points.;Dans ce cas, imaginons que les cases bleues sont liées, les vertes sont liées et les violettes sont liés. Features for each of these data points would be extracted through a shared network, which is called Siamese Network to get a bunch of image features for each of these data points. Then a contrastive loss function is applied to try to minimize the distance between the blue points as opposed to, say, the distance between the blue point and the green point. Or the distance basically between the blue points should be less than the distance between the blue point and green point or the blue point and the purple point. So, embedding space from the related samples should be much closer than embedding space from the unrelated samples. So that’s the general idea of what contrastive learning is and of course Yann was one of the first teachers to propose this method. So contrastive learning is now making a resurgence in self-supervised learning pretty much a lot of the self-supervised state of the art methods are really based on contrastive learning.;Les caractéristiques de chacun de ces points de données sont extraites par le biais d’un réseau partagé, appelé réseau siamois. Ensuite, une fonction de perte contrastive est appliquée pour essayer de minimiser la distance entre les points bleus par opposition, par exemple, à la distance entre le point bleu et le point vert. Ou du moins la distance entre les points bleus devrait être inférieure à la distance entre le point bleu et le point vert ou bien entre le point bleu et le point violet. Ainsi, l’espace d’enchâssement des échantillons apparentés doit être beaucoup plus proche que l’espace d’enchâssement des échantillons non apparentés. C’est l’idée générale de ce qu’est l’apprentissage contrastif dont Yann a été l’un des premiers à proposer le principe. L’apprentissage contrastif fait donc un retour en force dans l’apprentissage autosupervisé puisqu’une grande partie des méthodes de pointe dans le domaine sont basées sur l’apprentissage contrastif. How to define related or unrelated?;Comment définir ce qui est lié ou non lié ? And the main question is how to define what is related and unrelated. In the case of supervised learning that’s fairly clear all of the dog images are related images, and any image that is not a dog is basically an unrelated image. But it’s not so clear how to define the relatedness and unrelatedness in this case of self-supervised learning. The other main difference from something like a pretext task is that contrastive learning really reasons a lot of data at once. If you look at the loss function, it always involves multiple images. In the first row it involves basically the blue images and the green images and in the second row it involves the blue images and the purple images. But as if you look at a task like say Jigsaw or a task like rotation, you’re always reasoning about a single image independently. So that’s another difference with contrastive learning: contrastive learning reasons about multiple data points at once.;La question principale est de savoir comment définir ce qui est lié et ce qui ne l’est pas. Dans le cas de l’apprentissage supervisé, il est assez clair que toutes les images de chiens sont des images liées et toute image qui n’est pas un chien est fondamentalement une image non liée. Mais il n’est pas aussi clair de définir ce qui est lié et ce qui ne l’est pas dans le cas d’apprentissage autosupervisé. L’autre grande différence avec une tâche de prétexte est que l’apprentissage contrastif raisonne avec vraiment beaucoup de données à la fois. La fonction de perte implique toujours plusieurs images. Dans la première ligne, il s’agit essentiellement d’images bleues et d’images vertes, et dans la deuxième ligne, d’images bleues et d’images violettes. Mais pour une tâche de prétexte comme par exemple Jigsaw ou la rotation, nous raisonnons toujours sur une seule image de manière indépendante. C’est donc une autre différence : l’apprentissage contrastif raisonne sur plusieurs points de données à la fois. Similar techniques to what was discussed earlier could be used: frames of video or sequential nature of data. Frames that are nearby in a video are related and frames, say, from a different video or which are further away in time are unrelated. And that has formed the basis of a lot of self- supervised learning methods in this area. This method is called CPC, which is contrastive predictive coding, which relies on the sequential nature of a signal and it basically says that samples that are close by, like in the time-space, are related and samples that are further apart in the time-space are unrelated. A fairly large amount of work basically exploiting this: it can either be in the speech domain, video, text, or particular images. And recently, we’ve also been working on video and audio so basically saying a video and its corresponding audio are related samples and video and audio from a different video are basically unrelated samples.;On pourrait utiliser des techniques similaires à celles qui ont été évoquées précédemment : des images vidéo ou la nature séquentielle des données. Les images qui sont proches dans une vidéo sont liées et les images d’une autre vidéo ou qui sont plus éloignées dans le temps ne sont pas liées. Ces techniques ont constitué la base de nombreuses méthodes d’apprentissage autosupervisées dans ce domaine. Cette méthode est appelée CPC (codage prédictif contrastif) et repose sur la nature séquentielle d’un signal. Les échantillons qui sont proches, comme dans l’espace-temps, sont liés et les échantillons qui sont plus éloignés dans l’espace-temps ne sont pas liés. Une quantité assez importante de travaux exploite ce principe : il peut s’agir de la parole, de la vidéo, du texte ou d’images. Récemment, des travaux ont porté sur la vidéo et l’audio, ce qui signifie qu’une vidéo et son audio correspondant sont des échantillons liés et que la vidéo et l’audio d’une autre vidéo sont des échantillons non liés. Tracking Objects;Suivi des objets (tracking) Some of the early work, like self-supervised learning, also uses this contrastive learning method and they really defined related examples fairly interestingly. You run a tracked object tracker over a video and that gives you a moving patch and what you say is that any patch that was tracked by the tracker is related to the original patch. Whereas, any patch from a different video is not a related patch. So that basically gives out these bunch of related and unrelated samples. In figure 11(c), you have this like distance notation. What this network tries to learn is basically that patches that are coming from the same video are related and patches that are coming from different videos are not related. In some way, it automatically learns about different poses of an object. It tries to group together a cycle, viewed from different viewing angles or different poses of a dog.;En passant un tracker d’objets sur une vidéo cela nous donne un patch mobile. Tout patch qui a été suivi par le tracker est lié au patch original. En revanche, tout patch provenant d’une autre vidéo n’est pas un patch apparenté. Cela donne donc un ensemble d’échantillons liés et non liés. Cette notation de distance est visible dans la figure 11(c). Le réseau essaie d’apprendre que les patchs provenant d’une même vidéo sont liés et que les patchs provenant de vidéos différentes ne sont pas liés. D’une certaine manière, il apprend automatiquement les différentes poses d’un objet. Il essaie de regrouper ensemble les images de vélo vu sous différents angles de même pour les images de chien. Nearby patches vs. distant patches of an Image;Patchs proches vs patchs lointains dans une image In general, talking about images, a lot of work is done on looking at nearby image patches versus distant patches, so most of the CPC v1 and CPC v2 methods are really exploiting this property of images. So image patches that are close are called as positives and image patches that are further apart are translated as negatives, and the goal is to minimize the contrastive loss using this definition of positives and negatives.;Les méthodes CPCv1 et CPCv2 exploitent la distance entre deux patchs dans une image donnée. Ainsi, les patchs d’images proches sont appelés positifs et les patchs d’images plus éloignés sont appelées négatifs. Le but est de minimiser la perte contrastive en utilisant cette définition de positifs et de négatifs. Patches of an image vs. patches of other images;Patchs d’une image vs patchs d’autres images The more popular or performant way of doing this is to look at patches coming from an image and contrast them with patches coming from a different image. This forms the basis of a lot of popular methods like instance discrimination, MoCo, PIRL, SimCLR. The idea is basically what’s shown in the image. To go into more details, what these methods do is to extract completely random patches from an image. These patches can be overlapping, they can actually become contained within one another or they can be completely falling apart and then apply some data augmentation. In this case, say, a colour chattering or removing the colour or so on. And then these two patches are defined to be positive examples. Another patch is extracted from a different image. And this is again a random patch and that basically becomes your negatives. And a lot of these methods will extract a lot of negative patches and then they will basically perform contrastive learning. So there are relating two positive samples, but there are a lot of negative samples to do contrastive learning against.;La façon la plus populaire ou la plus performante de procéder consiste à regarder les patchs provenant d’une image et à les mettre en contraste avec les patchs provenant d’une autre image. Ceci constitue la base de nombreuses méthodes populaires comme la discrimination d’instance, MoCo, PIRL, SimCLR. L’idée est essentiellement ce qui est montré dans la figure 13. Pour aller plus dans les détails, ces méthodes consistent à extraire d’une image des taches complètement aléatoires. Ces patchs peuvent se chevaucher, être contenus les uns dans les autres ou s’effondrer complètement, puis appliquer une augmentation des données. Dans ce cas, par exemple, flouter une couleur ou en enlever une. Ces deux taches sont alors définies comme des exemples positifs. Un autre patch est extrait d’une image différente. Il s’agit là encore d’une tache aléatoire qui sert à créer nos négatifs. Beaucoup de ces méthodes extraient énormément d’exemples négatifs et puis effectuent un apprentissage contrastif. Underlying Principle for Pretext Tasks;Principe sous-jacent pour les tâches de prétexte Now moving to PIRL a little bit, and that’s trying to understand what the main difference of pretext tasks is and how contrastive learning is very different from the pretext tasks. Again, pretext tasks always reason about a single image at once. So the idea is that given an image your and prior transform to that image, in this case a Jigsaw transform, and then inputting this transformed image into a ConvNet and trying to predict the property of the transform that you applied to, the permutation that you applied or the rotation that you applied or the kind of colour that you removed and so on. So the pretext tasks always reason about a single image. And the second thing is that the task that you’re performing in this case really has to capture some property of the transform. So it really needs to capture the exact permutation that are applied or the kind of rotation that are applied, which means that the last layer representations are actually going to go PIRL very a lot as the transform the changes and that is by design, because you’re really trying to solve that pretext tasks. But unfortunately, what this means is that the last layer representations capture a very low-level property of the signal. They capture things like rotation or so on. Whereas what is designed or what is expected of these representations is that they are invariant to these things that it should be able to recognize a cat, no matter whether the cat is upright or that the cat is say, bent towards like by 90 degrees. Whereas when you’re solving that particular pretext task you’re imposing the exact opposite thing. We’re saying that we should be able to recognize whether this picture is upright or whether this picture is basically turning it sideways. There are many exceptions in which you really want these low-level representations to be covariant and a lot of it really has to do with the tasks that you’re performing and quite a few tasks in 3D really want to be predictive. So you want to predict what camera transforms you have: you’re looking at two views of the same object or so on. But unless you have that kind of a specific application for a lot of semantic tasks, you really want to be invariant to the transforms that are used to use that input.;Passons maintenant à PIRL et essayons de comprendre quelle est la principale différence entre les tâches de prétexte et comment l’apprentissage contrastif est très différent des tâches de prétexte. L’idée des tâches de prétexte est de donner à une image une transformation préalable (une transformation Jigsaw pour PIRL), puis de passer cette image transformée dans un ConvNet pour essayer de prédire la propriété de la transformation qui a été appliquée (permutation, rotation, changement de couleur, etc.). Ainsi, les tâches de prétexte raisonnent toujours à propos d’une seule image à la fois. Le deuxième point est que la tâche que nous effectuons doit capturer une certaine propriété de la transformation. Mais malheureusement, cela signifie que les représentations de la dernière couche capturent une propriété de très bas niveau du signal comme la rotation par exemple. Alors que ce qui est conçu ou ce que l’on attend de ces représentations, est qu’elles soient invariantes. Par exemple être capable de reconnaître un chat, peu importe si le chat est debout ou que le chat est tourné à 90 degrés. Alors que lorsque nous résolvons cette tâche de prétexte, nous imposons la chose exactement inverse. Nous disons que nous devrions être capables de reconnaître si l’image a été tourné sur un côté. Il y a de nombreuses exceptions où l’on veut vraiment que ces représentations de bas niveau soient covariantes mais ces exceptions sont liées aux tâches (en aval) que nous effectuons. How important has invariance been?;Quelle est l’importance de l’invariance ? Invariance has been the word course for feature learning. Something like SIFT, which is a fairly popular handcrafted feature where we inserted here is transferred invariant. And supervise networks, for example, supervised Alex nets, they’re trained to be invariant data augmentation. You want this network to classify different crops or different rotations of this image as a tree, rather than ask it to predict what exactly was the transformation applied for the input.;L’invariance a été le mot d’ordre pour l’apprentissage des caractéristiques. Les réseaux supervisés, comme par exemple AlexNet, sont entraînés à être invariants à l’augmentation des données. Vous voulez que le réseau classifie différentes générations ou différentes rotations d’une image plutôt que de lui demander de prédire quelle a été la transformation appliquée à l’entrée. PIRL;PIRL This is what inspired PIRL. So PIRL stands for pretext invariant representation learning, where the idea is that you want the representation to be invariant or capture as little information as possible of the input transform. So you have the image, you have the transformed version of the image, you feed-forward both of these images through a ConvNet, you get a representation and then you basically encourage these representations to be similar. In terms of the notation referred earlier, the image I and any pretext transformed version of this image It are related samples and any other image is underrated samples. So in this way when you frame this network, representation hopefully contains very little information about this transform t. And assume you are using contrastive learning. So the contrastive learning part is basically you have the saved feature vI​ coming from the original image i and you have the feature vIt​ coming from the transform version and you want both of these representations to be the same. And the book paper we looked at is two different states of the art of the pretext transforms, which is the jigsaw and the rotation method discussed earlier. In some way, this is like multitask learning, but just not really trying to predict both designed rotation. You’re trying to be invariant of Jigsaw rotation.;PIRL est l’acronyme de « Pretext Invariant Representation Learning », où nous souhaitons que la représentation soit invariante ou capture le moins d’informations possible de la transformation d’entrée. Ainsi, nous avons l’image, la version transformée de cette image et donnons ces deux images à un ConvNet. Nous obtenons des représentations et les encourageons à être similaires. En ce qui concerne la notation mentionnée plus haut, l’image i et toute version transformée de cette image It sont des échantillons apparentés et toute autre image est un échantillon non lié. Nous espérons alors que la représentation contient très peu d’informations sur la transformée t. La partie liée à l’apprentissage contrastif consiste donc à avoir la caractéristique sauvegardée vI​ provenant de l’image originale I et la caractéristique vIt​ provenant de la version transformée et à vouloir que ces deux représentations soient identiques. D’une certaine manière, c’est comme un apprentissage multitâche, mais sans vraiment essayer de prédire les deux rotations conçues. Ici nous essayons d’être invariant à la tâche de Jigsaw. Using a Large Number of Negatives;Utilisation d’un grand nombre de négatifs The key thing that has made contrastive learning work well in the past, taking successful attempts is using a large number of negatives. One of the good paper taking successful attempts, is instance discrimination paper from 2018, which introduced this concept of a memory bank. This is powered, most of the research methods which are state of the art techniques hinge on this idea for a memory bank. The memory bank is a nice way to get a large number of negatives without really increasing the sort of computing requirement. What you do is you store a feature vector per image in memory, and then you use that feature vector in your contrastive learning.;L’élément clé qui a fait que l’apprentissage contrastif a bien fonctionné dans le passé est l’utilisation d’un grand nombre de négatifs. Le papier de Wu et al. (2018) a introduit le concept de banque de mémoire. C’est un outil puissant et la plupart des méthodes de pointes actuelles s’articulent autour de cette idée. La banque de mémoire est un bon moyen d’obtenir un grand nombre de négatifs sans vraiment augmenter les besoins informatiques. Ce qui est fait, est que nous stockons un vecteur de caractéristiques par image dans la mémoire, puis utilisons ce vecteur de caractéristiques dans votre apprentissage contrastif. How it works;Comment cela focntionne Let’s first talk about how you would do this entire PIRL setup without using a memory bank. So you have an image I and you have an image It, and you feed-forward both of these images, you get a feature vector f(vI) from the original image II, you get a feature g(vIt​) from the transform versions, the patches, in this case. What you want is the features f and g to be similar. And you want features from any other unrelated image to basically be dissimilar. In this case, what we can do now is if you want a lot of negatives, we would really want a lot of these negative images to be feed-forward at the same time, which really means that you need a very large batch size to be able to do this. Of course, a large batch size is not really good, if not possible, on a limited amount of GPU memory. The way to do that is to use something called a memory bank. So what this memory bank does is that it stores a feature vector for each of the images in your data set, and when you’re doing contrastive learning rather than using feature vectors, say, from a different from a negative image or a different image in your batch, you can just retrieve these features from memory. You can just retrieve features of any other unrelated image from the memory and you can just substitute that to perform contrastive learning. Simply dividing the objective into two parts, there was a contrasting term to bring the feature vector from the transformed image g(vI​), similar to the representation that we have in the memory so mI​. And similarly, we have a second contrastive term that tries to bring the feature f(vI) close to the feature representation that we have in memory. Essentially g is being pulled close to mI​ and f is being pulled close to mImI​. By transitivity, f and g are being pulled close to one another. And the reason for separating this out was that it stabilized training and we were not able to train without doing this. Basically, the training would not really converge. By separating this out into two forms, rather than doing direct contrastive learning between f and g, we were able to stabilize training and actually get it working.;Parlons d’abord de la façon d’appliquer PIRL sans utiliser une banque de mémoire. Nous avons donc une image I et une image It, et les donnons à un ConvNet. Nous obtenons un vecteur de caractéristique f(vI​) de l’image originale i et une caractéristique g(vIt) des versions transformés (les patches Jigsaw dans ce cas). Ce que nous voulons c’est que les caractéristiques f et g soient similaires, et que les caractéristiques de toute autre image sans rapport soient fondamentalement différentes. Ce que nous voudrions maintenant c’est que beaucoup d’images négatives soient données en même temps, ce qui signifie qu’il nous faut une très grande taille de batch pour pouvoir faire cela. Une grande taille de batch n’est pas vraiment bonne pour la mémoire. Le moyen d’y parvenir est d’utiliser ce qu’on appelle une banque de mémoire. Ainsi, cette banque de mémoire stocke un vecteur de caractéristiques pour chacune des images de notre jeu de données, et lorsque nous faisons l’apprentissage contrastif, plutôt que d’utiliser des vecteurs de caractéristiques, nous pouvons simplement récupérer ces caractéristiques en mémoire. En divisant l’objectif en deux parties, il y a un terme contrastif est utilisé pour amener le vecteur de caractéristiques de l’image transformée g(vI​), similaire à la représentation que nous avons en mémoire, donc mI. Et de même, nous avons un second terme contrastif qui tente de rapprocher la caractéristique f(vI) de la représentation de la caractéristique que nous avons en mémoire. Essentiellement, g est rapproché de mI​ et f est rapproché de mImI​. Par transitivité, f et g sont rapprochés l’un de l’autre. La raison de cette séparation est que cela stabilise l’entraînement et que nous ne n’arrivons pas à le réaliser sans cela car il ne convergeait pas vraiment. PIRL Pre-training;Pré-entraînement de PIRL The way to evaluate this is basically by standard pre-training evaluation set-up. For transfer learning, we can pretrain on images without labels. The standard way of doing this is to take an image net, throw away the labels and pretend as unsupervised.;Pour l’apprentissage par transfert, nous pouvons faire un pré-entraînement sur des images sans label. La méthode standard consiste à prendre un réseau d’images, à jeter les labels et à faire semblant de ne pas être supervisé. Evaluation;Evaluation Evaluation can be performed by full fine-tuning (initialisation evaluation) or training a linear classifier (feature evaluation). PIRL robustness has been tested by using images in-distribution by training it on in-the-wild images. So we just took 1 million images randomly from Flickr, which is the YFCC data set. And then we basically performed pre-training on these images and then performed transplanting on different data sets.;L’évaluation peut être effectuée par un finetuning complet (évaluation de l’initialisation) ou par l’entraînement d’un classifieur linéaire (évaluation des caractéristiques). La robustesse de PIRL a été testée en l’entraînant sur des images en milieu naturel, à savoir un million d’images prises au hasard sur Flickr (jeu de données YFCC). Puis il a été appliqué sur différents jeux de données. Evaluating on Object Detection task;Evaluation sur la tâche de détection d’objets PIRL was first evaluated on object detection task (a standard task in vision) and it was able to outperform ImageNet supervised pre-trained networks on both VOC07+12 and VOC07 data sets. In fact, PIRL outperformed even in the stricter evaluation criteria, APall and that’s a good positive sign.;PIRL a d’abord été évalué sur la tâche de détection d’objets. Il a surpassé les réseaux pré-entraînés de manière supervisée sur ImageNet sur les jeux de données VOC07+12 et VOC07. En fait, PIRL a même surpassé les critères d’évaluation les plus stricts, APall. Evaluating on Semi-supervised Learning;Évaluation sur l’apprentissage semisupervisé PIRL was then evaluated on semi-supervised learning task. Again, PIRL performed fairly well. In fact, PIRL was better than even the pre-text task of Jigsaw. The only difference between the first row and the last row is that, PIRL is an invariant version, whereas Jigsaw is a covariant version.;PIRL a ensuite été évalué sur une tâche d’apprentissage semisupervisée. Là encore, il a obtenu d’assez bons résultats. En fait, il a même été meilleur que la tâche de prétexte Jigsaw. La seule différence entre la première et la dernière rangée est que PIRL est une version invariante, alors que Jigsaw est une version covariante. Evaluating on Linear Classification;Évaluation sur la classification linéaire Now when evaluating on Linear Classifiers, PIRL was actually on par with the CPCv2, when it came out. It also worked well on a bunch of parameter settings and a bunch of different architectures. And of course, now you can have fairly good performance by methods like SimCLR or so. In fact, the Top-1 Accuracy for SimCLR would be around 69-70, whereas for PIRL, that’d be around 63.;Sur l’évaluation sur de la classification, PIRL est au même niveau que CPCv2. Il a également bien fonctionné sur un certain nombre de paramètres et d’architectures différentes. Depuis, la méthode SimCLR fait mieux avec une précision top-1 d’environ 69-70 contre environ 63 pour PIRL. Evaluating on YFCC images;Evaluation sur les images YFCC PIRL was evaluated on “In-the-wild” Flickr images from the YFCC data set. It was able to perform better than Jigsaw, even with 100 times smaller data set. This shows the power of taking invariance into consideration for the representation in the pre-text tasks, rather than just predicting pre-text tasks.;PIRL a été évalué sur les images du jeu de données YFCC. Il a été plus performant que Jigsaw, même avec un jeu de données 100 fois plus petit. Cela montre la puissance de la prise en compte de l’invariance pour la représentation dans les tâches de prétexte, plutôt que de simplement prédire les tâches de prétexte. Semantic Features;Caractéristiques sémantiques Now, going back to verifying the semantic features, we look at the Top-1 accuracy for PIRL and Jigsaw for different layers of representation from conv1 to res5. It’s interesting to note that the accuracy keeps increasing for different layers for both PIRL and Jigsaw, but drops in the 5th layer for Jigsaw. Whereas, the accuracy keeps improving for PIRL, i.e. more and more semantic.;Maintenant, pour en revenir à la vérification des caractéristiques sémantiques, nous examinons la précision Top-1 pour PIRL et Jigsaw pour différentes couches de représentation, de conv1 à res5. Il est intéressant de noter que la précision augmente pour les différentes couches pour PIRL et Jigsaw, mais qu’elle diminue dans la 5e couche pour Jigsaw. En revanche, la précision continue à s’améliorer pour PIRL, c’est-à-dire de plus en plus sémantique. Scalability;Passage à l’échelle PIRL is very good at handling problem complexity because you’re never predicting the number of permutations, you’re just using them as input. So, PIRL can easily scale to all 362,880 possible permutations in the 9 patches. Whereas in Jigsaw, since you’re predicting that, you’re limited by the size of your output space.;PIRL est très efficace pour gérer la complexité des problèmes car on ne prédit jamais le nombre de permutations, on les utilise simplement comme données d’entrée. Ainsi, PIRL peut facilement s’adapter aux 362880 permutations possibles dans les 9 patchs. Alors que dans Jigsaw, nous sommes limités par la taille de l’espace de sortie. The paper “Misra & van der Maaten, 2019, PIRL” also shows how PIRL could be easily extended to other pretext tasks like Jigsaw, Rotations and so on. Further, it could even be extended to combinations of those tasks like Jigsaw+Rotation.;Le papier de PIRL montre également comment il peut être facilement étendu à d’autres tâches de prétexte comme Jigsaw, les rotations, etc. En outre, il peut même être étendu à des combinaisons de ces tâches comme Jigsaw+Rotation. Invariance vs. performance;Invariance vs performance In terms of invariance property, one could, in general, assert that the invariance of PIRL is more than that of the Clustering, which in turn has more invariance than that of the pretext tasks. And similarly, the performance to is higher for PIRL than Clustering, which in turn has higher performance than pretext tasks. This suggests that taking more invariance in your method could improve performance.;En termes de propriété d’invariance, on pourrait, en général, affirmer que l’invariance de PIRL est plus que celle du Clustering, qui à son tour a plus d’invariance que celle des tâches de prétexte. De même, la performance est plus élevée pour PIRL que pour le Clustering, qui à son tour a une performance plus élevée que les tâches de prétexte. Cela suggère que le fait d’ajouter de l’invariance dans une méthode pourrait améliorer les performances. Shortcomings;Lacunes 1. It’s not very clear as to which set of data transforms matter. Although Jigsaw works, it’s not very clear why it works.;1. Il n’est pas très clair de savoir quel ensemble de données transforme la matière. Bien que Jigsaw fonctionne, on ne sait pas très bien pourquoi. 2. Saturation with model size and data size.;2. Saturation avec la taille du modèle et la taille des données. 3. What invariances matter? (One could think about what invariances work for a particular supervised task in general as future work.);3. Quelles sont les invariances importantes ? On pourrait penser à celles qui fonctionnent pour une tâche supervisée particulière en général comme un travail futur. So in general, we should try to predict more and more information and try to be as invariant as possible.;Donc, en général, nous devrions essayer de prévoir de plus en plus d’informations et essayer d’être aussi invariants que possible. Some important questions asked as doubts;Questions des étudiants sur plusieurs sujets Contrastive learning and batch norms;L’apprentissage contrastif et la batch normalisation Wouldn’t the network learn only a very trivial way of separating the negatives from the positives if the contrasting network uses the batch norm layer (as the information would then pass from one sample to the other)?;Le réseau n’apprendrait-il pas une façon très triviale de séparer les négatifs des positifs si le réseau utilise la couche de batch normalisation (car l’information passerait alors d’un échantillon à l’autre) ? In PIRL, no such phenomenon was observed, so just the usual batch norm was used;Dans PIRL, aucun phénomène de ce type n’a été observé, donc seule la batch normalisation habituelle a été utilisée. So is it fine to use batch norms for any contrasting networks?;Est-il donc acceptable d’utiliser une normalisation par batch pour des réseaux contrastifs ? In general, yeah. In SimCLR, a variant of the usual batch norm is used to emulate a large batch size. So, batch norm with maybe some tweaking could be used to make the training easier;En général, oui. Dans SimCLR, une variante de la normalisation par batch est utilisée pour émuler une grande taille de batch. Ainsi, la normalisation par batch avec peut-être quelques modifications pourrait être utilisée pour faciliter l’entraînement. Does the batch norm work in the PIRL paper only because it’s implemented as a memory bank - as all the representations aren’t taken at the same time? (As batch norms aren’t specifically used in the MoCo paper for instance);La normalisation par batch fonctionne-t-elle dans le papier PIRL uniquement parce qu’elle est mise en œuvre en tant que banque de mémoire ? Etant donné que toutes les représentations ne sont pas prises en même temps Yeah. In PIRL, the same batch doesn’t have all the representations and possibly why batch norm works here, which might not be the case for other tasks where the representations are all correlated within the batch;Oui. Dans PIRL, le même batch n’a pas toutes les représentations et est peut-être la raison de pourquoi la normalisation par batch fonctionne ici. Cela pourrait ne pas être le cas pour d’autres tâches où les représentations sont toutes corrélées dans le batch. So, other than memory bank, are there any other suggestions how to go about for n-pair loss? Should we use AlexNet or others that don’t use batch norm? Or is there a way to turn off the batch norm layer? (This is for a video learning task);Outre la banque de mémoire, existe-t-il d’autres suggestions sur la manière de procéder en cas de perte n-paires ? Devrions-nous utiliser AlexNet qui n’utilise pas la noramlisation par batch ou existe-t-il un moyen de désactiver la couche de normalisation par batch ? Notamment dans le cadre d’une tâche d’apprentissage vidéo Generally frames are correlated in videos, and the performance of the batch norm degrades when there are correlations. Also, even the simplest implementation of AlexNet actually uses batch norm. Because, it’s much more stable when trained with a batch norm. You could even use a higher learning rate and you could also use for other downstream tasks. You could use a variant of batch norm for example, group norm for video learning task, as it doesn’t depend on the batch size;Généralement, les images sont corrélées dans les vidéos et la performance de la normalisation par batch se dégrade lorsqu’il y a des corrélations. De plus, même la plus simple des implémentations d’AlexNet utilise en fait la normalisation par batch. En effet, il est beaucoup plus stable lorsqu’il est entraîné avec. Vous pourriez même utiliser un taux d’apprentissage plus élevé et vous pourriez également l’utiliser pour d’autres tâches en aval. Vous pouvez utiliser une variante de la normalisation par batch, par exemple la normalisation par groupe pour les tâches d’apprentissage vidéo, car elle ne dépend pas de la taille du batch. Loss functions in PIRL;Fonctions de perte dans PIRL In PIRL, why is NCE (Noise Contrastive Estimator) used for minimizing loss and not just the negative probability of the data distribution: h(vI,vIt)?;Dans PIRL, pourquoi utilise-t-on le NCE (Noise Contrastive Estimator) pour minimiser les pertes et pas seulement la probabilité négative de la distribution des données : h(vI​,vIt​) ? Actually, both could be used. The reason for using NCE has more to do with how the memory bank paper was set up. So, with k+1 negatives, it’s equivalent to solving k+1 binary problem. Another way of doing it is using a softmax, where you apply a softmax and minimize the negative log-likelihood;En fait, les deux pourraient être utilisés. La raison de l’utilisation du NCE a plus à voir avec la façon dont le papier de la banque de données a été mis en place. Ainsi, avec k+1 négatifs, cela équivaut à résoudre k+1 problème binaire. Une autre façon de procéder est d’utiliser une fonction softmax et minimiser la log-vraisemblance négative. Self-supervised learning project related tips;Conseils relatifs aux projets d’apprentissage autosupervisés How do we get a simple self-supervised model working? How do we begin the implementation?;Comment faire fonctionner un modèle simple et autosupervisé ? Comment en amorcer la mise en œuvre ? There are a certain class of techniques that are useful for the initial stages. For instance, you could look at the pretext tasks. Rotation is a very easy task to implement. The number of moving pieces are in general good indicator. If you’re planning to implement an existing method, then you might have to take a closer look at the details mentioned by the authors, like - the exact learning rate used, the way batch norms were used, etc. The more number of these things, the harder the implementation. Next very critical thing to consider is data augmentation. If you get something working, then add more data augmentation to it.;Il existe une certaine classe de techniques qui sont utiles pour les étapes initiales. Par exemple, vous pouvez examiner les tâches de prétexte. La rotation est une tâche très facile à mettre en œuvre. Le nombre de pièces en mouvement est en général un bon indicateur. Si vous envisagez de mettre en œuvre une méthode existante, vous devrez peut-être examiner de plus près les détails mentionnés par les auteurs, comme le taux d’apprentissage exact utilisé, la manière dont les normes de lot ont été utilisées, etc. Plus ces éléments sont nombreux, plus la mise en œuvre est difficile. Le prochain point très important à prendre en compte est l’augmentation des données. Si quelque chose fonctionne, il faut y ajouter une augmentation des données. Generative models;Modèles génératifs Have you thought of combining generative models with contrasting networks?;Avez-vous pensé à combiner des modèles génératifs avec des réseaux contrastifs ? Generally, it’s good idea. But, it hasn’t been implemented partly because it is tricky and non-trivial to train such models. Integrative approaches are harder to implement, but perhaps the way to go in the future.;Généralement, c’est une bonne idée. Mais, elle n’a pas été mise en œuvre en partie parce qu’il est délicat et non trivial d’entraîner de tels modèles. Les approches intégratives sont plus difficiles à implémenter mais c’est peut-être la voie à suivre à l’avenir. Distillation;Distillation Wouldn’t the uncertainty of the model increase when richer targets are given by softer distributions? Also, why is it called distillation?;L’incertitude du modèle n’augmenterait-elle pas lorsque des cibles plus riches sont données par des distributions plus douces ? Aussi, pourquoi l’appelle-t-on distillation ? If you train on one hot labels, your models tend to be very overconfident. Tricks like label smoothing are being used in some methods. Label smoothing is just a simple version of distillation where you are trying to predict a one hot vector. Now, rather than trying to predict the entire one-hot vector, you take some probability mass out of that, where instead of predicting a one and a bunch of zeros, you predict say 0.97 and then you add 0.01, 0.01 and 0.01 to the remaining vector (uniformly). Distillation is just a more informed way of doing this. Instead of randomly increasing the probability of an unrelated task, you have a pre-trained network to do that. In general softer distributions are very useful in pre-training methods. Models tend to be over-confident and so softer distributions are easier to train. They converge faster too. These benefits are present in distillation;Si vous entraînez sur un seul label, vos modèles ont tendance à être trop confiants. Des astuces comme le lissage des labels sont utilisées dans certaines méthodes. Le lissage de label est une simple version de la distillation où vous essayez de prédire un vecteur one-hot. Maintenant, plutôt que d’essayer de prédire le vecteur one-hot entier, vous en retirez une certaine masse de probabilité, où au lieu de prédire un 1 et un tas de 0, vous prédisez par exemple 0,97 et vous ajoutez ensuite 0,01, 0,01 et 0,01 au vecteur restant (uniformément). La distillation est simplement une façon plus éclairée de procéder. Au lieu d’augmenter de manière aléatoire la probabilité d’une tâche sans rapport, vous disposez d’un réseau pré-entraîné pour le faire. En général, les distributions plus douces sont très utiles dans les méthodes d’entraînement préalable. Les modèles ont tendance à être trop confiants et les distributions plus douces sont plus faciles à entraîner. Elles convergent aussi plus rapidement. Ces avantages sont présents dans la distillation. The Truck Backer-Upper;Le Truck Backer-Upper Setup;Configuration The goal of this task is to build a self-learning controller which controls the steering of the truck while it backs up to the loading dock from any arbitrary initial position.;Le but est de construire un contrôleur autosupervisé qui contrôle la direction du camion pendant qu’il recule vers le quai de chargement à partir de n’importe quelle position initiale arbitraire. Note that only backing up is allowed, as shown below in Figure 1.;A noter que seul le recul est autorisé, comme le montre la figure 1 ci-dessous. The state of the truck is represented by six parameters:;L’état du camion est représenté par six paramètres : Θcab​: Angle of the truck;Θcab​ : angle du camion xcab,ycab: The cartesian of the yoke (or front of the trailer).;xcab,ycab : le cartésien de l’avant de la remorque. Θtrailer​: Angle of the trailer;Θtrailer​ : angle de la remorque xtrailer,ytrailer: The cartesian of the (back of the) trailer.;xtrailer,ytrailer : le cartésien de l’arrière de la remorque. The goal of the controller is to select an appropriate angle ϕ at each time k, where after the truck will back up in a fixed small distance. Success depends on two criteria:;Le but du contrôleur est de sélectionner un angle approprié ϕ à chaque temps k, où après le camion reculera sur une petite distance fixe. Le succès dépend de deux critères : 1. The back of the trailer is parallel to the wall loading dock, e.g. Θtrailer=0.;1. L’arrière de la remorque est parallèle au quai de chargement mural, par exemple Θtrailer​=0. 2. The back of the trailer (xtrailer,ytrailer) is as close as possible to the point (xdock,ydock) as shown above.;2. L’arrière de la remorque (xtrailer,ytrailer) est aussi proche que possible du point (xdock,ydock) indiqué ci-dessus. More Parameters and Visualization;Plus de paramètres et de visualisation In this section, we also consider a few more parameters shown in Figure 2. Given car length L, d1​ the distance between car and trailer and d2​ the length of the trailer, etc, we can calculate the change of angle and positions:;Dans cette section, nous examinons quelques autres paramètres illustrés dans la figure 2. Étant donné la longueur de la voiture L, d1​ la distance entre la voiture et la remorque et d2​ la longueur de la remorque, nous pouvons calculer le changement d’angle et de positions : Here, s denotes the signed speed and ϕ the negative steering angle. Now we can represent the state by only four parameters: xcab​, ycab​, θ0​ and θ1​. This is because Length parameters are known and xtrailer,ytrailer is determined by xcab,ycab,d1,θ1​.;Ici, s indique la vitesse signée et ϕ l’angle de braquage négatif. Maintenant, nous pouvons représenter l’état par seulement quatre paramètres : xcab​, ycab​, θ0​ et θ1. Cela s’explique par le fait que les paramètres de longueur sont connus et que xtrailer,ytrailer est déterminé par xcab,ycab,d1,θ1​. At each time step k, a steering signal which ranges from −π4 to π4 will be fed in and the truck will take back up using the corresponding angle.;À chaque pas de temps k, un signal de direction allant de −π4 à π4 est introduit et le camion reprend la route en utilisant l’angle correspondant. There are several situations where the sequence can end:;Il existe plusieurs situations dans lesquelles la séquence peut se terminer : If the truck drives into itself (jackknifes, as in Figure 3.2);Si le camion se rentre dedans (mise en portefeuille, comme dans la figure 3.2) If the truck goes out of boundary (shown in Figure 3.3);Si le camion sort de la limite (comme dans la figure 3.3) If the truck reaches the dock (shown in Figure 3.4);Si le camion atteint le quai (comme sur la figure 3.4) Training;Entraînement The training process involves two stages: (1) training of a neural network to be an emulator of the truck and trailer kinematics and (2) training of a neural network controller to control the truck.;entraînement d’un réseau de neurones pour devenir un émulateur de la cinématique du camion et de la remorque As shown above, in the abstract diagram, the two blocks are the two networks that will be trained. At each time step kk, the “Trailer Truck Kinematics”, or what we have been calling the emulator, takes in the 6-dimension state vector and the steering signal generated from the controller and generate a new 6-dimension state at time k+1k+1.;entraînement d’un réseau de neurones pour contrôler le camion Emulator;Emulateur The emulator takes the current location (Θcabt​,xcabt​,ycabt​, Θtrailert, xtrailert​, ytrailert​) plus the steering direction ϕt as input and outputs the state at next timestep (Θcabt+1​,xcabt+1​,ycabt+1​, Θtrailert+1​, xtrailert+1, ytrailert+1​). It consists of a linear hidden layer, with ReLu activation function, and an linear output layer. We use MSE as the loss function and train the emulator via stochastic gradient descent.;L’émulateur prend l’emplacement actuel (ΘcabtΘcabt​,xcabt,ycabtxcabt​,ycabt​, Θtrailert, xtrailert​, ytrailert​) plus le sens de direction ϕt comme entrée et sort l’état au pas de temps suivant (Θcabt+1​,xcabt+1,ycabt+1​, Θtrailert+1​, xtrailert+1, ytrailert+1). Il se compose d’une couche cachée linéaire, avec fonction d’activation ReLU, et d’une couche de sortie linéaire. Nous utilisons la MSE comme fonction de perte et entraînons l’émulateur via une descente de gradient stochastique. In this setup, the the simulator can tell us the location of next step given the current location and steering angle. Therefore, we don’t really need a neural-net that emulates the simulator. However, in a more complex system, we may not have access to the underlying equations of the system, i.e. we do not have the laws of the universe in a nice computable form. We may only observe data that records sequences of steering signals and their corresponding paths. In this case, we want to train a neural-net to emulate the dynamic of this complex system.;Dans cette configuration, le simulateur peut nous indiquer l’emplacement de l’étape suivante, compte tenu de la position actuelle et de l’angle de braquage. Par conséquent, nous n’avons pas vraiment besoin d’un réseau neuronal qui émule le simulateur. Cependant, dans un système plus complexe, nous pouvons ne pas avoir accès aux équations sous-jacentes du système, c’est-à-dire que nous n’avons pas les lois de l’univers sous une forme calculable agréable. Nous ne pouvons observer que des données qui enregistrent des séquences de signaux de direction et leurs trajectoires correspondantes. Dans ce cas, nous voulons entraîner un réseau de neurones pour émuler la dynamique de ce système complexe. In order to train enumlator, there are two important function in Class truck we need to look into when we train the emulator.;Afin d’entraîner l’énumérateur, il y a deux fonctions importantes dans le Class truck que nous devons examiner lorsque nous formons l’émulateur. First is the step function which gives the output state of the truck after computation.;La première est la fonction step qui donne l’état de sortie du camion après le calcul. We generate two lists first. We generate an input list by appending the randomly generated steering angle ϕ and the initial state which coming from the truck by running truck.state(). And we generate an output list that is appended by the output state of the truck which can be computed by truck.step(ϕ).;Nous générons d’abord deux listes : une liste d’entrée en ajoutant l’angle de braquage généré aléatoirement ϕ et l’état initial qui provient du camion en exécutant truck.state() et une liste de sortie à laquelle est ajouté l’état de sortie du camion qui peut être calculé par truck.step(ϕ). We now can train the emulator:;Nous pouvons maintenant entraîner l’émulateur : Notice that torch.randperm(len(train_inputs)) gives us a random permutation of the indices within the range 0 to length of training inputs minus 1. After the permutation of indices, each time ϕ_state is chosen from the input list at the index i. We input ϕ_state through the emulator function that has a linear output layer and we get next_state_prediction. Notice that the emulator is a neural netork defined as below:;Remarquons que torch.randperm(len(train_inputs)) nous donne une permutation aléatoire des indices dans la fourchette 0 à la longueur des entrées d’entrainement moins 1. Après la permutation des indices, chaque fois que ϕ_state est choisi dans la liste des entrées à l’index i. Nous entrons ϕ_state par la fonction de l’émulateur qui a une couche de sortie linéaire et nous obtenons next_state_prediction. Here we use MSE to calculate the loss between the true next state and the next state prediction, where the true next state is coming from the output list with index i that corresponding to the index of the ϕ_state from input list.;L’émulateur est un réseau de neurones défini comme ci-dessous : Controller;Contrôleur Block C represents the controller. It takes in the current state and ouputs a steering angle. Then block T (emulator) takes both the state and angle to produce the next state.;Le bloc C représente le contrôleur. Il prend en compte l’état actuel et fournit un angle de braquage. Ensuite, le bloc T (émulateur) prend à la fois l’état et l’angle pour produire l’état suivant. To train the controller, we start from a random initial state and repeat the procedure(C and T) until the trailer is parallel to the dock. The error is calculated by comparing the trailer location and dock location. We then find the gradients using backpropagation and update parameters of the controller via SGD.;Pour entraîner le contrôleur, nous partons d’un état initial aléatoire et répétons la procédure (C et T) jusqu’à ce que la remorque soit parallèle au quai. L’erreur est calculée en comparant l’emplacement de la remorque et l’emplacement du quai. Nous trouvons ensuite les gradients en utilisant la rétropropagation et mettons à jour les paramètres du contrôleur via SGD. Detailed Model Structure;Structure détaillée du modèle This is a detailed graph of (C, T) process. We start with a state (6 dimension vector), multiply it with a tunable weights matrix and get 25 hidden units. Then we pass it through another tunable weights vector to get the output (steering signal). Similarly, we input the state and angle ϕ (7 dimension vector) through two layers to produce the state of next step.;Voici un graphique détaillé du processus (C, T). Nous commençons par un état (vecteur à 6 dimensions), le multiplions par une matrice de poids accordables et obtenons 25 unités cachées. Ensuite, nous le faisons passer par un autre vecteur de poids accordables pour obtenir la sortie (signal de direction). De même, nous introduisons l’état et l’angle ϕ (vecteur à 7 dimensions) à travers deux couches pour produire l’état de l’étape suivante. To see this more clearly, we show the exact implementation of the emulator:;Pour y voir plus clair, nous montrons l’implémentation exacte de l’émulateur : Examples of Movement;Exemples de mouvements Following are four examples of movement for different initial state. Notice that the number of time steps in each episode varies.;Voici quatre exemples de mouvements pour différents états initiaux. A noter que le nombre de pas de temps dans chaque épisode varie. Week 11;Semaine 11 In this section, we discussed about the common activation functions in Pytorch. In particular, we compared activations with kink(s) versus smooth activations - the former is preferred in a deep neural network as the latter might suffer with gradient vanishing problem. We then learned about the common loss functions in Pytorch.;Dans cette section, nous discutons des fonctions d’activation communes dans PyTorch. En particulier, nous comparons les fonctions d’activation avec coude(s) par rapport aux fonctions d’activation lisses. La première est préférée dans un réseau neuronal profond car la seconde pourrait souffrir d’un problème de disparition du gradient. Nous découvrons ensuite les fonctions de perte communes dans PyTorch. In this section, we continued to learn about loss functions - in particular, margin-based losses and their applications. We then discussed how to design a good loss function for EBMs as well as examples of well-known EBM loss functions. We gave particular attention to margin-based loss function here, as well as explaining the idea of “most offending incorrect answer.;Dans cette section, nous continuons d’aborder les fonctions de perte en particulier celles basées sur une marge et leurs applications. Nous discutons ensuite de la manière de concevoir une bonne fonction de perte pour les EBMs ainsi que des exemples de fonctions de perte bien connues des EBMs. Nous accordons une attention particulière à la fonction de perte basée sur une marge, tout en expliquant l’idée de réponse incorrecte la plus offensante. This practicum proposed effective policy learning for driving in dense traffic. We trained multiple policies by unrolling a learned model of the real world dynamics by optimizing different cost functions. The idea is to minimize the uncertainty in the model’s prediction by introducing a cost term that represents the model’s divergence from the states it is trained on.;Nous proposons un apprentissage d’une politique dans le cadre d’une conduite dans un trafic dense. Nous entraînons de multiples politiques en déroulant un modèle appris de la dynamique du monde réel en optimisant différentes fonctions de coût. L’idée est de minimiser l’incertitude dans les prédictions du modèle en introduisant un terme de coût qui représente la divergence du modèle par rapport aux états sur lesquels il est entraîné. Activation and loss functions (part 1);Fonction de perte et d’activation Activation functions;Fonctions d’activation In today’s lecture, we will review some important activation functions and their implementations in PyTorch. They came from various papers claiming these functions work better for specific problems.;Passons en revue certaines fonctions d’activation importantes et leurs implémentations dans PyTorch. Elles sont issues de diverses publications affirmant que ces fonctions fonctionnent mieux pour des problèmes spécifiques. There are variations in ReLU. The Random ReLU (RReLU) is defined as follows.;Il y a des variations de la ReLU. La ReLU aléatoire (RReLU pour Random ReLU) est définie comme suit : Note that for RReLU, a is a random variable that keeps samplings in a given range during training, and remains fixed during testing. For PReLU , a is also learned. For Leaky ReLU, a is fixed.;Notez que pour la RReLU, a est une variable aléatoire qui maintient les échantillonages dans une fourchette donnée pendant l’entraînement, et reste fixe pendant le test. Pour la PReLU, a est également appris. Pour la LeakyReLU, a est fixe. Here a is a fixed parameter. The bottom part of the equation prevents the problem of dying ReLU which refers to the problem when ReLU neurons become inactive and only output 0 for any input. Therefore, its gradient is 0. By using a negative slope, it allows the network to propagate back and learn something useful.;Ici, a est un paramètre fixe. La partie inférieure de l’équation évite que les neurones ReLU deviennent inactifs et ne renvoient à chaque fois 0 pour toute entrée donnée. Par conséquent, sa pente est nulle. En utilisant une pente négative, la fonction permet au réseau de se rétropropager et d’apprendre quelque chose d’utile. LeakyReLU is necessary for skinny network, which is almost impossible to get gradients flowing back with vanilla ReLU. With LeakyReLU, the network can still have gradients even we are in the region where everything is zero out.;Avec la LeakyReLU, le réseau peut toujours avoir des gradients même si nous sommes dans une région où tout est à zéro. The above activation functions (i.e. ReLU, LeakyReLU, PReLU) are scale-invariant.;Les fonctions d’activation ci-dessus (ReLU, LeakyReLU, PReLU) sont invariantes au changement d’échelle. Softplus is a smooth approximation to the ReLU function and can be used to constrain the output of a machine to always be positive.;La softplus est une approximation lisse de la fonction ReLU et peut être utilisée pour contraindre la sortie d’une machine à toujours être positive. The function will become more like ReLU, if the β gets larger and larger.;La fonction ressemble davantage à la fonction ReLU quand le β augmente. Unlike ReLU, it can go below 0 which allows the system to have average output to be zero. Therefore, the model may converge faster. And its variations (CELU, SELU) are just different parametrizations.;Contrairement à la ReLU, cette fonction peut descendre en dessous de 0, ce qui permet au système d’avoir une sortie moyenne de 0. Par conséquent, le modèle peut converger plus rapidement. Ses variations (CELU, SELU) ne sont que des paramétrages différents. where Φ(x) is the Cumulative Distribution Function for Gaussian Distribution.;où Φ(x) est la fonction de distribution cumulative pour la distribution gaussienne. This is ReLU saturating at 6. But there is no particular reason why picking 6 as saturation, so we can do better by using Sigmoid function below.;C’est la saturation de la ReLU à 6. Mais il n’y a pas de raison particulière de choisir 6 comme saturation, nous pouvons donc faire mieux en utilisant la fonction Sigmoïde ci-dessous. If we stack sigmoids in many layers, it may be inefficient for the system to learn and requires careful initialization. This is because if the input is very large or small, the gradient of the sigmoid function is close to 0. In this case, there is no gradient flowing back to update the parameters, known as saturating gradient problem. Therefore, for deep neural networks, a single kink function (such as ReLU) is preferred.;Si nous empilons des sigmoïdes sur plusieurs couches, cela peut être inefficace pour l’apprentissage et nécessite une initialisation soigneuse. En effet, si l’entrée est très grande ou très petite, le gradient de la fonction sigmoïde est proche de 0. Dans ce cas, il n’y a pas de retour de gradient pour mettre à jour les paramètres. C’est ce qu’on appelle le problème de la saturation du gradient. C’est pourquoi, pour les réseaux neuronaux profonds, une seule fonction (comme la ReLU) est préférable. Tanh is basically identical to Sigmoid except it is centred, ranging from -1 to 1. The output of the function will have roughly zero mean. Therefore, the model will converge faster. Note that convergence is usually faster if the average of each input variable is close to zero. One example is Batch Normalization.;Tanh est fondamentalement identique à la Sigmoïde sauf qu’elle est centrée et va de −1 à 1. La sortie de la fonction a une moyenne à peu près nulle. Par conséquent, le modèle converge plus rapidement. A noter que la convergence est généralement plus rapide si la moyenne de chaque variable d’entrée est proche de 0. Un exemple est la normalisation par batch. It is similar to the Sigmoid function but gets to the asymptote slowly and alleviate the gradient vanishing problem (to some extent).;Elle est similaire à la fonction Sigmoïde mais arrive lentement à l’asymptote et atténue le problème de la disparition du gradient (dans une certaine mesure). The range of the linear region [-1, 1] can be adjusted using min_val and max_val.;L’étendue de la région linéaire [−1, 1] peut être ajustée en utilisant min_val et max_val. It works surprisingly well especially when weights are kept within the small value range.;Elle fonctionne étonnamment bien, surtout lorsque les poids sont maintenus dans une fourchette de petites valeurs. It is rarely used because we cannot propagate the gradient back. And it is also the reason preventing people from using back-propagation in 60s and 70s when they were using binary neurons.;Rarement utilisée car nous ne pouvons pas rétropropager le gradient. C’est aussi la raison pour laquelle les gens ne pouvaient pas utiliser la rétropropagation dans les années 60 et 70 lorsqu’ils utilisaient des neurones binaires. It is rarely used except for sparse coding to compute the value of the latent variable.;Elle est rarement utilisée sauf pour les codages épars afin de calculer la valeur de la variable latente. This basically shrinks the variable by a constant towards 0, and forces to 0 if the variable is close to 0. You can think of it as a step of gradient for the ℓ1​ criteria. It is also one of the step of the Iterative Shrinkage-Thresholding Algorithm (ISTA). But it is not commonly used in standard neural network as activations.;Grossièrement, cela réduit la variable d’une constante vers 0 et la force à 0 si la variable est proche de 0. Elle peut être considérée comme une étape de gradient pour le critère ℓ1​. C’est également l’une des étapes de l’algorithme ISTA (Iterative Shrinkage-Thresholding Algorithm). Mais elle n’est pas couramment utilisée comme activation dans les réseaux de neurones standard. It is rarely used except for sparse coding.;Rarement utilisée sauf pour des codages épars. It is mostly used in the loss function but not common for activations.;Principalement utilisée comme fonction de perte mais n’est pas couramment comme fonction d’activation. It turns numbers into a probability distribution.;Transforme les chiffres en une distribution de probabilité. It is mostly used in the loss function but not common for activations.;Principalement utilisée comme fonction de perte mais n’est pas couramment comme fonction d’activation. Why would we want the same value of a for all channels?;Pourquoi voudrait-on la même valeur de a pour toutes les canaux ? Different channels could have different aa. You could use a as a parameter of every unit. It could be shared as a feature map as well.;Différents canaux pourraient avoir des a différents. Vous pourriez utiliser a comme paramètre de chaque unité. Il pourrait également être partagé sous forme de carte de caractéristiques. Do we learn aa? Is learning a advantageous?;Est-ce qu’on apprend a ? Est-il avantageux d’apprendre a ? You can learn a or fix it. The reason for fixing is to ensure that nonlinearity gives you a non-zero gradient even if it’s in a negative region. Making a learnable allows the system to turn nonlinearity into either linear mapping or full rectification. It could be useful for some applications like implementing an edge detector regardless of the edge polarity.;Vous pouvez apprendre a ou le corriger. La raison de la correction est de s’assurer que la non-linéarité vous donne un gradient non nul même s’il est dans une région négative. Rendre a apprenable permet au système de transformer la non-linéarité en une association linéaire ou une rectification complète. Cela peut être utile pour certaines applications comme la mise en œuvre d’un détecteur de bord, quelle que soit la polarité du bord. How complex do you want your non-linearity to be?;Quelle complexité souhaitez-vous donner à la non-linéarité ? Theoretically, we can parametrise an entire nonlinear function in very complicated way, such as with spring parameters, Chebyshev polynomial, etc. Parametrising could be a part of learning process.;Théoriquement, nous pouvons paramétrer une fonction non linéaire entière de manière très compliquée, comme avec des paramètres de ressort, le polynôme de Tchebyshev, etc. Le paramétrage pourrait faire partie du processus d’apprentissage. What is an advantage of parametrising over having more units in your system?;Quel est l’avantage du paramétrage par rapport au fait d’avoir plus d’unités dans le système ? It really depends on what you want to do. For example, when doing regression in a low dimensional space, parametrisation might help. However, if your task is in under a high dimensional space such as image recognition, just “a” nonlinearity is necessary and monotonic nonlinearity will work better. In short, you can parametrize any functions you want but it doesn’t bring a huge advantage.;Cela dépend vraiment de ce que vous voulez faire. Par exemple, lorsque vous faites une régression dans un espace de faible dimension, le paramétrage peut vous aider. Cependant, si votre tâche se situe dans un espace à haute dimension comme la reconnaissance d’images, une simple non-linéarité « a » est nécessaire et une non-linéarité monotone fonctionnera mieux. En bref, vous pouvez paramétrer toutes les fonctions que vous voulez, mais cela n’apporte pas un énorme avantage. Kink related questions;Questions relatives aux coudes One kink versus double kink;Un coude contre un double coude Double kink is a built-in scale in it. This means that if the input layer is multiplied by two (or the signal amplitude is multiplied by two), then outputs will be completely different. The signal will be more in nonlinearity, thus you will get a completely different behaviour of the output. Whereas, if you have a function with only one kink, if you multiply the input by two, then your output will be also multiplied by two.;Le double coude a une échelle intégrée. Cela signifie que si la couche d’entrée est multipliée par deux (ou si l’amplitude du signal est multipliée par deux), les sorties seront complètement différentes. Le signal sera plus en non-linéarité, donc vous obtiendrez un comportement complètement différent de la sortie. Alors que si vous avez une fonction avec un seul coude, si vous multipliez l’entrée par deux, alors votre sortie sera également multipliée par deux. Differences between a nonlinear activation having kinks and a smooth nonlinear activation. Why/when one of them is preferred?;Différences entre une activation non linéaire ayant des coudes et une activation non linéaire lisse. Pourquoi/quand l’une d’entre elles est préférée ? It is a matter of scale equivariance. If kink is hard, you multiply the input by two and the output is multiplied by two. If you have a smooth transition, for example, if you multiply the input by 100, the output looks like you have a hard kink because the smooth part is shrunk by a factor of 100. If you divide the input by 100, the kink becomes a very smooth convex function. Thus, by changing the scale of the input, you change the behaviour of the activation unit. Sometimes this could be a problem. For example, when you train a multi-layer neural net and you have two layers that are one after the other. You do not have a good control for how big the weights of one layer is relative to the other layer’s weights. If you have nonlinearity that cares about scales, your network doesn’t have a choice of what size of weight matrix can be used in the first layer because this will completely change the behaviour. One way to fix this problem is setting a hard scale on the weights of every layer so you can normalise the weights of layers, such as batch normalisation. Thus, the variance that goes into a unit becomes always constant. If you fix the scale, then the system doesn’t have any way of choosing which part of the nonlinearity will be using in two kink function systems. This could be a problem if this ‘fixed’ part becomes too ‘linear’. For example, Sigmoid becomes almost linear near zero, and thus batch normalisation outputs (close to 0) could not be activated ‘non-linearly’. It is not entirely clear why deep networks work better with single kink functions. It’s probably due to the scale equivariance property.;C’est une question d’équivariance d’échelle. Si le coude est difficile, vous multipliez l’entrée par deux et la sortie est multipliée par deux. Si vous avez une transition en douceur, par exemple si vous multipliez l’entrée par 100, la sortie semble avoir un coude dur parce que la partie lisse est réduite d’un facteur 100. Si vous divisez l’entrée par 100, le coude devient une fonction convexe très lisse. Ainsi, en changeant l’échelle de l’entrée, vous modifiez le comportement de l’unité d’activation. Parfois, cela peut poser un problème. Par exemple, lorsque vous entraînez un réseau neuronal multicouche et que vous avez deux couches qui se suivent l’une l’autre. Vous n’avez pas un bon contrôle sur la taille des poids d’une couche par rapport aux poids de l’autre couche. Si vous avez une non-linéarité qui se soucie des échelles, votre réseau n’a pas le choix de la taille de la matrice de poids qui peut être utilisée dans la première couche car cela changera complètement le comportement. Une façon de résoudre ce problème est de fixer une échelle dure sur les poids de chaque couche afin de pouvoir normaliser les poids des couches, comme la batch normalisation. Ainsi, la variance qui va dans une unité devient toujours constante. Si vous fixez l’échelle, alors le système n’a aucun moyen de choisir quelle partie de la non-linéarité sera utilisée dans deux systèmes de fonction de coude. Cela peut poser un problème si cette partie fixe devient trop linéaire. Par exemple, Sigmoïde devient presque linéaire près de 0 et donc les sorties de la batch normalisation (proches de 0) ne pourraient pas être activées non linéairement. Il n’est pas tout à fait clair pourquoi les réseaux profonds fonctionnent mieux avec des fonctions de coude unique. C’est probablement dû à la propriété d’équivariance d’échelle. Temperature coefficient in a soft(arg)max function;Coefficient de température dans une fonction soft(arg)max When do we use the temperature coefficient and why do we use it?;Quand utilisons-nous le coefficient de température et pourquoi l’utilisons-nous ? To some extent, the temperature is redundant with incoming weights. If you have weighted sums coming into your softmax, the β parameter is redundant with the size of weights. Temperature controls how hard the distribution of output will be. When β is very large, it becomes very close to either one or zero. When β is small, it is softer. When the limit of β equals to zero, it is like an average. When β goes infinity, it behaves like argmax. It’s no longer its soft version. Thus, if you have some sort of normalisation before the softmax then, tuning this parameter allows you to control the hardness. Sometimes, you can start with a small β so that you can have well-behaved gradient descents and then, as running proceeds, if you want a harder decision in your attention mechanism, you increase β. Thus, you can sharpen the decisions. This trick is called as annealing. It can be useful for a mixture of experts like a self attention mechanism.;Dans une certaine mesure, la température est redondante avec les poids entrants. Si vous avez des sommes pondérées qui arrivent dans votre softmax, le paramètre β est redondant avec la taille des poids. La température contrôle le degré de difficulté de la distribution des sorties. Lorsque β est très grand, il devient très proche de 1 ou de 0. Lorsque β est petit, il est plus doux. Lorsque la limite de β est égale à 0, c’est comme une moyenne. Lorsque β va à l’infini, il se comporte comme argmax. Ce n’est plus sa version douce. Ainsi, si vous avez une sorte de normalisation avant le softmax, alors, le réglage de ce paramètre vous permet de contrôler la dureté. Parfois, vous pouvez commencer avec un petit β afin d’avoir des descentes de gradient bien conduites et ensuite, au fur et à mesure que la course avance, si vous voulez une décision plus difficile dans votre mécanisme d’attention, vous augmentez β. Ainsi, vous pouvez affiner les décisions. Il peut être utile pour un mélange d’experts comme un mécanisme d’auto-attention. Loss functions;Fonctions de perte PyTorch also has a lot of loss functions implemented. Here we will go through some of them.;PyTorch a également mis en place de nombreuses fonctions de perte. Nous allons en passer quelques-unes en revue ici. This function gives the mean squared error (squared L2 norm) between each element in the input x and target y. It is also called L2 loss.;Cette fonction donne l’erreur quadratique moyenne (norme L2 au carré) entre chaque élément de l’entrée x et la cible y. Elle est également appelée perte L2. If we are using a minibatch of N samples, then there are N losses, one for each sample in the batch. We can tell the loss function to keep that loss as a vector or to reduce it.;Si nous utilisons un mini-lot d’échantillons nn, alors il y a des pertes nn, une pour chaque échantillon du lot. Nous pouvons dire à la fonction de perte de conserver cette perte comme vecteur ou de la réduire. If unreduced (i.e. set reduction='none'), the loss is;Si elle n’est pas réduite (reduction='none'), la perte est : where N is the batch size, x and y are tensors of arbitrary shapes with a total of n elements each.;où N est la taille du lot, x et y sont des tenseurs de formes arbitraires avec un total de n éléments chacun. The reduction options are below (note that the default value is reduction='mean').;Les options de réduction sont ci-dessous (notez que la valeur par défaut est reduction='mean'). The sum operation still operates over all the elements, and divides by n.;L’opération de la somme fonctionne toujours sur tous les éléments et se divise par n. The division by N can be avoided if one sets reduction = 'sum'.;La division par N peut être évitée si l’on définit reduction = 'sum'. This measures the mean absolute error (MAE) between each element in the input x and target y (or the actual output and desired output).;Elle mesure l’erreur moyenne absolue entre chaque élément de l’entrée x et de la cible y (ou entre la sortie réelle et la sortie souhaitée). If unreduced (i.e. set reduction='none'), the loss is;Si elle n’est pas réduite (reduction='none'), la perte est where N is the batch size, x and y are tensors of arbitrary shapes with a total of n elements each.;où N est la taille du lot, x et y sont des tenseurs de formes arbitraires avec un total de N éléments chacun. It also has reduction option of 'mean' and 'sum' similar to what nn.MSELoss() have.;Il dispose également d’une option reduction de 'mean' et 'sum', similaire à celle de nn.MSELoss(). Use Case: L1 loss is more robust against outliers and noise compared to L2 loss. In L2, the errors of those outlier/noisy points are squared, so the cost function gets very sensitive to outliers.;Cas d’utilisation : la perte L1 est plus robuste contre les valeurs aberrantes et le bruit que la perte L2. En L2, les erreurs de ces points aberrants/bruits sont élevées au carré, de sorte que la fonction de coût devient très sensible aux aberrants. Problem: The L1 loss is not differentiable at the bottom (0). We need to be careful when handling its gradients (namely Softshrink). This motivates the following SmoothL1Loss.;Problème : la perte en L1 n’est pas différentiable dans la partie inférieure (0). Nous devons être prudents lorsque nous traitons ses gradients (à savoir la Softshrink). C’est ce qui motive la perte L1 lisse suivante. This function uses L2 loss if the absolute element-wise error falls below 1 and L1 loss otherwise.;Cette fonction utilise la perte de L2 si l’erreur absolue au niveau de l’élément tombe en dessous de 1 et la perte de L1 dans le cas contraire. It also has reduction options.;Elle dispose également d’options de reduction. This is advertised by Ross Girshick (Fast R-CNN). The Smooth L1 Loss is also known as the Huber Loss or the Elastic Network when used as an objective function,.;Elle est utilisée par Ross Girshick dans Fast R-CNN. La perte L1 lisse est également connue sous le nom de perte de Huber ou d’ElasticNet lorsqu’elle est utilisée comme fonction objective. Use Case: It is less sensitive to outliers than the MSELoss and is smooth at the bottom. This function is often used in computer vision for protecting against outliers.;Cas d’utilisation : elle est moins sensible aux valeurs aberrantes que la MSELoss et est lisse dans le bas. Cette fonction est souvent utilisée en vision par ordinateur pour se protéger contre les valeurs aberrantes. Problem: This function has a scale (0.5 in the function above).;Problème : cette fonction a une échelle (0,5 dans la fonction ci-dessus). L1 vs. L2 for Computer Vision;L1 vs L2 pour la vision par ordinateur In making predictions when we have a lot of different y~’s:;En faisant des prédictions quand nous avons beaucoup de y différents : If we use MSE (L2 Loss), it results in an average of all y, which in CV it means we will have a blurry image.;Si nous utilisons la MSE (perte L2), nous obtenons une moyenne de tous les y, ce qui signifie que nous aurons une image floue. If we use L1 loss, the value y that minimize the L1 distance is the medium, which is not blurry, but note that medium is difficult to define in multiple dimensions.;Si nous utilisons la perte L1, la valeur y qui minimise la distance L1 est le milieu, qui n’est pas flou, mais notons que le milieu est difficile à définir en plusieurs dimensions. Using L1 results in sharper image for prediction.;L’utilisation de la distance L1 donne une image plus nette pour la prédiction. It is the negative log likelihood loss used when training a classification problem with C classes.;Il s’agit de la perte de probabilité logarithmique négative utilisée lors de l’entraînement d’un problème de classification à C classes. Note that, mathematically, the input of NLLLoss should be (log) likelihoods, but PyTorch doesn’t enforce that. So the effect is to make the desired component as large as possible.;Mathématiquement, l’entrée de NLLLoss devrait être la probabilité (log), mais PyTorch ne l’impose pas. L’effet est donc de rendre la composante désirée aussi grande que possible. The unreduced (i.e. with :attr:reduction set to 'none') loss can be described as:;La perte non réduite (avec :attr:reduction réglé sur 'none') peut être décrite comme : where N is the batch size.;où N est la taille du lot. If reduction is not 'none' (default 'mean'), then;Si reduction n’est pas à 'none' (par défaut 'mean'), alors : This loss function has an optional argument weight that can be passed in using a 1D Tensor assigning weight to each of the classes. This is useful when dealing with imbalanced training set.;Cette fonction de perte a un argument optionnel weight qui peut être transmis en utilisant un tenseur 1D qui assigne un poids à chacune des classes. Ceci est utile lorsqu’il s’agit d’un jeu d’entraînement déséquilibré. Weights & Imbalanced Classes:;Poids et classes déséquilibrées : Weight vector is useful if the frequency is different for each category/class. For example, the frequency of the common flu is much higher than the lung cancer. We can simply increase the weight for categories that has small number of samples.;Le vecteur de poids est utile si la fréquence est différente pour chaque catégorie/classe. Par exemple, la fréquence de la grippe commune est beaucoup plus élevée que celle du cancer du poumon. Nous pouvons simplement augmenter le poids pour les catégories qui ont un petit nombre d’échantillons. However, instead of setting the weight, it’s better to equalize the frequency in training so that we can exploits stochastic gradients better.;Cependant, au lieu de fixer le poids, il est préférable d’égaliser la fréquence à l’entraînement afin de mieux exploiter les gradients stochastiques. To equalize the classes in training, we put samples of each class in a different buffer. Then generate each minibatch by picking the same number samples from each buffer. When the smaller buffer runs out of samples to use, we iterate through the smaller buffer from the beginning again until every sample of the larger class is used. This way gives us equal frequency for all categories by going through those circular buffers. We should never go the easy way to equalize frequency by not using all samples in the majority class. Don’t leave data on the floor!;Pour égaliser les classes à l’entraînement, nous plaçons des échantillons de chaque classe dans une mémoire tampon différente. Ensuite, nous générons chaque mini-batch en prélevant le même nombre d’échantillons dans chaque tampon. Lorsque le petit tampon est à court d’échantillons à utiliser, nous itérons à nouveau à travers le petit tampon depuis le début jusqu’à ce que chaque échantillon de la grande classe soit utilisé. De cette façon, nous obtenons une fréquence égale pour toutes les catégories en passant par ces tampons. Nous ne devrions jamais utiliser la méthode facile pour égaliser la fréquence en n’ utilisant pas tous les échantillons de la classe majoritaire. Ne laissez pas de données de côté ! An obvious problem of the above method is that our N model wouldn’t know the relative frequency of the actual samples. To solve that, we fine-tune the system by running a few epochs at the end with the actual class frequency, so that the system adapts to the biases at the output layer to favour things that are more frequent.;Un problème évident de la méthode ci-dessus est que notre modèle ne connaîtrait pas la fréquence relative des échantillons réels. Pour résoudre ce problème, nous affinons le système en exécutant quelques époques à la fin avec la fréquence réelle de la classe, de sorte que le système s’adapte aux biais de la couche de sortie pour favoriser les choses qui sont plus fréquentes. To get an intuition of this scheme, let’s go back to the medical school example: students spend just as much time on rare disease as they do on frequent diseases (or maybe even more time, since the rare diseases are often the more complex ones). They learn to adapt to the features of all of them, then correct it to know which are rare.;Pour avoir une intuition de ce schéma, revenons à l’exemple de la faculté de médecine : les étudiants passent autant de temps sur les maladies rares que sur les maladies fréquentes (ou peut-être même plus de temps, puisque les maladies rares sont souvent les plus complexes). Ils apprennent à s’adapter aux caractéristiques de chacune d’entre elles, puis à les corriger pour savoir lesquelles sont rares. This function combines nn.LogSoftmax and nn.NLLLoss in one single class. The combination of the two makes the score of the correct class as large as possible.;Cette fonction combine nn.LogSoftmax et nn.NLLLoss dans une seule classe. La combinaison des deux rend le score de la classe correcte aussi grand que possible. The reason why the two functions are merged here is for numerical stability of gradient computation. When the value after softmax is close to 1 or 0, the log of that can get close to 0 or −∞. Slope of log close to 0 is close to ∞, causing the intermediate step in backpropagation to have numerical issues. When the two functions are combined, the gradients is saturated so we get a reasonable number at the end.;La raison pour laquelle les deux fonctions sont fusionnées ici est la stabilité numérique du calcul du gradient. Lorsque la valeur après softmax est proche de 1 ou 0, le log de cette fonction peut se rapprocher de 0 ou −∞. La pente du log proche de 0 est proche de −∞, ce qui entraîne des problèmes numériques à l’étape intermédiaire de la rétropropagation. Lorsque les deux fonctions sont combinées, le gradient est saturé, de sorte que nous obtenons un nombre raisonnable à la fin. The input is expected to be unnormalised score for each class.;On s’attend à ce que l’entrée soit un score non normalisé pour chaque classe. The loss can be described as:;La perte peut être décrite comme suit : or in the case of the weight argument being specified:;ou dans le cas où l’argument weight est spécifié : The losses are averaged across observations for each minibatch.;La moyenne des pertes est calculée à partir des observations de chaque mini-batch. A physical interpretation of the Cross Entropy Loss is related to the Kullback–Leibler divergence (KL divergence), where we are measuring the divergence between two distributions. Here, the (quasi) distributions are represented by the x vector (predictions) and the target distribution (a one-hot vector with 0 on the wrong classes and 1 on the right class).;Une interprétation physique de la perte d’entropie croisée est liée à la divergence de Kullback-Leibler (divergence KL), où nous mesurons la divergence entre deux distributions. Ici, les (quasi) distributions sont représentées par le vecteur x (prédictions) et la distribution cible (un vecteur one-hot avec 0 sur les mauvaises classes et 1 sur la bonne classe). Mathematically,;Mathématiquement : This is an efficient softmax approximation of softmax for large number of classes (for example, millions of classes). It implements tricks to improve the speed of the computation.;Il s’agit d’une approximation efficace de la softmax pour un grand nombre de classes (par exemple, des millions de classes). Elle met en œuvre des astuces pour améliorer la rapidité du calcul. Loss Functions (cont.) and Loss Functions for Energy Based Models;Fonctions de perte (continues) et fonctions de perte pour les EBMs This loss is a special case of cross entropy for when you have only two classes so it can be reduced to a simpler function. This is used for measuring the error of a reconstruction in, for example, an auto-encoder. This formula assume x and y are probabilities, so they are strictly between 0 and 1.;Cette perte est un cas particulier de l’entropie croisée car lorsque nous n’avons que deux classes, elle peut être réduite à une fonction plus simple. Elle est utilisée pour mesurer l’erreur d’une reconstruction dans, par exemple un auto-encodeur. Cette formule suppose que x et y sont des probabilités, elles sont donc strictement comprises entre 0 et 1. This is simple loss function for when your target is a one-hot distribution (i.e. y is a category). Again it assumes x and y are probabilities. It has the disadvantage that it is not merged with a softmax or log-softmax so it may have numerical stability issues.;Il s’agit d’une fonction de perte simple pour les cas où la cible est une distribution one-hot (c’est-à-dire que y est une catégorie). Là encore, elle suppose que x et y sont des probabilités. Elle présente l’inconvénient de ne pas être fusionnée avec une softmax ou une log-softmax, ce qui peut poser des problèmes de stabilité numérique. This version of binary cross entropy loss takes scores that haven’t gone through softmax so it does not assume x is between 0 and 1. It is then passed through a sigmoid to ensure it is in that range. The loss function is more likely to be numerically stable when combined like this.;Cette version de la perte d’entropie croisée binaire prend les scores qui ne sont pas passés par la softmax, donc elle ne suppose pas que x est compris entre 0 et 1. Elle passe ensuite par une sigmoïde pour s’assurer qu’elle est dans cette fourchette. La fonction de perte a plus de chances d’être numériquement stable lorsqu’elle est combinée de cette manière. Margin losses are an important category of losses. If you have two inputs, this loss function says you want one input to be larger than the other one by at least a margin. In this case y is a binary variable ∈−1,1. Imagine the two inputs are scores of two categories. You want the score for the correct category larger than the score for the incorrect categories by at least some margin. Like hinge loss, if y∗(x1​−x2​) is larger than margin, the cost is 0. If it is smaller, the cost increases linearly. If you were to use this for classification, you would have x1​ be the score of the correct answer and x2 be the score of the highest scoring incorrect answer in the mini-batch. If used in energy based models (discussed later), this loss function pushes down on the correct answer x1​ and up on the incorrect answer x2​.;Les pertes avec marge constituent une catégorie importante de pertes. Si nous avons deux entrées, cette fonction de perte indique que l’une d’elles doit être plus importante que l’autre d’au moins une marge. Dans ce cas, y est une variable binaire ∈−1,1. Imaginons que les deux entrées sont des scores de deux catégories. Nous voulons que le score de la catégorie correcte soit plus grand que le score de la catégorie incorrecte d’au moins une certaine marge. Comme pour la perte Hinge, si y∗(x1​−x2​) est supérieur à la marge, le coût est de 0. S’il est inférieur, le coût augmente de façon linéaire. Si nous devons l’utiliser pour la classification, nous aurions x1 comme score de la bonne réponse et x2​ comme score de la réponse incorrecte la plus élevée du mini-batch. Si elle est utilisée dans des modèles à base d’énergie (voir plus loin), cette fonction de perte pousse vers le bas la bonne réponse x1x1​ et vers le haut la mauvaise réponse x2​. This loss is used for measuring a relative similarity between samples. For example, you put two images with the same category through a CNN and get two vectors. You want the distance between those two vectors to be as small as possible. If you put two images with different categories through a CNN, you want the distance between those vectors to be as large as possible. This loss function tries to send the first distance toward 0 and the second distance larger than some margin. However, the only thing that matter is that the distance between the good pair is smaller than the distance between the bad pair.;Cette perte est utilisée pour mesurer une similarité relative entre les échantillons. Par exemple, nous faisons passer deux images de même catégorie dans un ConvNet et nous obtenons deux vecteurs. Nous voulons que la distance entre ces deux vecteurs soit la plus petite possible. Cette fonction de perte essaie d’envoyer la première distance vers 0 et la seconde distance plus grande qu’une certaine marge. Cependant, la seule chose qui importe est que la distance entre la bonne paire soit plus petite que la distance entre la mauvaise paire. This was originally used to train an image search system for Google. At that time, you would type a query into Google and it would encode that query into a vector. It would then compare that vector to a bunch of vectors from images that were previously indexed. Google would then retrieve the images that were the closest to your vector.;Elle a été utilisée à l’origine pour l’entraînement d’un système de recherche d’images pour Google. À l’époque, il fallait taper une requête dans Google et celui-ci l’encodait dans un vecteur. Il comparait ensuite ce vecteur à un ensemble de vecteurs provenant d’images qui avaient été précédemment indexées. Google récupère alors les images qui sont les plus proches de votre vecteur. Creates a criterion that optimizes a two-class classification logistic loss between input tensor x and target tensor y (containing 1 or -1).;Crée un critère qui optimise une perte logistique de classification à deux classes entre le tenseur d’entrée x et le tenseur cible y (contenant 1 ou −1). This softmax version of a margin loss. You have a bunch of positives and a bunch of negatives you want to pass through a softmax. This loss function then tries to make exp(−y[i]∗x[i]) for the correct x[i] smaller than for any other.;C’est la version softmax de la perte avec marge. Nous avons un tas de positifs et un tas de négatifs que nous voulons faire passer par une softmax. Cette fonction de perte tente alors de rendre exp(−y[i]∗x[i]) plus petit que les autres pour le bon x[i]. This loss function wants to pull the positive values of y[i]∗x[i] closer together and push the negative values far apart but, as opposed to a hard margin, with some continuous, exponentially decaying effect on the loss .;Cette fonction de perte veut rapprocher les valeurs positives de y[i]∗x[i] et éloigner les valeurs négatives, mais par opposition à une marge fixe, avec un effet continu de décroissance exponentielle sur la perte. This margin-base loss allows for different inputs to have variable amounts of targets. In this case you have several categories for which you want high scores and it sums the hinge loss over all categories. For EBMs, this loss function pushes down on desired categories and pushes up on non-desired categories.;Cette perte permet à différentes entrées d’avoir des quantités variables d’objectifs. Dans ce cas, nous avons plusieurs catégories pour lesquelles nous souhaitons obtenir des scores élevés et elle additionne la perte sur toutes les catégories. Pour les EBMs, cette fonction de perte pousse vers le bas les catégories souhaitées et vers le haut les catégories non souhaitées. Hinge embedding loss used for semi-supervised learning by measuring whether two inputs are similar or dissimilar. It pulls together things that are similar and pushes away things are dissimilar. The y variable indicates whether the pair of scores need to go in a certain direction. Using a hinge loss, the score is positive if y is 1 and some margin Δ if y is -1.;Cette perte est utilisée pour l’apprentissage semisupervisé en mesurant si deux entrées sont similaires ou dissemblables. Elle rassemble les choses qui sont similaires et repousse celles qui sont dissemblables. La variable y indique si la paire de notes doit aller dans une certaine direction. En utilisant une telle perte, le score est positif si y est égal à 1 et une certaine marge Δ si y est égal à −1. This loss is used for measuring whether two inputs are similar or dissimilar, using the cosine distance, and is typically used for learning nonlinear embeddings or semi-supervised learning.;Cette perte est utilisée pour mesurer si deux entrées sont similaires ou dissemblables, en utilisant la distance cosinusoïdale et est généralement utilisée pour l’apprentissage d’enchâssements non linéaires ou pour l’apprentissage semisupervisé. Thought of another way, 1 minus the cosine of the angle between the two vectors is basically the normalised Euclidean distance.;Pensée d’une autre manière, 1 moins le cosinus de l’angle entre les deux vecteurs est fondamentalement la distance euclidienne normalisée. The advantage of this is that whenever you have two vectors and you want to make their distance as large as possible, it is very easy to make the network achieve this by make the vectors very long. Of course this is not optimal. You don’t want the system to make the vectors big but rotate vectors in the right direction so you normalise the vectors and calculate the normalised Euclidean distance.;L’avantage de cette méthode est que lorsque nous avons deux vecteurs et que voulons rendre leur distance aussi grande que possible, il est très facile de faire en sorte que le réseau y parvienne en rendant les vecteurs très longs. Bien sûr, ce n’est pas optimal. Nous ne voulons pas que le système fabrique des vecteurs de grande taille, mais qu’il fasse tourner les vecteurs dans la bonne direction, de sorte que nous normalisons les vecteurs et calculons la distance euclidienne normalisée. For positive cases, this loss tries to make the vectors as aligned as possible. For negative pairs, this loss tries to make the cosine smaller than a particular margin. The margin here should be some small positive value.;Pour les cas positifs, cette perte essaie de rendre les vecteurs aussi alignés que possible. Pour les paires négatives, cette perte essaie de rendre le cosinus plus petit qu’une marge particulière. La marge doit ici être une petite valeur positive. In a high dimensional space, there is a lot of area near the equator of the sphere. After normalisation, all your points are now normalised on the sphere. What you want is samples that are semantically similar to you to be close. The samples that are dissimilar should be orthogonal. You don’t want them to be opposite each other because there is only one point at the opposite pole. Rather, on the equator, there is a very large amount of space so you want to make the margin some small positive value so you can take advantage of all this area.;Dans un espace de grande dimension, il y a beaucoup de régions près de l’équateur de la sphère. Après la normalisation, tous nos points sont maintenant normalisés sur la sphère. Ce que nous voulons, c’est que les échantillons qui nous ressemblent sémantiquement soient proches. Les échantillons qui sont dissemblables doivent être orthogonaux. Nous ne voulons pas qu’ils soient opposés entre eux car il n’y a qu’un seul point au pôle opposé. Au contraire, sur l’équateur, il y a une très grande quantité d’espace, donc nous voulons que la marge ait une petite valeur positive afin de pouvoir profiter de toute cette zone. Calculates loss between a continuous (unsegmented) time series and a target sequence.;Calcule la perte entre une série chronologique continue (non segmentée) et une séquence cible. CTC loss sums over the probability of possible alignments of input to target, producing a loss value which is differentiable with respect to each input node.;Les sommes des pertes CTC sur la probabilité des alignements possibles de l’entrée vers la cible, produisent une valeur de perte qui est différenciable par rapport à chaque nœud d’entrée. The alignment of input to target is assumed to be “many-to-one”, which limits the length of the target sequence such that it must less than or equal to the input length.;L’alignement de l’entrée sur la cible est supposé être « plusieurs vers un », ce qui limite la longueur de la séquence cible de sorte qu’elle doit être inférieure ou égale à la longueur d’entrée. Useful when your output is a sequence of vectors, which is correspond to scores of categories.;Utile lorsque votre sortie est une séquence de vecteurs, qui correspond à un grand nombre de catégories. Application Example: Speech recognition system;Exemple d’un système de reconnaissance vocale : Goal: Predict what word is being pronounced every 10 milliseconds.;Objectif : prédire quel mot est prononcé toutes les 10 millisecondes. Each word is represented by a sequence of sounds.;Chaque mot est représenté par une séquence de sons. Depends on the person’s speaking speed, different length of the sounds might be mapped to the same word.;En fonction de la vitesse de la personne qui parle, des sons de différentes longueurs peuvent être associés au même mot. Find the best mapping from the input sequence to the output sequence. A good method for this is using dynamic programming to find the minimum cost path.;Trouver la meilleure correspondance entre la séquence d’entrée et la séquence de sortie. Une bonne méthode pour cela consiste à utiliser la programmation dynamique pour trouver le chemin le moins coûteux. Energy-Based Models (Part IV) - Loss Function;Modèles à base d’énergie (EBMs) - Fonction de perte Architecture and Loss Functional;Architecture et perte fonctionnelle Family of energy functions: E=E(W,Y,X):W∈W.;Famille de fonction d’énergie : E=E(W,Y,X):W∈W. Training set: S=(Xi,Yi):i=1⋯P;Jeu d’entraînement : S=(Xi,Yi):i=1⋯P. Loss functional: L(E,S);Perte fonctionnelle : L(E,S) Functional means a function of another function. In our case, the functional L(E,S) is a function of the energy function E.;Fonctionnelle signifie une fonction d’une autre fonction. Dans notre cas, la fonction L(E,S) est une fonction de la fonction d’énergie E. Because E is parametrised by W, we can turn the functional to a loss function of W: L(W,S);Comme E est paramétré par W, nous pouvons transformer la fonction en une fonction de perte de W : L(W,S) Measures the quality of an energy function on training set;Mesure la qualité d’une fonction énergie sur un jeu d’entraînement Invariant under permutations and repetitions of the samples.;Invariable sous les permutations et les répétitions des échantillons. Push down on the energy of the correct answer.;Poussez vers le bas sur l’énergie de la bonne réponse. Push up on the energies of the incorrect answers, particularly if they are smaller than the correct one.;Poussez vers le haut sur l’énergie des mauvaises réponses, surtout si elles sont plus petites que la bonne réponse. Examples of Loss Functions;Exemples de fonctions de perte Energy Loss;Perte d’énergie This loss function simply pushes down on the energy of the correct answer. If the network is not designed properly, it might end up with a mostly flat energy function as you only trying to make the energy of the correct answer small but not pushing up the energy elsewhere. Thus, the system might collapses.;Cette fonction de perte pousse simplement vers le bas l’énergie de la bonne réponse. Si le réseau n’est pas conçu correctement, il peut se retrouver avec une fonction de perte d’énergie pratiquement nulle car nous essayons seulement de rendre l’énergie de la bonne réponse faible mais nous ne poussons pas l’énergie vers le haut ailleurs. Ainsi, le système peut s’effondrer. This loss function pushes down on the energy of the correct answer while pushing up on the energies of all answers in proportion to their probabilities. This reduces to the perceptron loss when β→∞. It has been used for a long time in many communities for discriminative training with structured outputs.;Cette fonction de perte pousse vers le bas l’énergie de la bonne réponse tout en poussant vers le haut les énergies de toutes les réponses en proportion de leurs probabilités. Cela se réduit à la perte de perceptron lorsque β→∞. Elle est utilisée depuis longtemps pour un entraînement discriminant avec des sorties structurés. A probabilistic model is an EBM in which:;Un modèle probabiliste est un EBM dans lequel : The energy can be integrated over Y (the variable to be predicted);L’énergie peut être intégrée sur y (la variable à prédire) The loss function is the negative log-likelihood;La fonction de perte est la log-vraisemblance négative This loss makes the energy of the correct answer small, and at the same time, makes the energy for all other answers as large as possible. However, this loss does not prevent the function from giving the same value to every incorrect answer Yi, so in this sense, it is a bad loss function for non-linear systems. To improve this loss, we define the most offending incorrect answer.;Cette perte rend l’énergie de la bonne réponse faible et en même temps rend aussi grande que possible l’énergie pour toutes les autres réponses. Cependant, cette perte n’empêche pas la fonction de donner la même valeur à chaque réponse incorrecte Yi, donc dans ce sens, c’est une mauvaise fonction de perte pour les systèmes non linéaires. Pour améliorer cette perte, nous définissons la réponse incorrecte la plus offensante. Generalized Margin Loss;Perte de marge généralisée Most offending incorrect answer: discrete case Let y be a discrete variable. Then for a training sample (Xi,Yi), the most offending incorrect answer Yˉi is the answer that has the lowest energy among all possible answers that are incorrect:;Réponse incorrecte la plus offensante : cas discret. Soit y une variable discrète. Ensuite, pour un jeu d’entraînement (Xi,Yi), la réponse incorrecte la plus offensante Yˉi est la réponse qui a la plus faible énergie parmi toutes les réponses possibles qui sont incorrectes : Most offending incorrect answer: continuous case Let y be a continuous variable. Then for a training sample (Xi,Yi), the most offending incorrect answer Yˉi is the answer that has the lowest energy among all answers that are at least ϵ away from the correct answer:;Réponse incorrecte la plus offensante : cas continu. Soit y une variable continue. Ensuite, pour un échantillon d’entraînement (Xi,Yi), la réponse incorrecte la plus offensante Yˉi est la réponse qui a la plus faible énergie parmi toutes les réponses qui sont au moins à ϵ de la bonne réponse : In the discrete case, the most offending incorrect answer is the one with smallest energy that isn’t the correct answer. In the continuous case, the energy for y extremely close to Yi should be close to E(W,Yi,Xi). Furthermore, the argminargmin evaluated over y not equal to Yi would be 0. As a result, we pick a distance ϵ and decide that only Y’s at least ϵ from Yi​ should be considered the “incorrect answer”. This is why the optimization is only over Y’s of distance at least ϵ from Yi.;Dans le cas discret, la réponse incorrecte la plus offensante est celle dont l’énergie est la plus faible et qui n’est pas la bonne réponse. Dans le cas continu, l’énergie pour y extrêmement proche de Yi devrait être proche de E(W,Yi,Xi). De plus, le argminargmin évalué sur y non égal à Yi serait 0. En conséquence, nous choisissons une distance ϵ et décidons que seul y est au moins ϵ de Yi​ doit être considéré comme la mauvaise réponse. C’est pourquoi l’optimisation ne porte que sur les y de distance au moins égale à ϵ de Yi. If the energy function is able to ensure that the energy of the most offending incorrect answer is higher than the energy of the correct answer by some margin, then this energy function should work well.;Si la fonction d’énergie est capable de garantir que l’énergie de la réponse incorrecte la plus offensante est supérieure à l’énergie de la bonne réponse d’une certaine marge, alors cette fonction d’énergie devrait bien fonctionner. Examples of Generalized Margin Loss Functions;Exemples de fonctions de perte de marge généralisée Where Yˉi is the most offending incorrect answer. This loss enforces that the difference between the correct answer and the most offending incorrect answer be at least mm.;où Yˉi est la réponse incorrecte la plus offensante. Cette perte impose que la différence entre la bonne réponse et la réponse incorrecte la plus offensante soit d’au moins mm. How do you pick m?;Comment choisir m ? It’s arbitrary, but it affects the weights of the last layer.;C’est arbitraire, mais cela affecte les poids de la dernière couche. This can be thought of as a “soft” hinge loss. Instead of composing the difference of the correct answer and the most offending incorrect answer with a hinge, it’s now composed with a soft hinge. This loss tries to enforce an “infinite margin”, but because of the exponential decay of the slope it doesn’t happen.;On peut considérer cela comme une Hinge Loss douce. Cette perte tente d’imposer une marge infinie, mais en raison de la décroissance exponentielle de la pente, cela ne se produit pas. This loss combines the square of the energy with a square hinge. The combination tries to minimize the energy and but enforce margin at least mm on the most offending incorrect answer. This is very similar to the loss used in Siamese nets.;Cette perte combine le carré de l’énergie avec une hinge au carrée. La combinaison tente de minimiser l’énergie et d’appliquer une marge d’au moins m à la mauvaise réponse la plus offensante. Cette méthode est très similaire à la perte utilisée dans les réseaux siamois. Other Losses;Autres pertes The right-hand column indicates if the energy function enforces a margin. The plain old energy loss does not push up anywhere, so it doesn’t have a margin. The energy loss doesn’t work for every problem. The perceptron loss works if you have a linear parametrisation of your energy but not in general. Some of them have a finite margin like the hinge loss, and some have an infinite margin like the soft hinge.;La colonne de droite indique si la fonction d’énergie impose une marge. La simple perte d’énergie ne pousse nulle part donc elle n’a pas de marge. La perte d’énergie ne fonctionne pas pour tous les problèmes. La perte de perceptron fonctionne si nous avons une paramétrisation linéaire de notre énergie mais pas en général. Certaines ont une marge finie comme la perte hinge et d’autres une marge infinie comme la charnière souple. How is the most offending incorrect answer found Yˉi​ found in the continuous case?;Comment la réponse incorrecte la plus offensante trouve-t-elle Yˉi dans le cas continu ? You want to push up on a point that is sufficiently far from Yi, because if it’s too close, the parameters may not move much since the function defined by a neural net is “stiff”. But in general, this is hard and this is the problem that methods selecting contrastive samples try to solve. There’s no single correct way to do it.;Vous voulez pousser sur un point qui est suffisamment éloigné de Yi car s’il est trop proche, les paramètres peuvent ne pas bouger beaucoup puisque la fonction définie par un réseau neuronal est « raide ». Mais en général, c’est difficile et c’est le problème que les méthodes de sélection d’échantillons contrastifs tentent de résoudre. Il n’y a pas une seule façon correcte de le faire. A slightly more general form for hinge type contrastive losses is:;Une forme un peu plus générale pour les pertes contrastives de type hinge est : We assume that y is discrete, but if it were continuous, the sum would be replaced by an integral. Here, E(W,Yi,Xi)−E(W,y,Xi) is the difference of E evaluated at the correct answer and some other answer. C(Yi,y) is the margin, and is generally a distance measure between Yi and y. The motivation is that the amount we want to push up on a incorrect sample y should depend on the distance between y and the correct sample Yi​. This can be a more difficult loss to optimize.;Nous supposons que y est discret, mais s’il était continu, la somme serait remplacée par une intégrale. Ici, E(W,Yi,Xi)−E(W,y,Xi) est la différence entre E évaluée à la bonne réponse et une autre réponse. C(Yi,y) est la marge et est généralement une mesure de distance entre Yi et y. La motivation est que le montant que nous voulons pousser vers le haut sur un échantillon incorrect y devrait dépendre de la distance entre y et l’échantillon correct Yi​. Il peut s’agir d’une perte plus difficile à optimiser. Prediction and Policy learning Under Uncertainty (PPUU);Prediction et apprentissage d'une politique sous incertitude Introduction and problem setup;Introduction et configuration du problème Let us say we want to learn how to drive in a model-free Reinforcement learning way. We train models in RL by letting the model make mistakes and learn from them. But this is not the best way since mistakes might take us to heaven/hell where there is no point in learning.;Disons que nous voulons apprendre à conduire dans un modèle d’apprentissage par renforcement (RL pour Reinforcement learning). Nous entraînons des modèles en RL en laissant le modèle faire des erreurs et en apprenant de celles-ci. Mais ce n’est pas la meilleure façon de procéder car les erreurs peuvent nous conduire au paradis ou en enfer où il est inutile d’apprendre. So, let us talk about a more ‘human’ way to learn how to drive a car. Consider an example of lane switching. Assuming the car is moving at 100 km/h, which roughly translates to 30 m/s, if we look 30 m in front of us, we are roughly looking 1 s into the future.;Parlons donc d’une méthode plus « humaine » pour apprendre à conduire une voiture. Prenons un exemple de changement de voie. En supposant que la voiture roule à 100 km/h, ce qui correspond à peu près à 30 m/s, si nous regardons à 30 m devant nous, nous regardons en gros 1 s dans le futur. If we were turning, we need to make a decision based on the near future. To take a turn in a few meters, we take an action now, which in this context is turning the steering wheel. Making a decision not only depends on your driving but also the surrounding vehicles in the traffic. Since everyone around us is not so deterministic, it is very hard to take every possibility into account.;Si nous devons tourner, nous devons prendre une décision en fonction de l’avenir proche. Pour prendre un virage dans quelques mètres, nous prenons une mesure maintenant, qui dans ce contexte est de tourner le volant. Prendre une décision ne dépend pas seulement de notre conduite, mais aussi des véhicules environnants dans la circulation. Comme tout le monde autour de nous n’est pas aussi déterministe, il est très difficile de prendre en compte toutes les possibilités. Let us now break down what is happening in this scenario. We have an agent(represented here by a brain) that takes the input st​ (position, velocity and context images) and produces an action at ​(steering control, acceleration and braking). The environment takes us to a new state and returns a cost ct​.;Décomposons maintenant ce qui se passe dans ce scénario. Nous avons un agent (représenté ici par un cerveau) qui prend l’entrée st​ (images de la position, de la vitesse et du contexte) et produit une action at​ (contrôle de la direction, accélération et freinage). L’environnement nous amène à un nouvel état et nous renvoie un coût ct​. This is like a simple network where you take actions given a specific state and the world gives us the next state and the next consequence. This is model-free because with every action we are interacting with the real world. But can we train an agent without actually interacting with the real world?;C’est comme un réseau où nous prenons des actions étant donné un état spécifique et où le monde nous donne l’état suivant et la conséquence suivante. C’est un modèle libre, car chaque action nous fait interagir avec le monde réel. Mais pouvons-nous entraîner un agent sans interagir avec le monde réel ? Dataset;Jeu de données Before discussing how to learn the world model, let us explore the dataset we have. We have 7 cameras mounted on top of a 30 story building facing the interstate. We adjust the cameras to get the top-down view and then extract bounding boxes for each vehicle. At a time t, we can determine ptpt​ representing the position, vt​ representing the velocity and itit​ representing the current traffic state around the vehicle.;Avant de discuter de la manière d’apprendre le modèle du monde, explorons le jeu de données dont nous disposons. Nous avons 7 caméras montées sur le toit d’un bâtiment de 30 étages qui fait face à une autoroute. Nous ajustons les caméras pour obtenir une vue de haut en bas et extrayons ensuite des boîtes de délimitation pour chaque véhicule. Au temps t, nous pouvons déterminer ptpt​ représentant la position, vt​ représentant la vitesse et itit​ représentant l’état actuel de la circulation autour du véhicule. Since we know the kinematics of the driving, we can invert them to figure out what are the actions that the driver is taking. For example, if the car is moving in a rectilinear uniform motion, we know that the acceleration is zero(meaning there is no action);Comme nous connaissons les cinématiques de la conduite, nous pouvons les inverser pour déterminer quelles sont les actions que le conducteur effectue. Par exemple, si la voiture se déplace dans un mouvement rectiligne uniforme, nous savons que l’accélération est nulle (ce qui signifie qu’il n’y a pas d’action). The illustration in blue is the feed and the illustration in green is what we can call the machine representation. To understand this better, we have isolated a few vehicles(marked in the illustration). The views we see below are the bounding boxes of the field-of-view of these vehicles.;L’illustration en bleu est le flux et l’illustration en vert est ce que l’on peut appeler la représentation de la machine. Pour mieux comprendre cela, nous avons isolé quelques véhicules (marqués dans l’illustration). Les vues que nous voyons ci-dessus sont les boites délimitant le champ de vision de ces véhicules. Cost;Coût There are two different types of costs here: lane cost and proximity cost. Lane cost tells us how well we are within a lane and proximity cost tells us how close we are to the other cars.;Il y a deux types de coûts différents ici : le coût de la voie et le coût de proximité. Le coût de la voie nous indique dans quelle mesure nous sommes à l’intérieur d’une voie et le coût de proximité nous indique dans quelle mesure nous sommes proches des autres voitures. In the above figure, dotted lines represent actual lanes and red lines help us figure out the lane cost given the current position of our car. Red lines move as our car moves. The height of the intersection of the red lines with the potential curve (in cyan) gives us the cost. If the car is in the centre of the lane, both the red lines overlap with the actual lanes resulting in zero cost. On the other hand, as the car moves away from the centre, the red lines also move to result in a non-zero cost.;Dans la figure ci-dessus, les lignes pointillées représentent les voies réelles et les lignes rouges nous aident à calculer le coût de la voie compte tenu de la position actuelle de notre voiture. Les lignes rouges se déplacent en fonction de la position de notre voiture. La hauteur de l’intersection des lignes rouges avec la courbe potentielle (en cyan) nous donne le coût. Si la voiture est au centre de la voie, les deux lignes rouges se chevauchent avec les voies réelles, ce qui donne un coût nul. D’autre part, lorsque la voiture s’éloigne du centre, les lignes rouges se déplacent également, ce qui entraîne un coût non nul. Proximity cost has two components (Lx​ and Ly​). Ly is similar to the lane cost and Lx​ depends on the speed of our car. The Orange curve in Figure 6 tells us about the safety distance. As the speed of the car increases, the orange curve widens. So faster the car is travelling, the more you will need to look ahead and behind. The height of the intersection of a car with the orange curve determines Lx​.;Le coût de proximité a deux composantes (Lx​ et Ly​). Ly​ est similaire au coût de la voie et LxLx​ dépend de la vitesse de notre voiture. La courbe orange de la figure 6 nous renseigne sur la distance de sécurité. Plus la vitesse de la voiture augmente, plus la courbe orange s’élargit. Plus la voiture roule vite, plus il faut regarder devant et derrière. La hauteur de l’intersection d’une voiture avec la courbe orange détermine Lx​. The product of these two components gives us the proximity cost.;Le produit de ces deux éléments nous donne le coût de la proximité. Learning world model;Apprentissage d’un modèle du monde The world model is fed with an action atat​ (steering, brake, and acceleration) and s1:t​ (sequence of states where each state is represented by position, velocity and context images at that time) and it predicts the next state s^t+1​. On the other hand, we have the real world which tells us what actually happened (st+1​). We optimize MSE (Mean Squared Error) between prediction (s^t+1​) and target (st+1​) to train our model.;Le modèle du monde est alimenté par une action atat​ (direction, freinage et accélération) et s1:t​ (séquence d’états où chaque état est représenté par des images de position, de vitesse et de contexte à ce temps) et il prédit l’état suivant s^t+1​. D’autre part, nous avons le monde réel qui nous dit ce qui s’est réellement passé (st+1​). Nous optimisons la MSE entre la prédiction (s^t+1​) et la cible (st+1​) pour entraîner notre modèle. Deterministic predictor-decoder;Prédicteur-décodeur déterministe One way to train our world model is by using a predictor-decoder model explained below.;L’une des façons d’entraîner notre modèle du monde est d’utiliser un modèle prédicteur-décodeur expliqué ci-dessous. As depicted in Figure 8, we have a sequence of states(s1:t​) and action (at​) which are provided to the predictor module. The predictor outputs a hidden representation of the future which is passed on to the decoder. The decoder is decoding the hidden representation of the future and outputs a prediction(s^t+1​). We then train our model by minimising MSE between prediction s^t+1​ and target st+1​.;Comme le montre la figure 8, nous avons une séquence d’états (s1:t​) et d’actions (at) qui sont fournies au module prédicteur. Le prédicteur produit une représentation cachée de l’avenir qui est transmise au décodeur. Le décodeur décode la représentation cachée du futur et émet une prédiction (s^t+1​). Nous entraînons ensuite notre modèle en minimisant la MSE entre la prédiction s^t+1​ et la cible st+1​. Unfortunately, this does not work!;Malheureusement, cela ne fonctionne pas ! We see that the deterministic output becomes very hazy. This is because our model is averaging over all the future possibilities. This can be compared to the future’s multimodality discussed a couple of classes earlier, where a pen placed at origin is dropped randomly. If we take the average across all locations, it gives us a belief that pen never moved which is incorrect.;Nous constatons que le résultat déterministe devient très flou. C’est parce que notre modèle fait la moyenne de toutes les possibilités futures. Cela peut être comparé à la multimodalité du futur dont nous avons déjà évoqué dans un cours précédent où un stylo placé à l’origine est laché au hasard. Si nous prenons la moyenne de tous les endroits, cela nous donne l’impression que le stylo n’a jamais bougé, ce qui est incorrect. We can address this problem by introducing latent variables in our model.;Nous pouvons résoudre ce problème en introduisant des variables latentes dans notre modèle. Variational predictive network;Réseau prédictif variationnel To solve the problem stated in the previous section, we add a low dimensional latent variable zt to the original network which goes through an expansion module fexpfexp​ to match the dimensionality.;Pour résoudre le problème énoncé dans la section précédente, nous ajoutons une variable latente de faible dimension zt au réseau d’origine qui passe par un module d’expansion fexpfexp​ pour correspondre à la dimensionnalité. The zt is chosen such that the MSE is minimized for a specific prediction. By tuning the latent variable, you can still get MSE to zero by doing gradient descent into latent space. But this is very expensive. So, we can actually predict that latent variable using an encoder. Encoder takes the future state to give us a distribution with a mean and variance from which we can sample zt​.;Le zt est choisi de telle sorte que la MSE soit minimisée pour une prévision spécifique. En réglant la variable latente, vous pouvez toujours ramener la MSE à zéro en effectuant une descente de gradient dans l’espace latent. Mais c’est très coûteux. Nous pouvons donc réellement prédire cette variable latente en utilisant un encodeur. L’encodeur prend l’état futur pour nous donner une distribution avec une moyenne et une variance à partir de laquelle nous pouvons échantillonner zt​. During training, we can find out what is happening by looking into the future and getting information from it and use that information to predict the latent variable. However, we don’t have access to the future during testing time. We fix this by enforcing the encoder to give us a posterior distribution as close as possible to the prior by optimizing KL divergence.;Pendant l’entraînement, nous pouvons découvrir ce qui se passe en regardant dans le futur et en en tirant des informations et utiliser ces informations pour prédire la variable latente. Cependant, nous n’avons pas accès à l’avenir pendant la durée des tests. Nous réglons ce problème en appliquant l’encodeur pour obtenir une distribution postérieure aussi proche que possible de la distribution antérieure en optimisant la divergence KL. Now, let us look at the inference - How do we drive?;Maintenant, examinons l’inférence. Comment conduisons-nous ? We sample the low-dimensional latent variable zt​ from the prior by enforcing the encoder to shoot it towards this distribution. After getting the prediction s^t+1​, we put it back (in an auto-regressive step) and get the next prediction s^t+2​ and keep feeding the network this way.;Nous échantillonnons la variable latente de faible dimension zt​ de la précédente en forçant l’encodeur à la tirer vers cette distribution. Après avoir obtenu la prédiction s^t+1​, nous la remettons (dans une étape autorégressive) et obtenons la prédiction suivante s^t+2​ et continuons à alimenter le réseau de cette façon. On the right hand side in the above figure, we can see four different draws from the normal distribution. We start with same initial state and provide different 200 values to the latent variable.;Dans la partie droite de la figure ci-dessus, on peut voir quatre tirages différents de la distribution normale. Nous partons du même état initial et fournissons 200 valeurs différentes à la variable latente. We can notice that providing different latent variables generates different sequences of states with different behaviours. Which means we have a network that generates the future. Quite fascinating!;Nous pouvons remarquer que le fait de fournir différentes variables latentes génère différentes séquences d’états avec différents comportements. Ce qui signifie que nous disposons d’un réseau qui génère le futur. What’s next?;Quelle est la prochaine étape ? We can now use this huge amount of data to train our policy by optimizing the lane and proximity costs described above.;Nous pouvons maintenant utiliser cette énorme quantité de données pour entraîner notre politique en optimisant les coûts de voies et de proximité décrits ci-dessus. These multiple futures come from the sequence of latent variables that you feed to the network. If you perform gradient ascent - in the latent space, you try to increase the proximity cost so you get the sequence of latent variables such that the other cars are going to be driving into you.;Ces futurs multiples proviennent de la séquence de variables latentes que l’on donne au réseau. Si nous effectuons une montée de gradient dans l’espace latent, nous essayons d’augmenter le coût de proximité afin d’obtenir la séquence de variables latentes de sorte que les autres voitures vont nous foncer dessus. Action insensitivity & latent dropout;Insensibilité à l’action et dropout latent Given that you actually have access to the future, if you turn to the left even slightly, everything is going to be turning to the right and that will contribute in a huge way to the MSE. The MSE loss can be minimized if the latent variable can inform the bottom part of the network that everything is going to turn to the right - which is not what we want! We can tell when everything turns to the right since that is a deterministic task.;Étant donné que nous avons réellement accès à l’avenir, si nous tournons à gauche, même légèrement, tout va tourner à droite et cela va contribuer de façon énorme à la MSE. La perte MSE peut être minimisée si la variable latente peut informer la partie inférieure du réseau que tout va tourner à droite, ce qui n’est pas ce que nous voulons ! Nous pouvons dire quand tout tourne à droite puisque c’est une tâche déterministe. The big arrow in Figure 15 signifies a leak of information and therefore it was not any more sensitive to the current action being provided to the predictor.;La grande flèche de la figure 15 signifie une fuite d’informations et donc n’est pas plus sensible à l’action en cours fournie au prédicteur. In figure 16, in the rightmost diagram we have the real sequence of latent variables (the latent variables that allow us to get the most precise future) and we have the real sequence of actions taken by the expert. The two figures to the left of this one have randomly sampled latent variables but the real sequence of actions so we expect to see the steering. The last one on the left-hand side has the real sequence of latent variable but arbitrary actions and we can clearly see that the turning came mostly from the latent rather than the action, which encodes the rotation and the action (which are sampled from other episodes).;Dans la figure 16, dans le diagramme le plus à droite, nous avons la séquence réelle des variables latentes (les variables latentes qui nous permettent d’obtenir le futur le plus précis) et nous avons la séquence réelle des actions prises par l’expert. Les deux figures à gauche de celle-ci ont un échantillon aléatoire de variables latentes mais la séquence réelle d’actions, donc nous nous attendons à voir le pilotage. La dernière à gauche a la séquence réelle des variables latentes, mais des actions arbitraires, et nous pouvons clairement voir que la rotation provient principalement de la variable latente plutôt que de l’action, ce qui encode la rotation et l’action (qui sont échantillonnées à partir d’autres épisodes). How to fix this problem?;Comment résoudre ce problème ? The problem is not a memory leak but an information leak. We fix this problem by simply dropping out this latent and sampling it from the prior distribution at random. We don’t always rely on the output of the encoder (fencfenc​) but pick from the prior. In this way, you cannot encode the rotation in the latent variable any more. In this way, information gets encoded in the action rather than the latent variable.;Le problème n’est pas une fuite de mémoire mais une fuite d’informations. Nous réglons ce problème en éliminant simplement cette latente et en la prélevant au hasard dans la distribution antérieure. Nous ne nous appuyons pas toujours sur la sortie de l’encodeur (fencfenc​) mais nous prélevons dans la distribution antérieure. De cette façon, nous ne pouvons plus encoder la rotation dans la variable latente. Ainsi l’information est encodée dans l’action plutôt que dans la variable latente. In the last two images on the right-hand side, we see two different sets of latent variables having a real sequence of actions and these networks have been trained with the latent dropout trick. We can now see that the rotation is now encoded by the action and no longer by the latent variables.;Sur les deux dernières images de droite, on voit deux ensembles différents de variables latentes ayant une séquence réelle d’actions et ces réseaux ont été entraînés avec l’astuce du dropout latent. Nous pouvons maintenant voir que la rotation est maintenant codée par l’action et non plus par les variables latentes. Training the agent;Entraînement de l’agent In the previous sections, we saw how we can obtain a world model by simulating real world experiences. In this section, we will use this world model to train our agent. Our goal is to learn the policy to take an action given the history of previous states. Given a state st (velocity, position & context images), the agent takes an action atat​ (acceleration, brake & steering), the world model outputs a next state and cost associated with that (st,at) pair which is a combination of proximity cost and lane cost.;Dans les sections précédentes, nous avons vu comment nous pouvons obtenir un modèle du monde en simulant des expériences réelles. Dans cette section, nous utilisons ce modèle du monde pour l’entraînement de notre agent. Notre objectif est d’apprendre la politique à suivre pour agir, compte tenu de l’histoire des états précédents. Étant donné un état st (vitesse, position et images de contexte), l’agent entreprend une action atat​ (accélération, freinage et direction), le modèle du monde produit un état suivant et le coût associé à cette paire (st​,at​) qui est une combinaison du coût de proximité et du coût de la voie. As discussed in the previous section, to avoid hazy predictions, we need to sample latent variable zt from the encoder module of the future state st+1​ or from prior distribution P(z). The world model gets previous states s1:t​, action taken by our agent and latent variable zt to predict the next state s^t+1​ and the cost. This constitutes one module that is replicated multiple times (Figure 19) to give us final prediction and loss to optimize.;Comme nous l’avons vu dans la section précédente, pour éviter des prédictions floues, nous devons échantillonner la variable latente zt du module encodeur de l’état futur st+1​ ou de la distribution antérieure P(z). Le modèle du monde obtient les états précédents s1:t​, les mesures prises par notre agent et la variable latente zt pour prédire l’état suivant s^t+1​ et le coût. Cela constitue un module qui est reproduit plusieurs fois (figure 19) pour nous donner la prédiction finale et la perte à optimiser. So, we have our model ready. Let’s see how it looks !;Notre modèle est prêt, voyons de quoi il a l’air. Unfortunately, this does not work. Policy trained this way is not useful as it learns to predict all black since it results in zero cost.;Malheureusement, cela ne fonctionne pas. La politique entraînée de cette façon n’est pas utile car elle apprend à prédire tout le noir puisqu’il en résulte un coût nul. How can we address this issue? Can we try imitating other vehicles to improve our predictions?;Comment pouvons-nous résoudre ce problème ? Pouvons-nous essayer d’imiter d’autres véhicules pour améliorer nos prévisions ? Imitating the expert;Imiter l’expert How do we imitate the experts here? We want the prediction of our model after taking a particular action from a state to be as close as possible to the actual future. This acts as an expert regulariser for our training. Our cost function now includes both the task specific cost(proximity cost and lane cost) and this expert regulariser term. Now as we are also calculating the loss with respect to the actual future, we have to remove the latent variable from the model because the latent variable gives us a specific prediction, but this setting works better if we just work with the average prediction.;Comment imiter les experts ici ? Nous voulons que la prédiction de notre modèle après une action particulière d’un état soit aussi proche que possible de l’avenir réel. Cela agit comme un régulariseur expert pour notre entraînement. Notre fonction de coût comprend maintenant à la fois le coût spécifique de la tâche (coût de proximité et coût de la voie) et ce terme de régulariseur expert. Maintenant que nous calculons également la perte par rapport à l’avenir réel, nous devons supprimer la variable latente du modèle parce qu’elle nous donne une prédiction spécifique, mais ce paramètre fonctionne mieux si nous travaillons uniquement avec la prédiction moyenne. So how does this model perform?;Comment ce modèle fonctionne-t-il ? As we can see in the above figure, the model actually does incredibly well and learns to make very good predictions. This was model based imitation learning, we tried to model our agent to try to imitate others.;Comme nous pouvons le voir dans la figure ci-dessus, le modèle fonctionne en fait incroyablement bien et apprend à faire de très bonnes prédictions. C’était un apprentissage par imitation basé sur le modèle, nous avons essayé de modeler notre agent pour essayer d’imiter les autres. But can we do better? Did we just train the Variational Autoencoder to remove it in the end?;Mais pouvons-nous faire mieux ? Avons-nous simplement entraîné l’auto-encodeur variationnel pour le supprimer à la fin ? It turns out we can still improve if we look to minimize the uncertainty of the forward model predictions.;Il s’avère que nous pouvons encore améliorer les résultats si nous cherchons à minimiser l’incertitude des prédictions du modèle prédictif. Minimizing the Forward Model Uncertainty;Minimiser l’incertitude du modèle prédictif What do we mean by minimizing forward model uncertainty and how would we do it? Before we answer that, let’s recap something we saw in the third week’s practicum.;Qu’entendons-nous par réduire au minimum l’incertitude des modèles de prédiction et comment le faire ? Avant de répondre à cette question, récapitulons ce que nous avons vu au cours de la troisième semaine. If we train multiple models on the same data, all those models agree on the points in the training region (shown in red) resulting in zero variance in the training region. But as we move further away from the training region, the trajectories of loss functions of these models start diverging and variance increases. This is depicted in the figure 23. But as the variance is differentiable, we can run gradient descent over the variance in order to minimize it.;Si nous entraînons plusieurs modèles sur les mêmes données, tous ces modèles s’accordent sur les points de la région d’entraînement (indiquée en rouge), ce qui donne une variance nulle dans la région d’entraînement. Mais plus nous nous éloignons de la région d’entraînement, plus les trajectoires des fonctions de perte de ces modèles commencent à diverger et plus la variance augmente. Ceci est illustré par la figure 23. Mais comme la variance est différentiable, nous pouvons effectuer une descente de gradient sur la variance afin de la minimiser. Coming back to our discussion, we observe that learning a policy using only observational data is challenging because the distribution of states it produces at execution time may differ from what was observed during the training phase. The world model may make arbitrary predictions outside the domain it was trained on, which may wrongly result in low cost. The policy network may then exploit these errors in the dynamics model and produce actions which lead to wrongly optimistic states.;Pour en revenir à notre discussion, nous constatons que l’apprentissage d’une politique uniquement à l’aide de données d’observation est difficile car la distribution des états qu’elle produit au moment de l’exécution peut différer de ce qui a été observé pendant la phase d’entraînement. Le modèle du monde peut faire des prédictions arbitraires en dehors du domaine sur lequel il a été entraîné, ce qui peut entraîner des coûts peu élevés. Le réseau politique peut alors exploiter ces erreurs dans le modèle dynamique et produire des actions qui conduisent à des états faussement optimistes. To address this, we propose an additional cost which measures the uncertainty of the dynamics model about its own predictions. This can be calculated by passing the same input and action through several different dropout masks, and computing the variance across the different outputs. This encourages the policy network to only produce actions for which the forward model is confident.;Pour y remédier, nous proposons un coût supplémentaire qui mesure l’incertitude du modèle dynamique sur ses propres prédictions. Ce coût peut être calculé en faisant passer la même entrée et la même action par plusieurs masques de dropout différents, et en calculant la variance entre les différentes sorties. Cela encourage le réseau politique à ne produire que des actions pour lesquelles le modèle de prospective est confiant. So, does uncertainty regulariser help us in learning better policy? Yes, it does. The policy learned this way is better than the previous models.;Alors, la régularisation de l’incertitude nous aide-t-elle à apprendre une meilleure politique ? Oui. La politique ainsi apprise est meilleure que les modèles précédents. Evaluation;Évaluation Figure 26 shows how well our agent learned to drive in dense traffic. Yellow car is the original driver, blue car is our learned agent and all green cars are blind to us (cannot be controlled).;La figure 26 montre à quel point notre agent a appris à conduire dans un trafic dense. La voiture jaune est le conducteur d’origine, la voiture bleue est notre agent entraîné et toutes autres, les voitures vertes, sont celles qui ne peuvent pas être contrôlées. Week 12;Semaine 12 In this section we discuss the various architectures used in NLP applications, beginning with CNNs, RNNs, and eventually covering the state of-the art architecture, transformers. We then discuss the various modules that comprise transformers and how they make transformers advantageous for NLP tasks. Finally, we discuss tricks that allow transformers to be trained effectively.;Dans cette section, nous discutons des différentes architectures utilisées dans les applications de traitement du langage naturel, en commençant par les ConvNets, les RNNs et en couvrant finalement l’architecture de pointe, les transformers. Nous abordons ensuite les différents modules qui composent les transformers et leurs avantages pour les tâches de texte. Enfin, nous discutons des astuces qui permettent d’entraîner efficacement les transformers. In this section we introduce beam search as a middle ground between greedy decoding and exhaustive search. We consider the case of wanting to sample from the generative distribution (i.e. when generating text) and introduce “top-k” sampling. Subsequently, we introduce sequence to sequence models (with a transformer variant) and backtranslation. We then introduce unsupervised learning approaches for learning embeddings and discuss word2vec, GPT, and BERT.;Dans cette section, nous présentons la recherche en faisceau comme un consensus entre le décodage gourmand et la recherche exhaustive. Nous considérons le cas de vouloir échantillonner à partir de la distribution générative (c’est-à-dire lors de la génération de texte) et introduisons l’échantillonnage top-k. Ensuite, nous introduisons les modèles de séquence à séquence (avec une variante pour les transformers) et la rétrotraduction. Nous voyons enfin des approches d’apprentissage non supervisées pour l’apprentissage des enchâssements et discutons de word2vec, GPT et BERT. We introduce attention, focusing on self-attention and its hidden layer representations of the inputs. Then, we introduce the key-value store paradigm and discuss how to represent queries, keys, and values as rotations of an input. Finally, we use attention to interpret the transformer architecture, taking a forward pass through a basic transformer, and comparing the encoder-decoder paradigm to sequential architectures.;Nous introduisons l’attention, en nous concentrant sur l’auto-attention et ses représentations de couches cachées des entrées. Ensuite, nous abordons le paradigme des valeurs des clés et discutons de la manière de représenter les requêtes, les clés et les valeurs comme des rotations d’une entrée. Enfin, nous utilisons l’attention pour interpréter l’architecture du transformer, en prenant une propagation avant à travers un transformer de base. Enfin nous comparons le paradigme de l’encodeur-décodeur à celui des architectures séquentielles. Deep Learning for NLP;Apprentissage profond pour le traitement du langage naturel Overview;Vue d’ensemble Amazing progress in recent years:;Progrès impressionnants au cours des dernières années : Humans prefer machine translation to human translators for some languages;Les humains préfèrent la traduction automatique aux traducteurs humains pour certaines langues Super-human performance on many question answering datasets;Des performances supérieures à l’humaine pour de nombreux jeux de données de réponse aux questions Language models generate fluent paragraphs (e.g Radford et al. 2019);Les modèles linguistiques génèrent des paragraphes fluides (par exemple Radford et al. (2019)) Minimal specialist techniques needed per task, can achieve these things with fairly generic models;Un minimum de techniques spécialisées nécessaires par tâche, peut être réalisé avec des modèles assez génériques Language Models;Modèles de langue Language models assign a probability to a text: p(x0,⋯ ,xn);Les modèles linguistiques attribuent une probabilité à un texte : p(x0,⋯ ,xn) Many possible sentences so we can’t just train a classifier;Beaucoup de phrases possibles donc on ne peut pas juste entraîner un classifieur Most popular method is to factorize distribution using chain rule:;La méthode la plus populaire consiste à factoriser la distribution en utilisant la règle de la chaîne : Neural Language Models;Modèles de langue neuronaux Basically we input the text into a neural network, the neural network will map all this context onto a vector. This vector represents the next word and we have some big word embedding matrix. The word embedding matrix contains a vector for every possible word the model can output. We then compute similarity by dot product of the context vector and each of the word vectors. We’ll get a likelihood of predicting the next word, then train this model by maximum likelihood. The key detail here is that we don’t deal with words directly, but we deal with things called sub-words or characters.;Grossièrement, nous entrons le texte dans un réseau de neurones qui va associer tout le contexte à un vecteur. Ce vecteur représente le mot suivant et nous disposons d’une matrice d’enchâssement de mots importants. Cette matrice contient un vecteur pour chaque mot possible que le modèle peut produire. Nous calculons la similarité par le produit scalaire du vecteur de contexte et de chacun des vecteurs de mots. Nous obtenons une probabilité de prédire le mot suivant, puis nous entraînons ce modèle par maximum de vraisemblance. Le détail clé ici est que nous ne traitons pas directement les mots mais des sous-mots ou des caractères. Convolutional Language Models;Modèles de langue convolutifs The first neural language model;Il s’agit du premier type de modèle linguistique neuronal. Embed each word as a vector, which is a lookup table to the embedding matrix, so the word will get the same vector no matter what context it appears in. Apply same feed forward network at each time step;Il consiste à enchâsser chaque mot comme un vecteur, qui est une table de recherche de la matrice d’enchâssement, de sorte que le mot a le même vecteur quel que soit le contexte dans lequel il apparaît. On applique ensuite le même réseau feed forward à chaque pas de temps. Unfortunately, fixed length history means it can only condition on bounded context;Malheureusement, la longueur fixe signifie qu’il ne peut être conditionné qu’à un contexte délimité. These models do have the upside of being very fast;Ces types de modèles ont l’avantage d’être très rapides. Recurrent Language Models;Modèles de langue récurrents The most popular approach until a couple years ago.;L’approche la plus populaire jusqu’à il y a quelques années. Conceptually straightforward: every time step we maintain some state (received from the previous time step), which represents what we’ve read so far. This is combined with current word being read and used at later state. Then we repeat this process for as many time steps as we need.;Conceptuellement simple : à chaque pas de temps, nous maintenons un certain état (reçu du pas de temps précédent, qui représente ce que nous avons lu jusqu’à présent). Ceci est combiné avec le mot courant qui est lu et utilisé à l’état ultérieur. Ensuite, nous répétons ce processus pour autant de pas de temps que nécessaire. Uses unbounded context: in principle the title of a book would affect the hidden states of last word of the book.;Utilise un contexte sans limite : en principe, le titre d’un livre affecterait les états cachés du dernier mot du livre. Disadvantages:;Inconvénients : The whole history of the document reading is compressed into fixed-size vector at each time step, which is the bottleneck of this model;Toute l’histoire de la lecture du document est compressée en un vecteur de taille fixe à chaque étape temporelle, ce qui constitue le goulot d’étranglement de ce modèle. Gradients tend to vanish with long contexts;Les gradients ont tendance à disparaître avec des contextes longs. Not possible to parallelize over time-steps, so slow training;Impossible de paralléliser les étapes temporelles donc l’entraînement est lent. Transformer Language Models;Modèles de langue basé sur un transformer Most recent model used in NLP;Modèle le plus récent en traitement du langage naturel. Revolutionized penalty;Pénalité révolutionnaire. Three main stages;Trois grandes étapes : Input stage;Étape d’entrée n times transformer blocks (encoding layers) with different parameters;n fois les blocs de transformer (couches d’encodage) avec différents paramètres Output stage;Etape de sortie Example with 6 transformer modules (encoding layers) in the original transformer paper:;Exemple avec 6 modules de transformer (couches d’encodage) dans le papier introduisant le transformer : Sub-layers are connected by the boxes labelled “Add&Norm”. The “Add” part means it is a residual connection, which helps in stopping the gradient from vanishing. The norm here denotes layer normalization.;Les sous-couches sont reliées par les cases intitulées Add&Norm. La partie Add signifie qu’il s’agit d’une connexion résiduelle, qui contribue à empêcher la disparition du gradient. La partie Norm désigne ici la normalisation des couches. It should be noted that transformers share weights across time-steps.;Il convient de noter que les transformers partagent les poids entre les étapes du temps. Multi-headed attention;Attention multi-têtes For the words we are trying to predict, we compute values called query(q). For all the previous words use to predict we call them keys(k). Query is something that tells about the context, such as previous adjectives. Key is like a label containing information about the current word such as whether it’s an adjective or not. Once q is computed, we can derive the distribution of previous words (pipi​):;Pour les mots que nous essayons de prédire, nous calculons des valeurs appelées query(q). Nous appelons keys(k) tous les mots précédents utilisés pour prédire. La requête (q) nous renseigne sur le contexte, par exemple les adjectifs précédents. La clé (k) est comme un label contenant des informations sur le mot courant, par exemple si c’est un adjectif ou non. Une fois que q est calculée, nous pouvons dériver la distribution des mots précédents (pipi​) : Then we also compute quantities called values(v) for the previous words. Values represent the content of the words.;Ensuite, nous calculons des quantités appelées values(v) pour les mots précédents. Les valeurs représentent le contenu des mots. Once we have the values, we compute the hidden states by maximizing the attention distribution:;Une fois que nous avons les valeurs (v), nous calculons les états cachés en maximisant la distribution de l’attention : We compute the same thing with different queries, values, and keys multiple times in parallel. The reason for this is that we want to predict the next word using different things. For example, when we predict the word “unicorns” using three previous words “These” “horned” and “silver-white”. We know it is a unicorn by “horned” “silver-white”. However, we can know it is plural “unicorns” by “These”. Therefore, we probably want to use all these three words to know what the next word should be. Multi-headed attention is a way of letting each word look at multiple previous words.;Nous calculons la même chose avec différentes requêtes, valeurs et clés plusieurs fois en parallèle. La raison en est que nous voulons prédire le mot suivant en utilisant différentes choses. Par exemple, lorsque nous prédisons le mot « licornes » en utilisant les trois mots précédents « Ces », « cornues » et « blanc argenté ». Nous savons que c’est une licorne par « cornue » et « blanc argenté ». Nous pouvons savoir qu’il s’agit du pluriel « licornes » par « Ces ». Par conséquent, nous voulons utiliser ces trois mots pour savoir quel sera le prochain mot. L’attention à plusieurs têtes est une façon de laisser chaque mot regarder plusieurs mots précédents. One big advantage about the multi-headed attention is that it is very parallelisable. Unlike RNNs, it computes all heads of the multi-head attention modules and all the time-steps at once. One problem of computing all time-steps at once is that it could look at futures words too, while we only want to condition on previous words. One solution to that is what is called self-attention masking. The mask is an upper triangular matrix that have zeros in the lower triangle and negative infinity in the upper triangle. The effect of adding this mask to the output of the attention module is that every word to the left has a much higher attention score than words to the right, so the model in practice only focuses on previous words. The application of the mask is crucial in language model because it makes it mathematically correct, however, in text encoders, bidirectional context can be helpful.;Un grand avantage de l’attention multi-têtes est qu’elle est très parallélisable. Contrairement aux RNNs, le calcul de toutes les têtes des modules d’attention multi-têtes et toutes les étapes de temps peut se faire en même temps. Un des problèmes du calcul de tous les pas de temps en une fois est qu’il pourrait également examiner les mots futurs, alors que nous ne voulons que conditionner les mots précédents. Une solution à ce problème est ce que l’on appelle le masquage de l’auto-attention. Le masque est une matrice triangulaire supérieure qui comporte des zéros dans le triangle inférieur et une infinité négative dans le triangle supérieur. L’effet de l’ajout de ce masque à la sortie du module d’attention est que chaque mot à gauche a un score d’attention beaucoup plus élevé que les mots à droite, de sorte que le modèle en pratique se concentre uniquement sur les mots précédents. L’application du masque est cruciale dans le modèle linguistique car elle le rend mathématiquement correct. Cependant, dans les modules encodeurs, le contexte bidirectionnel peut être utile. One detail to make the transformer language model work is to add the positional embedding to the input. In language, some properties like the order are important to interpret. The technique used here is learning separate embeddings at different time-steps and adding these to the input, so the input now is the summation of word vector and the positional vector. This gives the order information.;Un détail pour faire fonctionner le transformer est d’ajouter l’enchâssement positionnel à l’entrée (l’ordre des mots dans un texte). Dans le langage, certaines propriétés comme l’ordre sont importantes à interpréter. La technique utilisée ici est l’apprentissage d’enchâssements séparés à différents moments et les ajouter à l’entrée de sorte que l’entrée est maintenant la somme du vecteur mot et du vecteur positionnel. Cela donne des informations sur l’ordre. Why the model is so good:;Pourquoi le modèle est si bon : 1. It gives direct connections between each pair of words. Each word can directly access the hidden states of the previous words, mitigating vanishing gradients. It learns very expensive function very easily;1. Il donne des liens directs entre chaque paire de mots. Chaque mot peut accéder directement aux états cachés des mots précédents, ce qui atténue la disparition des gradients. Il apprend très facilement une fonction très coûteuse. 2. All time-steps are computed in parallel;2. Toutes les étapes temporelles sont calculées en parallèle. 3. Self-attention is quadratic (all time-steps can attend to all others), limiting maximum sequence length;3. L’auto-attention est quadratique (tous les pas de temps peuvent s’occuper de tous les autres), ce qui limite la longueur maximale des séquences. Some tricks (especially for multi-head attention and positional encoding) and decoding Language Models;Quelques astuces (notamment pour l’attention multi-tête et le codage positionnel) et le décodage des modèles de langue Trick 1: Extensive use of layer normalization to stabilize training is really helpful;Astuce 1 : l’utilisation de la normalisation par couches pour stabiliser l’entraînement Really important for transformers;Astuce très importante pour les transformers Trick 2: Warm-up + Inverse-square root training schedule;Astuce 2 : échauffement (warm-up) et grille d’entraînement utilisant la racine carrée inverse Make use of learning rate schedule: in order to make the transformers work well, you have to make your learning rate decay linearly from zero to thousandth steps.;Utiliser une grille de taux d’apprentissage fonctionne bien pour que les transformers. Il faut faire décroître le taux d’apprentissage de façon linéaire de zéro à des millièmes de pas. Trick 3: Careful initialization;Truc 3 : soigner l’initialisation Really helpful for a task like machine translation;Vraiment utile pour une tâche comme la traduction automatique Trick 4: Label smoothing;Astuce 4 : lissage des étiquettes Really helpful for a task like machine translation;Vraiment utile pour une tâche comme la traduction automatique The following are the results from some methods mentioned above. In these tests, the metric on the right called ppl was perplexity (the lower the ppl the better).;Voici les résultats de certaines méthodes mentionnées ci-dessus. Dans ces tests, la métrique de droite appelée ppl était la perplexité (plus la ppl est basse, mieux c’est). You could see that when transformers were introduced, the performance was greatly improved.;La performance a été grandement améliorée avec l’introduction des transformers. Some important facts of Transformer Language Models;Quelques faits importants sur les transformers Minimal inductive bias;Biais inductif minime All words directly connected, which will mitigate vanishing gradients.;Tous les mots sont directement liés, ce qui atténue la disparition des gradients All time-steps computed in parallel.;Tous les pas de temps sont calculés en parallèle Self attention is quadratic (all time-steps can attend to all others), limiting maximum sequence length. As self attention is quadratic, its expense grows linearly in practice, which could cause a problem.;L’auto-attention est quadratique (tous les pas de temps peuvent s’occuper de tous les autres), ce qui limite la longueur maximale de la séquence. La nature quadratique entraîne aussi que la dépense augmente linéairement ce qui pourrait poser un problème en pratique. Transformers scale up very well;Les transformers passent à l’échelle très bien 1. Unlimited training data, even far more than you need;1. Des données illimitées pour l’entraînement (n’importe quel texte sur internet), bien plus que ce dont vous avez besoin. 2. GPT 2 used 2 billion parameters in 2019;2. Le GPT-2 a utilisé 2 milliards de paramètres en 2019. 3. Recent models (during this course in 2020) use several billion parameters: 17B for T5, 175B for GPT3.;3. Les modèles récents (lors de ce cours en 2020) utilisent plusieurs milliards de paramètres : 17Mds pour le T5, 175Mds pour le GPT3. Decoding Language Models;Décodage des modèles de langue We can now train a probability distribution over text - now essentially we could get exponentially many possible outputs, so we can’t compute the maximum. Whatever choice you make for your first word could affect all the other decisions. Thus, given that, the greedy decoding was introduced as follows.;Nous pouvons maintenant entraîner une distribution de probabilité sur le texte. Grossièrement, nous pouvons obtenir un nombre exponentiel de sorties possibles donc nous ne pouvons pas calculer le maximum. Le choix effectué pour votre premier mot peut avoir une incidence sur toutes les autres décisions. Ainsi, étant donné cela, le décodage gourmand (greedy decoding) a été introduit comme suit. Greedy Decoding does not work;Le décodage gourmand ne fonctionne pas We take most likely word at each time step. However, no guarantee this gives most likely sequence because if you have to make that step at some point, then you get no way of back-tracking your search to undo any previous sessions.;Nous prenons les mots les plus vraisemblables à chaque pas de temps. Cependant, rien ne garantit que cela donne la séquence la plus probable car si nous devons franchir cette étape à un moment donné, il n’y a aucun moyen de revenir en arrière pour annuler les sessions précédentes. Exhaustive search also not possible;Une recherche exhaustive n’est pas non plus possible It requires computing all possible sequences and because of the complexity of O(VT), it will be too expensive;Il faut calculer toutes les séquences possibles et en raison de la complexité en O(VT), c’est trop cher computationnellement. Students' Questions;Questions des étudiants What is the benefit of multi-headed attention as opposed to a single-headed attention model?;Quel est l’avantage d’un modèle d’attention à plusieurs têtes par rapport à un modèle d’attention à une seule tête ? To predict the next word you need to observe multiple separate things, in other words attention can be placed on multiple previous words in trying to understand the context necessary to predict the next word.;Pour prédire le mot suivant, vous devez observer plusieurs choses séparées, en d’autres termes, l’attention peut être portée sur plusieurs mots précédents en essayant de comprendre le contexte nécessaire pour prédire le mot suivant. How do transformers solve the informational bottlenecks of CNNs and RNNs?;Comment les transformers résolvent-ils les goulots d’étranglement informationnels des ConvNets et des RNNs ? Attention models allow for direct connection between all words allowing for each word to be conditioned on all previous words, effectively removing this bottleneck.;Les modèles d’attention permettent une connexion directe entre tous les mots, ce qui permet de conditionner chaque mot à tous les mots précédents, éliminant ainsi efficacement ce goulot d’étranglement. How do transformers differ from RNNs in the way they exploit GPU parallelization?;En quoi les transformers diffèrent-ils des RNNs dans la manière dont ils exploitent la parallélisation des GPUs ? The multi-headed attention modules in transformers are highly parallelisable whereas RNNs are not and therefore cannot take advantage of GPU technology. In fact transformers compute all time steps at once in single forward pass.;Les modules d’attention multi-têtes des transformers sont hautement parallélisables alors que les RNNs ne le sont pas et ne peuvent donc pas tirer profit de la technologie GPU. En fait, les transformers calculent tous les pas de temps en une seule passe vers l’avant. Decoding Language Models;Décoder les modèles de langue Beam Search;Recherche en faisceau Beam search is another technique for decoding a language model and producing text. At every step, the algorithm keeps track of the kk most probable (best) partial translations (hypotheses). The score of each hypothesis is equal to its log probability.;La recherche en faisceau est une autre technique pour décoder un modèle de langue et produire du texte. À chaque étape, l’algorithme garde une trace des kk plus probables (meilleures) traductions partielles (hypothèses). Le score de chaque hypothèse est égal à son logarithme de probabilité. The algorithm selects the best scoring hypothesis.;L’algorithme sélectionne la meilleure hypothèse basée sur un score. How deep does the beam tree branch out ?;A quelle profondeur l’arbre des faisceaux se ramifie-t-il ? The beam tree continues until it reaches the end of sentence token. Upon outputting the end of sentence token, the hypothesis is finished.;L’arbre des faisceaux continue jusqu’à ce qu’il atteigne le token de fin de phrase. Une fois le token de fin de phrase émis, l’hypothèse est terminée. Why (in NMT) do very large beam sizes often results in empty translations?;Pourquoi les très grandes tailles de faisceau entraînent-elles souvent des traductions vides ? At training time, the algorithm often does not use a beam, because it is very expensive. Instead it uses auto-regressive factorization (given previous correct outputs, predict the n+1 first words). The model is not exposed to its own mistakes during training, so it is possible for “nonsense” to show up in the beam.;Au moment de l’entraînement, l’algorithme n’utilise souvent pas de faisceau, car c’est très coûteux. Il utilise plutôt la factorisation auto-régressive (en fonction des sorties correctes précédentes, prédire les premiers mots n+1). Le modèle n’est pas exposé à ses propres erreurs pendant l’entraînement, il est donc possible que des absurdités apparaissent dans le faisceau. Summary: Continue beam search until all kk hypotheses produce end token or until the maximum decoding limit T is reached.;Résumé : continuer la recherche de faisceau jusqu’à ce que toutes les hypothèses kk produisent un token de fin ou jusqu’à ce que la limite maximale de décodage T soit atteinte. Sampling;Échantillonnage We may not want the most likely sequence. Instead we can sample from the model distribution.;Nous ne voulons peut-être pas la séquence la plus probable. Nous pouvons plutôt prélever un échantillon à partir de la distribution du modèle. However, sampling from the model distribution poses its own problem. Once a “bad” choice is sampled, the model is in a state it never faced during training, increasing the likelihood of continued “bad” evaluation. The algorithm can therefore get stuck in horrible feedback loops.;Cependant, l’échantillonnage à partir de la distribution du modèle pose son propre problème. Une fois qu’un mauvais choix est échantillonné, le modèle se trouve dans un état auquel il n’a jamais été confronté pendant l’entraînement, ce qui augmente la probabilité qu’une mauvaise évaluation continue. L’algorithme peut donc se retrouver coincé dans d’horribles boucles de rétroaction. Top-K Sampling;Echantillonnage top-k A pure sampling technique where you truncate the distribution to the kk best and then renormalise and sample from the distribution.;Une technique d’échantillonnage où l’on tronque la distribution au meilleur kk, puis on la renormalise et on prélève un échantillon de la distribution. Question: Why does Top-K sampling work so well?;Question : Pourquoi l’échantillonnage top-k fonctionne-t-il si bien ? This technique works well because it essentially tries to prevent falling off of the manifold of good language when we sample something bad by only using the head of the distribution and chopping off the tail.;Cette technique fonctionne bien parce qu’en utilisant seulement la tête de la distribution et en coupant la queue, elle essaie essentiellement d’éviter de tomber dans la multitude des bonnes langues lorsque nous échantillonnons quelque chose de mauvais. Evaluating Text Generation;Évaluation de la génération de texte Evaluating the language model requires simply log likelihood of the held-out data. However, it is difficult to evaluate text. Commonly word overlap metrics with a reference (BLEU, ROUGE etc.) are used, but they have their own issues.;Pour évaluer le modèle linguistique, il suffit d’enregistrer la probabilité des données retenues. Cependant, il est difficile d’évaluer le texte. On utilise généralement des mesures de chevauchement des mots avec une référence (BLEU, ROUGE, etc.), mais elles ont leurs propres problèmes. Sequence-To-Sequence Models;Modèles de séquence à séquence Conditional Language Models;Modèles de langue conditionnels Conditional Language Models are not useful for generating random samples of English, but they are useful for generating a text given an input.;Les modèles linguistiques conditionnels ne sont pas utiles pour générer des échantillons d’anglais aléatoires, mais ils sont utiles pour générer un texte à partir d’une entrée. Examples:;Exemples : Given a French sentence, generate the English translation;A partir d’une phrase française, générer la traduction anglaise Given a document, generate a summary;A partir d’un document, générer un résumé Given a dialogue, generate the next response;Après un dialogue, générer la réponse suivante Given a question, generate the answer;Face à une question, générer la réponse Sequence-To-Sequence Models;Modèles de séquence à séquence Generally, the input text is encoded. This resulting embedding is known as a “thought vector”, which is then passed to the decoder to generate tokens word by word.;En général, le texte d’entrée est encodé. L’enchâssement résultant est connu sous le nom de « vecteur de pensée », qui est ensuite transmis au décodeur pour générer des tokens mot par mot. Sequence-To-Sequence Transformer;Transformer séquence à séquence The sequence-to-sequence variation of transformers has 2 stacks:;La variation séquence à séquence des transformers a 2 piles : 1. Encoder Stack – Self-attention isn’t masked so every token in the input can look at every other token in the input;1. Pile d’encodeurs : l’auto-attention n’est pas masquée, de sorte que chaque jeton de l’entrée peut regarder tous les autres jetons de l’entrée 2. Decoder Stack – Apart from using attention over itself, it also uses attention over the complete inputs;2. Pile de décodeurs : en plus d’utiliser l’auto-attention, l’attention est également appliquée sur toutes les entrées Every token in the output has direct connection to every previous token in the output, and also to every word in the input. The connections make the models very expressive and powerful. These transformers have made improvements in translation score over previous recurrent and convolutional models.;Chaque jeton de la sortie a un lien direct avec chaque jeton précédent de la sortie, ainsi qu’avec chaque mot de l’entrée. Ces connexions rendent les modèles très expressifs et puissants. Les transformers ont permis d’améliorer le score de traduction par rapport aux modèles convolutifs et récurrents précédents. Back-translation;Rétro-traduction When training these models, we typically rely on large amounts of labelled text. A good source of data is from European Parliament proceedings - the text is manually translated into different languages which we then can use as inputs and outputs of the model.;Lorsque nous entraînons ces modèles, nous nous appuyons généralement sur de grandes quantités de texte labellisé. Une bonne source de données provient des procédures du Parlement européen où le texte est traduit manuellement dans différentes langues que nous pouvons ensuite utiliser comme entrées et sorties du modèle. Issues;Problèmes Not all languages are represented in the European parliament, meaning that we will not get translation pair for all languages we might be interested in. How do we find text for training in a language we can’t necessarily get the data for?;Toutes les langues ne sont pas représentées au Parlement européen, ce qui signifie que nous n’avons pas de paire de traduction pour toutes les langues qui pourraient nous intéresser. Comment trouver un texte à entraîner dans une langue pour laquelle nous ne pouvons pas nécessairement obtenir les données ? Since models like transformers do much better with more data, how do we use monolingual text efficiently, i.e. no input / output pairs?;Puisque des modèles comme les transformers fonctionnent beaucoup mieux avec plus de données, comment utiliser efficacement un texte monolingue, c’est-à-dire sans paires d’entrée/sortie ? Assume we want to train a model to translate German into English. The idea of back-translation is to first train a reverse model of English to German;Supposons que nous voulions entraîner un modèle à traduire de l’allemand en anglais. L’idée de la rétro-traduction est d’entraîner d’abord un modèle inverse de l’anglais vers l’allemand. Using some limited bi-text we can acquire same sentences in 2 different languages. Once we have an English to German model, translate a lot of monolingual words from English to German. Finally, train the German to English model using the German words that have been ‘back-translated’ in the previous step.;En utilisant quelques bi-textes limités, nous pouvons acquérir les mêmes phrases dans 2 langues différentes. Une fois que nous aurons un modèle anglais-allemand, on peut traduire beaucoup de mots monolingues de l’anglais vers l’allemand. Enfin, on peut entraîner le modèle anglais-allemand en utilisant les mots allemands qui ont été « retro-traduits » lors de l’étape précédente. We note that:;A noter que : It doesn’t matter how good the reverse model is - we might have noisy German translations but end up translating to clean English.;Peu importe la qualité du modèle inverse nous pouvons avoir des traductions allemandes bruyantes mais nous finissons par traduire en anglais propre. We need to learn to understand English well beyond the data of English / German pairs (already translated) - use large amounts of monolingual English;Nous devons apprendre à comprendre l’anglais bien au-delà des données des paires anglais/allemand (déjà traduites) / utiliser de grandes quantités d’anglais monolingue. Iterated Back-translation;Retro-traduction itérative We can iterate the procedure of back-translation in order to generate even more bi-text data and reach much better performance - just keep training using monolingual data.;Nous pouvons itérer la procédure de rétro-traduction afin de générer encore plus de données bi-texte et d’atteindre de bien meilleures performances : il suffit de continuer à s’entraîner en utilisant des données monolingues. Helps a lot when not a lot of parallel data;Cela aide beaucoup quand il n’y a pas beaucoup de données parallèles. Massive multilingual MT;Traducteur multilingue massif Instead of trying to learn a translation from one language to another, try to build a neural net to learn multiple language translations.;Au lieu d’essayer d’apprendre une traduction d’une langue à une autre, essayons de construire un réseau neuronal pour apprendre des traductions en plusieurs langues. Model is learning some general language-independent information.;Le modèle permet d’apprendre des informations générales indépendantes de la langue. Great results especially if we want to train a model to translate to a language that does not have a lot of available data for us (low resource language).;De bons résultats, surtout si nous voulons entraîner un modèle à traduire dans une langue qui n’a pas beaucoup de données disponibles pour nous (langue à faible ressource). Unsupervised Learning for NLP;Apprentissage non supervisé en traitement du langage naturel There are huge amounts of text without any labels and little of supervised data. How much can we learn about the language by just reading unlabelled text?;Il y a d’énormes quantités de texte sans aucun label et peu de données contrôlées. Que pouvons-nous apprendre sur la langue en lisant simplement un texte non étiqueté ? word2vec;word2vec Intuition - if words appear close together in the text, they are likely to be related, so we hope that by just looking at unlabelled English text, we can learn what they mean.;L’intuition est que si des mots apparaissent proches les uns des autres dans le texte, ils sont probablement liés. Nous espérons donc qu’en regardant simplement un texte anglais non labellisé, nous pouvons apprendre ce qu’ils signifient. Goal is to learn vector space representations for words (learn embeddings);L’objectif est d’apprendre les représentations spatiales vectorielles des mots (apprendre les enchâssements). Pretraining task - mask some word and use neighbouring words to fill in the blanks.;Tâche de pré-entraînement : masquer un mot et utiliser les mots voisins pour remplir les blancs. For instance, here, the idea is that “horned” and “silver-haired” are more likely to appear in the context of “unicorn” than some other animal.;Par exemple, ici, l’idée est que les « cornes » et les « cheveux argentés » sont plus susceptibles d’apparaître dans le contexte de la « licorne » que d’autres animaux. Take the words and apply a linear projection;En appliquant une projection linéaire sur les mots : Word embeddings hold some structure;Les enchâssements de mots contiennent une certaine structure : The idea is if we take the embedding for “king” after training and add the embedding for “female” we will get an embedding very close to that of “queen”. Shows some meaningful differences between vectors.;L’idée est que si nous prenons la représentation vectorielle de « roi » après l’entraînement et que nous ajoutons celle pour « femelle », nous obtiendrons une représentation très proche de celle de « reine ». Are the word representation dependent or independent of context?;Le mot « représentation » dépend-il ou non du contexte ? Independent and have no idea how they relate to other words;Indépendant et n’a aucune idée des relations avec d’autres mots. What would be an example of a situation that this model would struggle in?;Quel serait un exemple de situation dans laquelle ce modèle aurait du mal ? Interpretation of words depends strongly on context. So in the instance of ambiguous words - words that may have multiple meanings - the model will struggle since the embeddings vectors won’t capture the context needed to correctly understand the word.;Les enchâssements de mots dépendent fortement du contexte. Ainsi, dans le cas de mots ambigus, des mots qui peuvent avoir des significations multiples, le modèle aura du mal car les vecteurs ne captureront pas le contexte nécessaire pour comprendre correctement le mot. GPT;GPT To add context, we can train a conditional language model. Then given this language model, which predicts a word at every time step, replace each output of model with some other feature.;Pour ajouter du contexte, nous pouvons entraîner un modèle de langue conditionnel. Ensuite, étant donné ce modèle qui prédit un mot à chaque pas de temps, on remplace chaque sortie du modèle par une autre caractéristique. Pretraining - predict next word;Pré-entraînement : prédire le mot suivant Fine-tuning - change to a specific task. Examples:;Finetuning : modification d’une tâche spécifique comme par exemple Predict whether noun or adjective;Prédire si un mot est un nom ou un adjectif Given some text comprising an Amazon review, predict the sentiment score for the review;Prédire le score de sentiment pour une critique de film This approach is good because we can reuse the model. We pretrain one large model and can fine tune to other tasks.;Cette approche est bonne car nous pouvons réutiliser le modèle. Nous pré-entraînons un grand modèle et pouvons l’adapter à d’autres tâches. ELMo;ELMo GPT only considers leftward context, which means the model can’t depend on any future words - this limits what the model can do quite a lot.;Le GPT ne tient compte que du contexte à gauche (du mot qu’il est en train de traiter), ce qui signifie que le modèle ne peut pas dépendre de mots futurs, ce qui limite beaucoup ce que le modèle peut faire. Here the approach is to train two language models;L’approche consiste ici à entraîner deux modèles de langue : One on the text left to right;un sur le texte de gauche à droite One on the text right to left;un sur le texte de droite à gauche Concatenate the output of the two models in order to get the word representation. Now can condition on both the rightward and leftward context.;On peut alors concaténer les résultats des deux modèles afin d’obtenir la représentation des mots. On peut maintenant conditionner le contexte à droite et à gauche. This is still a “shallow” combination, and we want some more complex interaction between the left and right context.;Il s’agit toujours d’une combinaison superficielle et nous voulons une interaction plus complexe entre les contextes gauche et droit. BERT;BERT BERT is similar to word2vec in the sense that we also have a fill-in-a-blank task. However, in word2vec we had linear projections, while in BERT there is a large transformer that is able to look at more context. To train, we mask 15% of the tokens and try to predict the blank.;BERT est similaire à Word2vec dans le sens où nous avons également une tâche de remplissage. Cependant, dans Word2vec, nous avions des projections linéaires, alors que dans BERT, il y a un grand transformer qui est capable de regarder plus de contexte. Pour entraîner, nous masquons 15 % des jetons et nous essayons de prédire ce qui a été masqué. Can scale up BERT (RoBERTa):;Il est possible de passer à l’échelle BERT (RoBERTa) en : Simplify BERT pre-training objective;simplifiant l’objectif de pré-entraînement de BERT Scale up the batch size;augmentant la taille des batchs Train on large amounts of GPUs;entraînant sur de grandes quantités de GPU Train on even more text;entraînant sur encore plus de texte Even larger improvements on top of BERT performance - on question answering task performance is superhuman now.;On obtient alors par exemple une performance supérieure à l’humaine sur la tâche de réponse aux questions. Pre-training for NLP;Pré-entraînement en traitement du langage naturel Let us take a quick look at different self-supervised pre training approaches that have been researched for NLP.;Examinons rapidement les différentes approches de pré-entraînement autosupervisé qui ont été étudiées en en traitement du langage naturel : XLNet: Instead of predicting all the masked tokens conditionally independently, XLNet predicts masked tokens auto-regressively in random order;XLNet : Au lieu de prédire tous les tokens masqués de façon conditionnelle et indépendante, XLNet prédit les tokens masqués de façon auto-régressive et dans un ordre aléatoire SpanBERT: Mask spans (sequence of consecutive words) instead of tokens;SpanBERT Les masques s’étendent (séquence de mots consécutifs) au lieu des jetons ELECTRA: Rather than masking words we substitute tokens with similar ones. Then we solve a binary classification problem by trying to predict whether the tokens have been substituted or not.;ELECTRA : Plutôt que de masquer les mots, nous remplaçons les jetons par des mots similaires. Ensuite, nous résolvons un problème de classification binaire en essayant de prédire si les jetons ont été substitués ou non. ALBERT (A Lite Bert): We modify BERT and make it lighter by tying the weights across layers. This reduces the parameters of the model and the computations involved. Interestingly, the authors of ALBERT did not have to compromise much on accuracy.;ALBERT (A Lite Bert) : Nous modifions BERT et le rendons plus léger en liant les poids entre les couches. Cela réduit les paramètres du modèle et les calculs impliqués. Il est intéressant de noter que les auteurs d’ALBERT n’ont pas eu à faire beaucoup de compromis sur la précision. XLM: Multilingual BERT: Instead of feeding such English text, we feed in text from multiple languages. As expected, it learned cross lingual connections better.;XLM : Il s’agit d’un BERT multilingue. Au lieu d’alimenter un texte en anglais, nous alimentons un texte en plusieurs langues. Comme prévu, il a mieux appris les connexions interlinguistiques. The key takeaways from the different models mentioned above are;Les principaux enseignements tirés des différents modèles mentionnés ci-dessus sont les suivants : Lot of different pre-training objectives work well!;De nombreux objectifs de pré-entraînement différents fonctionnent bien ! Crucial to model deep, bidirectional interactions between words;Il est essentiel de modéliser les interactions profondes et bidirectionnelles entre les mots Large gains from scaling up pre-training, with no clear limits yet;Des gains importants grâce à l’intensification du pré-entraînement, sans encore de limites claires Most of the models discussed above are engineered towards solving the text classification problem. However, in order to solve text generation problem, where we generate output sequentially much like the seq2seq model, we need a slightly different approach to pre training.;La plupart des modèles évoqués ci-dessus sont conçus pour résoudre le problème de la classification de textes. Cependant, pour résoudre le problème de la génération de texte, où nous générons les résultats de manière séquentielle comme le modèle seq2seq, nous avons besoin d’une approche légèrement différente du pré-entraînement. Pre-training for Conditional Generation: BART and T5;Pré-entraînement pour la génération conditionnelle : BART et T5 BART: pre-training seq2seq models by de-noising text;BART : pré-entraînement des modèles seq2seq par le débruitage de texte. In BART, for pretraining we take a sentence and corrupt it by masking tokens randomly. Instead of predicting the masking tokens (like in the BERT objective), we feed the entire corrupted sequence and try to predict the entire correct sequence.;Dans BART, pour le pré-entraînement, nous prenons une phrase et la corrompons en masquant des jetons au hasard. Au lieu de prédire les jetons masqués (comme dans l’objectif de BERT), nous donnons toute la séquence corrompue et essayons de prédire toute la séquence correcte. This seq2seq pretraining approach give us flexibility in designing our corruption schemes. We can shuffle the sentences, remove phrases, introduce new phrases, etc.;Cette approche de pré-entraînement seq2seq nous donne une certaine flexibilité dans la conception de nos schémas de corruption. Nous pouvons mélanger les phrases, supprimer des expressions, en introduire de nouvelles, etc. BART was able to match RoBERTa on SQUAD and GLUE tasks. However, it was the new SOTA on summarization, dialogue and abstractive QA datasets. These results reinforce our motivation for BART, being better at text generation tasks than BERT/RoBERTa.;BART a pu faire aussi bien que RoBERTa sur les tâches SQUAD et GLUE. Il établit le nouvel état de l’art sur les jeux de données de résumé, de dialogue et les questions/réponses. BART est meilleur que BERT/RoBERTa dans les tâches de génération de texte. Some open questions in NLP;Quelques questions ouvertes en traitement du langage naturel How should we integrate world knowledge;Comment intégrer la connaissance du monde ? How do we model long documents? (BERT-based models typically use 512 tokens);Comment modéliser de longs documents étant donné que les modèles basés sur BERT utilisent généralement seulement 512 jetons ? How do we best do multi-task learning?;Quelle est la meilleure façon de procéder pour l’apprentissage multitâches ? Can we fine-tune with less data?;Pouvons-nous procéder à du finetuning avec moins de données ? Are these models really understanding language?;Ces modèles comprennent-ils vraiment le langage ? Summary;Résumé Training models on lots of data beats explicitly modelling linguistic structure.;Entraîner des modèles sur de nombreuses données bat explicitement la modélisation de la structure linguistique. From a bias variance perspective, Transformers are low bias (very expressive) models. Feeding these models lots of text is better than explicitly modelling linguistic structure (high bias). Architectures should be compressing sequences through bottlenecks;Du point de vue de la variance de biais, les transformers sont des modèles à faible biais (très expressifs). Il est préférable de nourrir ces modèles avec beaucoup de texte plutôt que de modéliser explicitement la structure linguistique (biais élevé). Les architectures doivent comprimer les séquences à travers les goulots d’étranglement. Models can learn a lot about language by predicting words in unlabelled text. This turns out to be a great unsupervised learning objective. Fine tuning for specific tasks is then easy;Les modèles peuvent apprendre beaucoup sur le langage en prédisant des mots dans un texte non étiqueté. Cela s’avère être un excellent objectif d’apprentissage non supervisé. Il est alors facile de finetuner des tâches spécifiques. Bidirectional context is crucial;Le contexte bidirectionnel est crucial. Post-course questions from students;Questions posées après le cours par des étudiants What are some ways to quantify ‘understanding language’? How do we know that these models are really understanding language?;Quels sont les moyens de quantifier la compréhension du langage ? Comment savons-nous que ces modèles sont réellement des modèles de compréhension du langage ? “The trophy did not fit into the suitcase because it was too big”: Resolving the reference of ‘it’ in this sentence is tricky for machines. Humans are good at this task. There is a dataset consisting of such difficult examples and humans achieved 95% performance on that dataset. Computer programs were able to achieve only around 60% before the revolution brought about by Transformers. The modern Transformer models are able to achieve more than 90% on that dataset. This suggests that these models are not just memorizing / exploiting the data but learning concepts and objects through the statistical patterns in the data. Moreover, BERT and RoBERTa achieve superhuman performance on SQUAD and Glue. The textual summaries generated by BART look very real to humans (high BLEU scores). These facts are evidence that the models do understand language in some way.;La phrase « mon trophée ne rentre pas dans mon bagage car il est trop grand » est difficile pour les modèles car ont des problèmes pour résoudre le problème de la référence à « il » dans cette phrase. L’homme est doué pour cette tâche. Il existe un jeu de données constitué d’exemples aussi difficiles et les humains atteignent 95% de performance sur ce jeu de données. Les programmes informatiques n’atteignaient que 60% environ avant la révolution provoquée par les transformers. Les modèles modernes de transformers sont capables d’atteindre plus de 90%. Cela suggère que ces modèles ne se contentent pas de mémoriser/exploiter les données, mais qu’ils apprennent des concepts et des objets grâce aux modèles statistiques des données. En outre, BERT et RoBERTa atteignent des performances supérieures à celle humaine sur les jeux de données SQUAD et GLUE. Les résumés textuels générés par BART semblent très réels pour les humains (scores BLEU élevés). Ces faits sont la preuve que les modèles comprennent le langage d’une certaine manière. Can we evaluate whether the model already has world knowledge?;Peut-on évaluer si le modèle a déjà une connaissance du monde ? ‘World Knowledge’ is an abstract concept. We can test models, at the very basic level, for their world knowledge by asking them simple questions about the concepts we are interested in. Models like BERT, RoBERTa and T5 have billions of parameters. Considering these models are trained on a huge corpus of informational text like Wikipedia, they would have memorized facts using their parameters and would be able to answer our questions. Additionally, we can also think of conducting the same knowledge test before and after fine-tuning a model on some task. This would give us a sense of how much information the model has ‘forgotten’.;La connaissance du monde est un concept abstrait. Nous pouvons tester les modèles, au niveau le plus élémentaire en leur posant des questions simples sur les concepts qui nous intéressent. Des modèles comme BERT, RoBERTa et T5 ont des milliards de paramètres. Si l’on considère que ces modèles sont entraînés sur un énorme corpus de textes informationnels comme Wikipédia, ils mémorisent des faits en utilisant leurs paramètres et sont capables de répondre à nos questions. En outre, nous pouvons également envisager de réaliser le même test de connaissances avant et après le finetuning d’un modèle sur une tâche donnée. Cela nous donnerait une idée de la quantité d’informations que le modèle a « oubliées ». Attention and the Transformer;Attention et Transformer Attention;Attention We introduce the concept of attention before talking about the Transformer architecture. There are two main types of attention: self attention vs. cross attention, within those categories, we can have hard vs. soft attention.;Nous introduisons le concept d’attention avant de parler de l’architecture du Transformer. Il existe deux types principaux d’attention : l’auto-attention vs l’attention croisée. Dans ces catégories, nous pouvons avoir une attention dure vs une attention douce. As we will later see, transformers are made up of attention modules, which are mappings between sets, rather than sequences, which means we do not impose an ordering to our inputs/outputs.;Comme nous le verrons plus tard, les transformers sont constitués de modules d’attention, qui sont des associations entre des ensembles (plutôt que des séquences), ce qui signifie que nous n’imposons pas d’ordre à nos entrées/sorties. Self Attention (I);Auto-attention (I) Consider a set of t input x’s:;Considérons un ensemble de t d’entrée x : where each xi​ is an n-dimensional vector. Since the set has t elements, each of which belongs to Rn, we can represent the set as a matrix X∈Rn×t.;où chaque symbole xi​ est un vecteur dimensionnel nn. Comme l’ensemble comporte des éléments t, dont chacun appartient à Rn, nous pouvons représenter l’ensemble comme une matrice X∈Rn×t. With self-attention, the hidden representation h is a linear combination of the inputs:;Avec l’auto-attention, la représentation cachée h est une combinaison linéaire des entrées : Using the matrix representation described above, we can write the hidden layer as the matrix product:;En utilisant la représentation matricielle décrite ci-dessus, nous pouvons écrire la couche cachée comme le produit matriciel : where a∈Rt is a column vector with components αi​.;où a∈Rt est un vecteur colonne avec les composantes αi​. Note that this differs from the hidden representation we have seen so far, where the inputs are multiplied by a matrix of weights.;A noter que cela diffère de la représentation cachée que nous avons vue jusqu’à présent, où les entrées sont multipliées par une matrice de poids. Depending on the constraints we impose on the vector a, we can achieve hard or soft attention.;Selon les contraintes que nous imposons au vecteur a, nous pouvons obtenir une attention dure ou douce. Hard Attention;Attention dure With hard-attention, we impose the following constraint on the alphas: ∥a∥0=1. This means a is a one-hot vector. Therefore, all but one of the coefficients in the linear combination of the inputs equals zero, and the hidden representation reduces to the input xi corresponding to the element αi​=1.;Avec beaucoup d’attention, nous imposons aux alphas la contrainte suivante : ∥a∥0=1. Cela signifie que a est un vecteur one-hot. Par conséquent, tous les coefficients de la combinaison linéaire des entrées sauf un sont égaux à 0 et la représentation cachée se réduit à l’entrée xi correspondant à l’élément αi​=1. Soft Attention;Attention douce With soft attention, we impose that ∥a∥1=1. The hidden representations is a linear combination of the inputs where the coefficients sum up to 1.;Avec une attention douce, nous imposons que ∥a∥1=1. La représentation cachée est une combinaison linéaire des entrées où les coefficients s’additionnent à 1. Self Attention (II);Auto-attention (II) Where do the αi​ come from?;D’où viennent les αi ? We obtain the vector a∈Rt in the following way:;Nous obtenons le vecteur a∈Rt de la manière suivante : Where β represents the inverse temperature parameter of the soft(arg)max(⋅). X⊤∈Rt×n is the transposed matrix representation of the set {xi​}i=1t​, and x represents a generic xi from the set. Note that the j-th row of X⊤ corresponds to an element xj∈Rn, so the j-th row of X⊤x is the scalar product of xj​ with each xi in {xi​}i=1t​.;où β représente le paramètre de température inverse du soft(arg)max(⋅). X⊤∈Rt×n est la représentation matricielle transposée de l’ensemble {xi​}i=1t​, et x représente un xi générique de l’ensemble. Notez que la ligne jème de X⊤ correspond à un élément xj∈Rn, Ainsi, la jème rangée de X⊤x est le produit scalaire de xj​ avec chaque xi dans {xi​}i=1t​. The components of the vector a are also called “scores” because the scalar product between two vectors tells us how aligned or similar two vectors are. Therefore, the elements of a provide information about the similarity of the overall set to a particular xi​.;Les composantes du vecteur a sont également appelées scores car le produit scalaire entre deux vecteurs nous indique dans quelle mesure deux vecteurs sont alignés ou similaires. Par conséquent, les éléments de a fournissent des informations sur la similarité de l’ensemble global avec un symbole particulier xi. The square brackets represent an optional argument. Note that if argmax(⋅) is used, we get a one-hot vector of alphas, resulting in hard attention. On the other hand, soft(arg)max(⋅) leads to soft attention. In each case, the components of the resulting vector a sum to 1.;Les crochets représentent un argument facultatif. A noter que si argmax(⋅) est utilisé, nous obtenons un vecteur one-hot d’alphas, ce qui entraîne une attention soutenue. En revanche, soft(arg)max(⋅) conduit à une attention douce. Dans chaque cas, les composantes du vecteur résultant a s’additionnent à 1. Generating a this way gives a set of them, one for each xi​. Moreover, each ai∈Rt so we can stack the alphas in a matrix A∈Rt×t.;En générant a de cette façon, on obtient un ensemble d’entre elles, une pour chaque symbole xi​. De plus, chaque ai​∈Rt permet d’empiler les alphas dans une matrice A∈Rt×t. Since each hidden state is a linear combination of the inputs x and a vector a, we obtain a set of t hidden states, which we can stack into a matrix H∈Rn×t.;Comme chaque état caché est une combinaison linéaire des entrées x et d’un vecteur a, nous obtenons un ensemble d’états cachés t, que nous pouvons empiler dans une matrice H∈Rn×t. A key-value store is a paradigm designed for storing (saving), retrieving (querying) and managing associative arrays (dictionaries / hash tables).;Un key-value store est un paradigme conçu pour le stockage (sauvegarde), la récupération (interrogation) et la gestion de tableaux associatifs (dictionnaires / tables de hachage). For example, say we wanted to find a recipe to make lasagne. We have a recipe book and search for “lasagne” - this is the query. This query is checked against all possible keys in your dataset - in this case, this could be the titles of all the recipes in the book. We check how aligned the query is with each title to find the maximum matching score between the query and all the respective keys. If our output is the argmax function - we retrieve the single recipe with the highest score. Otherwise, if we use a soft argmax function, we would get a probability distribution and can retrieve in order from the most similar content to less and less relevant recipes matching the query.;Par exemple, disons que nous voulons trouver une recette pour faire des lasagnes. Nous avons un livre de recettes et nous cherchons « lasagne » : c’est la requête. Cette requête est comparée à toutes les clés possibles de votre ensemble de données : dans ce cas, il peut s’agir des titres de toutes les recettes du livre. Nous vérifions l’alignement de la requête avec chaque titre pour trouver le score maximum de correspondance entre la requête et toutes les clés respectives. Si notre résultat est la fonction argmax, nous récupérons la recette unique ayant obtenu le score le plus élevé. Sinon, si nous utilisons une fonction argmax souple, nous obtenons une distribution de probabilité et pouvons récupérer dans l’ordre, à partir du contenu le plus similaire, les recettes de moins en moins pertinentes qui correspondent à la requête. Basically, the query is the question. Given one query, we check this query against every key and retrieve all matching content.;Fondamentalement, la requête est la question. Pour une même question, nous comparons cette requête à chaque clé et nous récupérons tout le contenu correspondant. Queries, keys and values;Requêtes (q), clés (k) et valeurs (v) Each of the vectors q,k,v can simply be viewed as rotations of the specific input x. Where q is just x rotated by Wq​, k is just x rotated by Wk​ and similarly for v. Note that this is the first time we are introducing “learnable” parameters. We also do not include any non-linearities since attention is completely based on orientation.;Chacun des vecteurs q,k,v peut être simplement considéré comme une rotation de l’entrée spécifique x. Où q est juste x tourné par Wq​, k est juste x tourné par Wk​ et de même pour v. Notons que c’est la première fois que nous introduisons des paramètres apprenables. Nous n’incluons pas non plus de non-linéarités puisque l’attention est entièrement basée sur l’orientation. In order to compare the query against all possible keys, q and k must have the same dimensionality, i.e. q,k∈Rd’.;Afin de comparer la requête à toutes les clés possibles, q et k doivent avoir la même dimensionnalité, c’est-à-dire q,k∈Rd’. However, v can be of any dimension. If we continue with our lasagne recipe example - we need the query to have the dimension as the keys, i.e. the titles of the different recipes that we’re searching through. The dimension of the corresponding recipe retrieved, v, can be arbitrarily long though. So we have that v∈Rd’’.;Cependant, v peut être de n’importe quelle dimension. Si nous continuons avec notre exemple de recette de lasagnes, nous avons besoin que la requête ait la dimension comme clés, c’est-à-dire les titres des différentes recettes que nous recherchons. La dimension de la recette correspondante v, peut cependant être arbitrairement longue. Nous avons donc ce v∈Rd’’. For simplicity, here we will make the assumption that everything has dimension d, i.e.;Par souci de simplicité, nous supposerons ici que tout est de dimension d, c’est-à-dire : "So now we have a set of x’s, a set of queries, a set of keys and a set of values. We can stack these sets into matrices each with t columns since we stacked t vectors; each vector has height d.";Nous avons donc maintenant un ensemble de x, un ensemble de requêtes, un ensemble de clés et un ensemble de valeurs. Nous pouvons empiler ces ensembles dans des matrices dont chacune comporte des colonnes t puisque nous avons empilé t vecteurs. Chaque vecteur a une hauteur d. We compare one query q against the matrix of all keys K:;Nous comparons une requête q à la matrice de toutes les clés K : Then the hidden layer is going to be the linear combination of the columns of V weighted by the coefficients in a:;La couche cachée est alors la combinaison linéaire des colonnes de V pondérées par les coefficients a : Since we have t queries, we’ll get t corresponding a weights and therefore a matrix a of dimension t×t.;Puisque nous avons des requêtes t, nous obtenons t correspondant aux a poids et donc une matrice a de dimension t×t. Therefore in matrix notation we have:;C’est pourquoi, en notation matricielle, nous avons : As an aside, we typically set β to:;A part, nous mettons généralement β à : This is done to keep the temperature constant across different choices of dimension d and so we divide by the square root of the number of dimensions d.;Ceci est fait pour maintenir la température constante parmi les différents choix de dimension d et nous divisons donc par la racine carrée du nombre de dimensions d. For implementation, we can speed up computation by stacking all the W’s into one tall W and then calculate q,k,v in one go;Pour l’implémentation, nous pouvons accélérer le calcul en empilant tous les W en un seul grand W et calculer ensuite q,k,v en une seule fois : There is also the concept of “heads”. Above we have seen an example with one head but we could have multiple heads. For example, say we have h heads, then we have h q’s, h k’s and h v’s and we end up with a vector in R3hd:;Il y a aussi le concept de têtes. Nous avons vu ci-dessus un exemple avec une seule tête, mais nous pouvons en avoir plusieurs. Par exemple, disons que nous avons h têtes puis nous avons des h q, h k et h v et nous nous retrouvons avec un vecteur en R3hd : However, we can still transform the multi-headed values to have the original dimension Rd by using a Wh​∈Rd×hd. This is just one possible way to implement the key-value store.;Cependant, nous pouvons toujours transformer les valeurs des têtes pour obtenir la dimension originale Rd en utilisant un Wh​∈Rd×hd. Ce n’est qu’une des façons possibles de mettre en œuvre le key-value store. The Transformer;Le Transformer Expanding on our knowledge of attention in particular, we now interpret the fundamental building blocks of the transformer. In particular, we will take a forward pass through a basic transformer, and see how attention is used in the standard encoder-decoder paradigm and compares to the sequential architectures of RNNs.;En élargissant notre connaissance de l’attention, nous interprétons maintenant les éléments fondamentaux du transformer. En particulier, nous allons faire une passe en avant à travers un transformer de base et voir comment l’attention est utilisée dans le paradigme standard de l’encodeur-décodeur. Nous allons également effectuer une comparaison avec les architectures séquentielles des RNNs. Encoder-Decoder Architecture;Architecture encodeur-décodeur We should be familiar with this terminology. It is shown most prominently during autoencoder demonstrations, and is prerequisite understanding up to this point. To summarize, an input is fed through an encoder and decoder which impose some sort of bottleneck on the data, forcing only the most important information through. This information is stored in the output of the encoder block, and can be used for a variety of unrelated tasks.;Nous devons nous familiariser avec cette terminologie. Elle est surtout mise en évidence lors des démonstrations d’auto-encodeurs et constitue jusqu’à présent un préalable à la compréhension. Pour résumer, une entrée passe par un encodeur et un décodeur qui imposent une sorte de goulot d’étranglement aux données, ne laissant passer que les informations les plus importantes. Ces informations sont stockées dans la sortie du bloc de l’encodeur et peuvent être utilisées pour toute une série de tâches sans rapport les unes avec les autres. Our “attention” is drawn to the autoencoder layout as shown in the model on the right and will now take a look inside, in the context of transformers.;Notre attention est attirée sur la disposition de l’auto-encodeur comme indiqué dans le modèle de droite et nous allons maintenant jeter un coup d’œil à l’intérieur, dans le contexte des transformers. Encoder Module;Module Encodeur The encoder module accepts a set of inputs, which are simultaneously fed through the self attention block and bypasses it to reach the Add, Norm block. At which point, they are again simultaneously passed through the 1D-Convolution and another Add, Norm block, and consequently outputted as the set of hidden representation. This set of hidden representation is then either sent through an arbitrary number of encoder modules i.e. more layers), or to the decoder. We shall now discuss these blocks in more detail.;Le module d’encodage accepte un ensemble d’entrées, qui sont simultanément passées par le bloc d’auto-attention et le contourne pour atteindre le bloc Add, Norm. À ce stade, elles sont à nouveau passées simultanément par la convolution 1D et un autre bloc Add, Norm. Elles en ressortent en sortie comme l’ensemble de la représentation cachée. Cet ensemble de représentation cachée est alors envoyé soit par un nombre arbitraire de modules d’encodage (c’est-à-dire plus de couches), soit au décodeur. Nous allons examiner ces blocs plus en détail. Self-attention;Auto-attention The self-attention model is a normal attention model. The query, key, and value are generated from the same item of the sequential input. In tasks that try to model sequential data, positional encodings are added prior to this input. The output of this block is the attention-weighted values. The self-attention block accepts a set of inputs, from 1,⋯,t, and outputs 1,⋯,t attention weighted values which are fed through the rest of the encoder.;Le modèle d’auto-attention est un modèle d’attention normale. La requête, la clé et la valeur sont générées à partir du même élément de l’entrée séquentielle. Dans les tâches qui tentent de modéliser des données séquentielles, des encodeurs de position sont ajoutés avant cette entrée. La sortie de ce bloc est constituée des valeurs pondérées de l’attention. Le bloc auto-attention accepte un ensemble d’entrées, de 1,⋯,t, et produit des valeurs pondérées par l’attention de 1,⋯ ,t qui sont transmises au reste de l’encodeur. Add, Norm;Add, Norm The add norm block has two components. First is the add block, which is a residual connection, and layer normalization.;Le bloc Add&Norm a deux composantes. Le premier est le bloc Add, qui est une connexion résiduelle et le deuxième Norm qui est la normalisation des couches. 1D-convolution;Convolution 1D Following this step, a 1D-convolution (aka a position-wise feed forward network) is applied. This block consists of two dense layers. Depending on what values are set, this block allows you to adjust the dimensions of the output hEnchEnc.;Après cette étape, une convolution 1D est appliquée. Ce bloc est constitué de deux couches denses. En fonction des valeurs définies, ce bloc permet d’ajuster les dimensions de la sortie hEnchEnc. Decoder Module;Module décodeur The transformer decoder follows a similar procedure as the encoder. However, there is one additional sub-block to take into account. Additionally, the inputs to this module are different.;Le transformer-décodeur suit une procédure similaire à celle de l’encodeur. Cependant, il y a un sous-bloc supplémentaire à prendre en compte. De plus, les entrées de ce module sont différentes. Cross-attention;Attention croisée The cross attention follows the query, key, and value setup used for the self-attention blocks. However, the inputs are a little more complicated. The input to the decoder is a data point yi​, which is then passed through the self attention and add norm blocks, and finally ends up at the cross-attention block. This serves as the query for cross-attention, where the key and value pairs are the output hEnc, where this output was calculated with all past inputs x1,⋯ ,xt​.;L’attention croisée suit la configuration des requêtes, des clés et des valeurs utilisées pour les blocs d’auto-attention. Cependant, les entrées sont un peu plus compliquées. L’entrée dans le décodeur est un point de données yi, qui est ensuite passé par l’auto-attention et les blocs Add Norm, et qui se termine finalement par le bloc d’auto-attention. Celui-ci sert de requête pour l’attention croisée, où les paires de clés et de valeurs sont la sortie hEnc, où cette sortie a été calculée avec toutes les entrées passées x1​,⋯,xt​. Summary;Résumé A set, x1 to xt​ is fed through the encoder. Using self-attention and some more blocks, an output representation, {hEnc}i=1t​ is obtained, which is fed to the decoder. After applying self-attention to it, cross attention is applied. In this block, the query corresponds to a representation of a symbol in the target language yi​, and the key and values are from the source language sentence (x1 to xt​). Intuitively, cross attention finds which values in the input sequence are most relevant to constructing yt​, and therefore deserve the highest attention coefficients. The output of this cross attention is then fed through another 1D-convolution sub-block, and we have hDec. For the specified target language, it is straightforward from here to see how training will commence, by comparing {hDec}i=1t​ to some target data.;Un ensemble, x1​ à xt​ est transmis par l’encodeur. En utilisant l’auto-attention et quelques autres blocs, on obtient une représentation de sortie, t{hEnc}i=1t​, qui est envoyée au décodeur. Après lui avoir appliqué l’auto-attention, l’attention croisée est appliquée. Dans ce bloc, la requête correspond à une représentation d’un symbole dans la langue cible yi​, et la clé et les valeurs proviennent de la phrase de la langue source (x1​ à xt​). Intuitivement, l’attention croisée permet de trouver quelles valeurs de la séquence d’entrée sont les plus pertinentes pour construire yt​, et méritent donc les coefficients d’attention les plus élevés. La sortie de cette attention croisée est ensuite acheminée à travers un autre sous-bloc à convolution 1D et nous obtenons hDec. Pour la langue cible spécifiée, il est facile de voir comment l’entraînement va commencer, en comparant {hDec}i=1t à certaines données cibles. Word Language Models;Modèles du monde en linguistique There are a few important facts we left out before to explain the most important modules of a transformer, but will need to discuss them now to understand how transformers can achieve state-of-the-art results in language tasks.;Abordons quelques éléments laissés de côté lors de l’explication des modules les plus importants d’un transformer pour comprendre comment cette architecture peut obtenir des résultats de pointe dans les tâches linguistiques. Positional encoding;L’encodage positionnel Attention mechanisms allow us to parallelize the operations and greatly accelerate a model’s training time, but loses sequential information. The positional encoding feature enables allows us to capture this context.;Les mécanismes d’attention nous permettent de mettre en parallèle les opérations et d’accélérer considérablement le temps d’entraînement d’un modèle mais perdent des informations séquentielles. L’encodage positionnel nous permet de saisir ce contexte. Semantic Representations;Représentations sémantiques Throughout the training of a transformer, many hidden representations are generated. To create an embedding space similar to the one used by the word-language model example in PyTorch, the output of the cross-attention, will provide a semantic representation of the word xi​, at which point further experimentation can be performed over this dataset.;Tout au long de l’entraînement d’un transformer, de nombreuses représentations cachées sont générées. Pour créer un espace d’enchâssement similaire à celui utilisé dans PyTorch, la sortie de l’attention croisée fournit une représentation sémantique du mot xi pouvant servir à d’autres expériences (tâches) sur ce jeu de données. Code Summary;Résumé du code We will now see the blocks of transformers discussed above in a far more understandable format, code!;Voyons les blocs du transformer dont nous avons parlé plus haut dans un format beaucoup plus compréhensible : le code ! The first module we will look at the multi-headed attention block. Depending on query, key, and values entered into this block, it can either be used for self or cross attention.;Dans le premier module, nous examinons le bloc d’attention mullti-têtes. En fonction de la requête, de la clé et des valeurs entrées dans ce bloc, il peut être utilisé pour l’auto-attention ou l’attention croisée. Initialization of multi-headed attention class. If a d_input is provided, this becomes cross attention. Otherwise, self-attention. The query, key, value setup is constructed as a linear transformation of the input d_model.;Initialisation de la classe d’attention à plusieurs têtes. Si une d_input est fournie, cela devient une attention croisée. Sinon, c’est l’auto-attention. La configuration de la requête, de la clé, de la valeur est construite comme une transformation linéaire du d_model d’entrée. Return hidden layer corresponding to encodings of values after scaled by the attention vector. For book-keeping purposes (which values in the sequence were masked out by attention?) A is also returned.;Retourne la couche cachée correspondant aux encodeurs des valeurs après mise à l’échelle par le vecteur d’attention. Pour des raisons comptables (quelles valeurs de la séquence ont été masquées par l’attention ?), a est également renvoyé. Split the last dimension into (heads × depth). Return after transpose to put in shape (batch_size × num_heads × seq_length × d_k);Divise la dernière dimension en (heads × depth). On renvoie après transposition pour mettre en forme (batch_size × num_heads × seq_length × d_k) Combines the attention heads together, to get correct shape consistent with batch size and sequence length.;Combine les têtes d’attention ensemble, pour obtenir une forme correcte conforme à la taille du batch et à la longueur de la séquence. The forward pass of multi headed attention.;Le passage en avant de l’attention à plusieurs têtes. Given an input is split into q, k, and v, at which point these values are fed through a scaled dot product attention mechanism, concatenated and fed through a final linear layer. The last output of the attention block is the attention found, and the hidden representation that is passed through the remaining blocks.;Une entrée donnée est divisée en q, k et v, et ces valeurs sont alors transmises par un mécanisme d’attention par produit scalaire, puis concaténées et transmises par une couche linéaire finale. La dernière sortie du bloc d’attention est l’attention trouvée et la représentation cachée qui est passée à travers les blocs restants. Although the next block shown in the transformer/encoder’s is the Add,Norm, which is a function already built into PyTorch. As such, it is an extremely simple implementation, and does not need it’s own class. Next is the 1-D convolution block. Please refer to previous sections for more details.;Le bloc Add,Norm est une fonction déjà intégrée dans PyTorch. En tant que telle, c’est une implémentation extrêmement simple et n’a pas besoin de sa propre classe. Le bloc suivant est le bloc de convolution 1D. Now that we have all of our main classes built (or built for us), we now turn to an encoder module.;Maintenant que toutes nos classes principales sont construites (ou construites pour nous), nous nous tournons vers un module encodeur. In the most powerful transformers, an arbitrarily large number of these encoders are stacked on top of one another.;Dans les transformers les plus puissants, un nombre important de ces encodeurs sont empilés les uns sur les autres. Recall that self attention by itself does not have any recurrence or convolutions, but that’s what allows it to run so quickly. To make it sensitive to position we provide positional encodings. These are calculated as follows:;Rappelons que l’auto-attention n’a en soi ni récurrence ni convolutions, mais que c’est ce qui lui permet de fonctionner si rapidement. Pour être sensible à la position, nous fournissons des encodeurs de position. Ceux-ci sont calculés comme suit : An entire encoder, with N stacked encoder layers, as well as position embeddings, is written out as;Un encodeur complet, avec N couches d’encodeur empilées, ainsi que des enchâssements de position, s’écrit : Example Use;Exemple d’utilisation There is a lot of tasks you can use just an Encoder for. In the accompanying notebook, we see how an encoder can be used for sentiment analysis.;Il y a beaucoup de tâches pour lesquelles vous pouvez utiliser un simple encodeur. Dans le notebook, nous voyons comment un encodeur peut être utilisé pour l’analyse des sentiments. Using the imdb review dataset, we can output from the encoder a latent representation of a sequence of text, and train this encoding process with binary cross entropy, corresponding to a positive or negative movie review.;En utilisant le jeu de données d’IMDB (l’équivalent anglophone d’AlloCiné), nous pouvons sortir de l’encodeur une représentation latente d’une séquence de texte et entraîner ce processus d’encodage avec une entropie croisée binaire, correspondant à une critique de film positive ou négative. Again we leave out the nuts and bolts, and direct you to the notebook, but here is the most important architectural components used in the transformer:;Là encore, nous laissons de côté les dessous techniques et nous vous dirigeons vers le notebook. Voici les composants architecturaux les plus importants utilisés dans le transformer : Where this model is trained in typical fashion.;Où ce modèle est entraîné de façon typique. Week 13;Semaine 13 In this section, we discuss the architecture and convolution of traditional convolutional neural networks. Then we extend to the graph domain. We understand the characteristics of graph and define the graph convolution. Finally, we introduce spectral graph convolutional neural networks and discuss how to perform spectral convolution.;Dans cette section, nous abordons l’architecture et la convolution dans les ConvNets traditionnels. Puis nous l’étendons au domaine des graphes. Nous comprenons les caractéristiques des graphes et définissons la convolution pour un graphe. Enfin, nous introduisons les réseaux convolutifs spectraux pour graphe et discutons de la manière d’effectuer la convolution spectrale. This section covers the complete spectrum of Graph Convolutional Networks (GCNs), starting with the implementation of Spectral Convolution through Spectral Networks. It then provides insights on applicability of the other convolutional definition of Template Matching to graphs, leading to Spatial networks. Various architectures employing the two approaches are detailed out with their corresponding pros & cons, experiments, benchmarks and applications.;Cette section couvre le spectre complet des réseaux convolutifs pour graphe (GCNs pour Graph Convolutional Networks) en commençant par la mise en œuvre de la convolution spectrale à travers les réseaux spectraux. Elle donne ensuite un aperçu de l’applicabilité de la définition de la convolution via l’appariement de patrons (template matching) aux graphes aboutissant aux réseaux spatiaux. Diverses architectures utilisant les deux approches sont détaillées avec leurs avantages et inconvénients, des expériences, les références et les applications correspondants. In this section, we introduce Graph Convolutional Network (GCN) which is one type of architecture that utilizes the structure of data. Actually, the concept of GCNs is closely related to self-attention. After understanding the general notation, representation and equations of GCN, we delve into the theory and code of a specific type of GCN known as Residual Gated GCN.;Dans cette section, nous présentons le réseau convolutif pour graphe (GCN) qui est un type d’architecture utilisant la structure des données. En fait, le concept de GCN est étroitement lié à l’auto-attention. Après avoir compris la notation générale, la représentation et les équations des GCNs, nous nous penchons sur la théorie et le code d’un type spécifique de GCN connu sous le nom de GCN résiduel à porte. Graph Convolutional Networks I;Réseau convolutif pour graphe I Traditional ConvNets;Réseaux convolutifs traditionnels ConvNets are powerful architectures to solve high-dimensional learning problems.;Les réseaux convolutifs sont des architectures puissantes permettant de résoudre des problèmes d’apprentissage en grandes dimensions. What is the Curse of Dimensionality?;Qu’est-ce que la malédiction de la dimensionnalité ? Consider an image of 1024 x 1024 pixels. This image can be seen as a point in the space for 1,000,000 dimensions. Using 10 samples per dimension generates 10^1,000,000 images, which is extremely high. ConvNets are extremely powerful to extract best representation of high-dimensional image data, such as the one given in the example.;Considérons une image de 1024×1024 pixels. Cette image peut être considérée comme un point dans l’espace de 1000000 de dimensions. L’utilisation de 10 échantillons par dimension génère 10^1000000 images, ce qui est extrêmement élevé. Les réseaux convolutifs sont extrêmement puissants pour extraire la meilleure représentation des données d’images en grandes dimensions, comme celle donnée dans l’exemple. Main assumptions about ConvNets:;Principales hypothèses sur les ConvNets : 1. Data (images, videos, speech) is compositional.;1. Les données (images, vidéos, discours) sont compositionnelles. It is formed of patterns that are:;Elles sont formées de motifs qui sont : Local A neuron in the neural network is only connected to the adjacent layers, but not to all layers in the network. We call this the local reception field assumption.;Locaux : un neurone du réseau neuronal n’est connecté qu’aux couches adjacentes, mais pas à toutes les couches du réseau. C’est ce que nous appelons l’hypothèse du champ de réception local. Stationary We have some patterns that are similar and are shared across our image domain. For example, the yellow bedsheet in the middle image of figure 2.;Stationnaires : nous avons des motifs qui sont similaires et qui sont partagés dans tout notre domaine d’image. Par exemple, le drap de lit jaune dans l’image du milieu de la figure 2. Hierarchical Low level features will be combined to form medium level features. Subsequently, these medium level features will combined to progressively form higher and higher level features. For example, a visual representation.;Hiérarchiques : les caractéristiques de bas niveau seront combinées pour former des caractéristiques de niveau moyen. Par la suite, ces éléments de niveau moyen seront combinés pour former des éléments de niveau supérieur. 2. ConvNets leverage the compositionality structure.;2. Les ConvNets tirent parti de la compositionnalité de la structure. They extract compositional features and feed them to classifier, recommender, etc.;Ils extraient les caractéristiques de composition et les transmettent au classifieur, au recommandeur, etc. Graph Domain;Domaine du graphe Data Domain;Domaine des données Images, volumes, videos lie on 2D, 3D, 2D+1 Euclidean domains (grids). Each pixel is represented by a vector of red, green, and blue values.;Les images, volumes, vidéos se situent sur des domaines euclidiens 2D, 3D, 2D+1 (grilles). Chaque pixel est représenté par un vecteur de valeurs rouge, vert et bleu. Sentences, words, speech lie on 1D Euclidean domain. For example, each character can be represented by an integer.;Les phrases, les mots, la parole se trouvent sur le domaine euclidien 1D. Par exemple, chaque caractère peut être représenté par un entier. These domains have strong regular spatial structures, which allows all ConvNets operations to be fast and mathematically well defined.;Ces domaines ont de fortes structures spatiales régulières, ce qui permet à toutes les opérations des réseaux convolutifs d’être rapides et mathématiquement bien définies. Graph Domain;Domaine du graphe Motivational Examples of graph domains;Exemples de domaine du graphe Let’s consider a social network. The social network is best captured by a graph representation since pair-wise connection between two users do not form a grid. Nodes of the graph represents users, whereas the edges between two nodes represent connection between two nodes (users). Each user has a three-dimensional feature matrix containing such as messages, images, and videos.;Envisageons un réseau social. Le réseau social est mieux capturé par une représentation sous forme de graphe car la connexion par paire entre deux utilisateurs ne forme pas une grille. Les nœuds du graphe représentent les utilisateurs, tandis que les arêtes entre deux nœuds représentent la connexion entre deux utilisateurs. Chaque utilisateur dispose d’une matrice de caractéristiques tridimensionnelles contenant des messages, des images et des vidéos. The connection between the structure and function of the brain to predict neural genetic diseases offers a motivational example to consider. As can be seen below, the brain is composed of several Region of Interest(s) (ROI). These ROIs is only locally connected to some surrounding regions of interests. Adjacency matrix represents the degree of strengths between different regions of interest.;Le lien entre la structure et la fonction du cerveau pour prédire les maladies génétiques neurales offre un exemple de motivation à prendre en considération. Comme on peut le voir ci-dessous, le cerveau est composé de plusieurs régions d’intérêt (ROIs pour Regions of Interest). Ces ROIs ne sont connectées que localement à certaines régions d’intérêt environnantes. La matrice d’adjacence représente le degré de force entre les différentes régions d’intérêt. Quantum Chemistry also offers an interesting representation of graphical domain. Each atom is represented by a node in graph and is connected to other atoms through bonds using edges. Each of these molecules/atoms have different features, such as the associated charge, bond type etc.;La chimie quantique offre également une représentation intéressante du domaine graphique. Chaque atome est représenté par un nœud dans le graphe et est relié aux autres atomes par des liaisons utilisant des arêtes. Chacun de ces molécules/atomes présente des caractéristiques différentes, telles que la charge associée, le type de liaison, etc. Graph Definition and Characteristics;Définition et caractéristiques des graphes Graph G is defined by:;Le graphe G est défini par : Vertices V;des sommets V (V pour vertices en anglais) Edges E;des arêtes E (E pour edges en anglais) Adjacency matrix A;une matrice d’adjacence A Graph features:;Les caractéristiques d’un graphe : Node features: hi​, hj (atom type);caractéristiques au niveau d’un nœud : hi, hj​ (ex : un atome) Edge features: eij​ (bond type);caractéristiques au niveau d’un arête : eij​ (ex : une liaison entre atome) Graph features: g (molecule energy);caractéristiques au niveau du graphe : g (ex : une molécule) Convolution of Traditional ConvNets;Convolution des ConvNets traditionnels Convolution;Convolution We abstractly define convolution as:;Nous définissons abstraitement la convolution comme : hℓ+l=wℓ∗hℓ, where hℓ+1 is n1​×n2​×d-dimensional, wℓ is 3×3×d-dimensional, and hℓ is n1​×n2​×d-dimensional. For example, n1​ and n2​ could be the number of pixels in the x and y directions of an image, respectively, and d is the dimensionality of each pixel (e.g., 3 for a colored image). So, hℓ+1 is a feature at the (ℓ+1)-th hidden layer obtained by applying the convolution wℓ to a feature at the ℓ-th layer. Usually the kernel is small to represent a local reception field – 3×3 in this case, or 5×5, for example. Note: we use padding to ensure the dimensions of hℓ+1 are the same as those of hℓ.;hℓ+l=wℓ∗hℓ, où hℓ+1 est n1​×n2​×d-dimensionnel, wℓ est 3×3×d-dimensionnel, et hℓ est n1×n2×d-dimensionnel. Par exemple, n1 et n2​ pourraient être le nombre de pixels dans les directions x et y d’une image, respectivement, et d la dimensionnalité de chaque pixel (par exemple, 3 pour une image en couleur). Ainsi, hℓ+1 est une caractéristique au niveau de la (ℓ+1)-ème couche cachée obtenue en appliquant la convolution wℓ à une caractéristique au niveau de la ℓ-ème couche. Habituellement, le noyau est petit pour représenter un champ de réception local (3×3 ou 5×5 par exemple). Note : nous utilisons un rembourrage pour nous assurer que les dimensions de hℓ+1 sont les mêmes que celles de hℓ. For example, in this image, the kernel may be used to recognize lines.;Par exemple, dans cette image, le noyau peut être utilisé pour reconnaître les lignes. How do we define convolution?;Comment définir la convolution ? More exactly, convolution is defined as follows:;Plus précisément, la convolution est définie comme suit : The above defines convolution as template matching.;Ce qui précède définit la convolution comme l’appariement de patrons/pochoirs (template matching). We usually use hi+j​ instead of hi−j​, because the former is actually correlation, which is more like template matching.;Nous utilisons généralement hi+j au lieu de hi−j, car la première ligne est en fait une corrélation, qui ressemble davantage à l’appariement de patrons. However, it does not really matter if you use the first or second, because your kernel is just flipped, and this does not impact learning.;Cependant, peu importe que nous utilisions la première ou la deuxième ligne car notre noyau est simplement retourné et cela n’a pas d’incidence sur l’apprentissage. In the third line, we just write hi+jℓ​ as hijℓ.;Dans la troisième ligne, nous écrivons simplement hi+jℓ comme hijℓ​. The kernel is very small, so instead of summing over the whole image Ω, as in the second line, we actually just sum over the neighborhood of cell i, Ni​, as denoted in the third line.;Le noyau est très petit donc au lieu d’additionner sur toute l’image Ω, comme dans la deuxième ligne, nous additionnons juste sur le voisinage de la cellule i, Ni​, comme indiqué dans la troisième ligne. This makes it so that the complexity of convolution is O(n), where N is the number of pixels in the input image.;Cela fait que la complexité de la convolution est de O(n) où N est le nombre de pixels de l’image d’entrée. Convolution is exactly for each of the N pixels, summing over inner products of vectors of dimension d over 3×3 grids.;La convolution est pour chacun des pixels n, en additionnant sur les produits internes des vecteurs de dimension d sur des grilles 3×3. "The complexity is thus n⋅3⋅3⋅d, which is O(n); and moreover the computational can be done in parallel with GPUs at each of the N pixels.";La complexité est donc de n⋅3⋅3⋅d, ce qui correspond à O(n). De plus le calcul peut être effectué en parallèle avec les GPUs pour chacun des N pixels. If the graph you are convolving over is a grid, as in standard convolution over images in computer vision, then the nodes are ordered as in the above image. Therefore, j3​ will always be in the top right corner of the pattern.;Si le graphe sur lequel nous effectuons la convolution est une grille, comme dans la convolution standard sur les images en vision par ordinateur, alors les nœuds sont ordonnés comme dans l’image ci-dessus. Par conséquent, j3​ se trouvera toujours dans le coin supérieur droit du graphe. So for all nodes i in the image below, such as i and i’, the node ordering of the kernel is always the same. For example, you always compare j3​ at the top right corner of the pattern with the top right corner of the image patch (what we convolve over for pixel i), as shown below. Mathematically speaking:;Ainsi, pour tous les nœuds i dans l’image ci-dessous, comme i et i’, l’ordre des nœuds du noyau est toujours le même. Par exemple, nous comparons toujours j3​ dans le coin supérieur droit du motif avec le coin supérieur droit du patch de l’image (ce sur quoi nous effectuons une convolution pour le pixel i), comme indiqué ci-dessous. Mathématiquement parlant : are always for the top right corner between the template and the image patches.;sont toujours pour le coin supérieur droit entre le modèle et les patchs d’image. Can we extend template matching for graphs?;Pouvons-nous étendre l’appariement de patrons aux graphes ? We have a couple of issues:;Nous avons quelques problèmes : 1. First, in a graph, there is no ordering of the nodes.;1. Premièrement, dans un graphe, il n’y a pas d’ordre des nœuds. So in the template shown below in the image, node j3​ has no specific position, but just an (arbitrary) index. So, when we try to match against nodes i and i’ in the graph below, we do not know if j3​ is matching against the same nodes in both convolutions. This is because there is no notion of the top right corner of the graph. There is no notion of up, down, left right. Thus, the template matchings actually have no meaning and we cannot use the definition of template matching directly, as above.;Ainsi, dans l’image, le nœud j3​ n’a pas de position spécifique, mais juste un index (arbitraire). Donc lorsque nous essayons de faire correspondre les nœuds i et i’ dans le graphe ci-dessous, nous ne savons pas si j3​ correspond aux mêmes nœuds dans les deux convolutions. Ceci est dû au fait qu’il n’y a pas de notion de coin supérieur droit dans le graphe. Il n’y a pas de notion de haut, bas, gauche droite. Ainsi, l’appariement de patrons n’a en fait aucune signification et nous ne pouvons pas l’utiliser directement comme ci-dessus. 1. The second issue is that neighborhood sizes may be different.;1. Le deuxième problème est que la taille du voisinage peut être différente. So the template wℓ shown below has 4 nodes, but node i has 7 nodes in its neighborhood. How can we compare these two?;Le modèle wℓ présenté ci-dessous a 4 nœuds, mais le nœud i a 7 nœuds dans son voisinage. Comment pouvons-nous comparer ces deux choses ? Graph Convolution;Convolution pour un graphe We now use the Convolution Theorem to define convolution for graphs.;Nous utilisons maintenant le théorème des convolutions pour définir les convolutions des graphes. The Convolution Theorem states that the Fourier transform of the convolution of two functions is the pointwise product of their Fourier transforms:;Le théorème des convolutions indique que la transformée de Fourier (FFT) de la convolution de deux fonctions est le produit élément par élément de leurs transformées de Fourier : In general, the Fourier transform has O(n2) complexity, but if the domain is a grid, then the complexity can be reduced to O(nlogn) with FFT.;En général, la transformée de Fourier a une complexité de O(n2), mais si le domaine est une grille, alors la complexité peut être réduite à O(nlogn) avec la FFT. Can we extend the Convolution theorem to graphs?;Peut-on étendre le théorème de la convolution aux graphes ? This raises two questions:;Cela soulève deux questions : 1. How to define Fourier transforms for graphs?;1. Comment définir les transformées de Fourier pour les graphes ? 2. How to compute fast spectral convolutions in O(n) time for compact kernels (as in template matching)?;2. Comment calculer des convolutions spectrales rapides en temps O(n) pour les noyaux compacts (comme dans l’appariement de patrons) ? We are going to use these two design for graph neural networks: Template matching will be for spacial graph ConvNets and the Convolution theorem will be used for the spectral ConvNets.;Nous allons utiliser ces deux modèles pour les réseaux de neurones pour graphes. L’appariement de patrons sera utilisé pour les GCNs (ConvNets pour graphe) spatiaux et le théorème de convolution sera utilisé pour les GCNs spectraux. Spectral Graph ConvNets;GCNs spectraux How to perform spectral convolution?;Comment effectuer une convolution spectrale ? Step 1 : Graph Laplacian;Étape 1 : Graphe Laplacien This is the core operator in spectral graph theory.;C’est l’opérateur central de la théorie des graphes spectraux. Define;Définir Note Matrix a is the adjacency matrix, and the Δ is the Laplacian, which equals to the identity minus the adjacency matrix normalized by Matrix D. D is a diagonal matrix, and each element on the diagonal is the degree of the node. This is called the normalized Laplacian, or Laplacian by default in this context.;A est la matrice d’adjacence et le Δ est le Laplacien, qui est égal à l’identité moins la matrice d’adjacence normalisée par la matrice D. D est une matrice diagonale et chaque élément de la diagonale est le degré du nœud. C’est ce qu’on appelle le Laplacien normalisé ou simplement Laplacien par défaut dans ce contexte. The Laplacian is interpreted as the measurement of smoothness of graph, in other words, the difference between the local value hi​ and its neighborhood average value of hj​’s. di​ on the formula below is the degree of node i, and Ni​ is the all the neighbors of node i.;Le Laplacien est interprété comme la mesure de la finesse du graphe, en d’autres termes, la différence entre la valeur locale hi​ et sa valeur moyenne de voisinage de hj​’s. di​ sur la formule ci-dessous est le degré du nœud i, et Ni​ est l’ensemble des voisins du nœud i. The formula above is to apply Laplacian to a function h on the node i, which is the value of hi​ minus the mean value over its neighboring nodes hj​’s. Basically, if the signal is very smooth, the Laplacian value is small, and vice versa.;La formule ci-dessus consiste à appliquer le Laplacien à une fonction h sur le nœud i, qui est la valeur de hi​ moins la valeur moyenne sur ses nœuds voisins hj​. Fondamentalement, si le signal est très lisse, la valeur de Laplacien est faible et vice versa. Step 2 : Fourier Functions;Étape 2 : Fonctions de Fourier The following is the eigen-decomposition of graph Laplacian,;Voici la décomposition en valeur propre du graphe Laplacien : The Laplacian is factorized into three matrices, ΦT, Λ, Φ.;Le Laplacien est factorisé en trois matrices, ΦT, Λ, Φ. Φ is defined below, it contains column vectors, or Lap eigenvectors ϕ1​ to ϕn​, each of size n×1, and those are also called Fourier functions. And Fourier functions form an orthonormal basis.;Φ est défini ci-dessous, il contient des vecteurs colonnes, ou vecteurs propres de Lap ϕ1​ à ϕn​, chacun de taille n×1, et ceux-ci sont aussi appelés fonctions de Fourier. Et les fonctions de Fourier forment une base orthonormée. Λ is a diagonal matrix with Laplacian eigenvalues, and on the diagonal are λ1​ to λn​. And from the normalized applications, these values are typically among the range from 0 to 2. Those are also known as the Spectrum of a graph. See the formula below.;Λ est une matrice diagonale avec des valeurs propres Laplaciennes, et sur la diagonale se trouvent λ1​ à λn​. Et d’après les applications normalisées, ces valeurs sont généralement comprises entre 0 et 2. Ces valeurs sont également connues sous le nom de « spectre du graphe ». Voir la formule ci-dessous. Below is an example of checking the eigenvalue decomposition. The Laplacian matrix Λ is multiplied by an eigenvector ϕk​, the shape of the result is n×1, and the result is λk​ϕk​.;Ci-dessous un exemple de vérification de la décomposition de la valeur propre. La matrice Laplacienne Λ est multipliée par un vecteur propre ϕk​, la forme du résultat est n×1 et le résultat est λk​ϕk​. The image below is the visualization of eigenvectors of 1D Euclidean Laplacian.;L’image ci-dessous est la visualisation des vecteurs propres du Laplacien euclidien 1D. For graph domain, from the left to right, is the first, second, third, .. Fourier functions of a graph. For example, ϕ1​ has oscillations of positive (red) and negative (blue) values, same for ϕ2, ϕ3. Those oscillations depend on the topology of a graph, which related to the geometry of graphs such as communities, hubs, etc, and it’s helpful for graph clustering. See below.;Pour le domaine des graphes, de gauche à droite, se trouvent les première, deuxième, troisième, …, fonctions de Fourier d’un graphe. Par exemple, ϕ1​ a des oscillations de valeurs positives (rouge) et négatives (bleu), de même pour ϕ2, ϕ3. Ces oscillations dépendent de la topologie d’un graphe, qui est liée à la géométrie des graphes tels que les communautés, les hubs, etc, et c’est utile pour le regroupement des graphes. Voir ci-dessous. Step 3 : Fourier Transform;Étape 3 : Transformée de Fourier Fourier series: Decompose function h with Fourier functions.;Séries de Fourrier : décomposer la fonction h avec les fonctions de Fourier. Take the function h and projected on each Fourier function ϕk​, resulting in the coefficient of Fourier series of k, a scaler, and then multiplied by the function ϕk​.;Prendre la fonction h et la projeter sur chaque fonction de Fourier ϕk​, ce qui donne le coefficient de la série de Fourier de k, une échelle, puis le multiplier par la fonction ϕk​. The Fourier transform is basically projecting a function h on the Fourier functions, and the result are the coefficients of the Fourier series.;La transformée de Fourier consiste essentiellement à projeter une fonction h sur les fonctions de Fourier. Les résultats sont les coefficients des séries de Fourier. Fourier Transform/ coefficients of Fourier Series;Transformation de Fourier/ coefficients des séries de Fourier Inverse Fourier Transform;Transformée de Fourier inverse Fourier transforms are linear operations, multiplying a matrix ΦT with a vector h.;Les transformées de Fourier sont des opérations linéaires, qui multiplient une matrice ΦT par un vecteur h. Step 4 : Convolution Theorem;Étape 4 : Théorème des convolutions Fourier transform of the convolution of two functions is the pointwise product of their Fourier transforms.;La transformée de Fourier de la convolution de deux fonctions est le produit élément par élément de leurs transformées de Fourier. The example above is the convolution of w and h, both of shape n×1, it equals the inverse of Fourier transform of pointwise product between Fourier transform of w and of h. The formula above shows that it also equals to the matrix multiplication of w^(Δ) and h.;L’exemple ci-dessus est la convolution de w et h, tous deux de forme n×1, elle est égale à l’inverse de la transformée de Fourier du produit élément par élément entre la transformée de Fourier de w et de h. La formule ci-dessus montre qu’elle est également égale à la multiplication matricielle de w^(Δ) et de h. The convolution of two functions on the graph h and w is to take the spectrum function of w and apply it to Laplacian and multiply it by h, and this is the definition of spectrum convolution. However, the computation complexity is O(n2), while N is the number of nodes in the graph.;La convolution de deux fonctions sur les graphes h et w consiste à prendre la fonction de spectre de w, à l’appliquer au Laplacien et à la multiplier par h. C’est la définition de la convolution du spectre. Cependant, la complexité du calcul est de O(n2), alors que N est le nombre de nœuds du graphe. Limitation;Limitation The spectral convolution against the graph domain is not shifting invariance, which means that if shifted, the shape of the function might also be changed, while in grid/euclidean domain does not.;La convolution spectrale par rapport au domaine du graphe n’est pas une invariance au décalage, ce qui signifie que si elle est décalée, la forme de la fonction peut également être modifiée. Alors que dans le domaine de la grille/euclidienne, elle ne l’est pas. Graph Convolutional Networks II;Réseau convolutif pour graphe II Spectral Graph ConvNets (GCNs);Réseaux convolutifs pour graphe (GCNs) spectraux In the previous section we discussed Graph Spectral Theory, one of the two ways to define convolution for graphs, which we can now use to define Spectral GCNs.;Dans la partie du cours précédente, nous avons discuté de la théorie spectrale des graphes et de l’une des deux façons de définir la convolution des graphes que nous pouvons maintenant utiliser pour définir les GCNs spectraux. Vanilla Spectral GCN;GCN spectral standard We define a graph spectral convolutional layer such that given layer hl, the activation of the next layer is:;Nous définissons une couche convolutionnelle spectrale pour graphe telle que, étant donnée la couche hl, l’activation de la couche suivante est : where η represents a nonlinear activation and wl is a spatial filter. The RHS of the equation is equivalent to η(w^l(Δ)hl) where w^lw^l represents a spectral filter and Δ is the Laplacian. We can further decompose the RHS of the equation into η(ϕw^l(Λ)ϕ⊤hl), where ϕ is the Fourier matrix and Λ is the eigenvalues. This yields the final activation equation as below.;où η représente une activation non linéaire et wl est un filtre spatial. Le côté droit de l’équation est équivalent à η(w^l(Δ)hl) où w^l représente un filtre spectral et Δ est le Laplacien. Nous pouvons ensuite décomposer le côté droit de l’équation en η(ϕw^l(Λ)ϕ⊤hl), où ϕ est la matrice de Fourier et Λ sont les valeurs propres. On obtient ainsi l’équation d’activation finale suivante : The objective is to learn the spectral filter w^l(λ) using backpropagation instead of hand crafting.;L’objectif est d’apprendre le filtre spectral w^l(λ) en utilisant la rétropropagation au lieu de la conception manuelle. This technique was the first spectral technique used for ConvNets, but it has a few limitations:;Cette technique a été la première technique spectrale utilisée pour les ConvNets, mais elle présente quelques limites : No guarantee of spatial localization of filters;Aucune garantie de localisation spatiale des filtres. Need to learn O(n) parameters per layer (w^(λ1) to w^(λn));Besoin d’apprendre les paramètres O(n) par couche w^(λ1​) à w^(λn​)). Learning rate is O(n2) because ϕ is a dense matrix;Le taux d’apprentissage est de O(n2) car ϕ est une matrice dense. SplineGCNs;Les SplineGCNs SplineGCNs involve computing smooth spectral filters to get localized spatial filters. The connection between smoothness in frequency domain and localization in space is based on Parseval’s Identity (also Heisenberg uncertainty principle): smaller derivative of spectral filter (smoother function) ⇔ smaller variance of spatial filter (localization).;Les SplineGCNs impliquent le calcul de filtres spectraux lisses pour obtenir des filtres spatiaux localisés. Le lien entre le lissage dans le domaine fréquentiel et la localisation dans l’espace est basé sur l’égalité de Parseval : plus petite dérivée du filtre spectral (fonction de lissage) ⇔ plus petite variance du filtre spatial (localisation). How do we get a smooth spectral filter? We decompose the spectral filter to be a linear combination of K smooth kernels B (splines) so that w^l(Λ)=diag(Bwl). The activation equation the is as the following.;Comment obtenir un filtre spectral plus lisse ? Nous décomposons le filtre spectral pour obtenir une combinaison linéaire de K noyaux lisses B (splines) de sorte que w^l(Λ)=diag(Bwl). L’équation d’activation est la suivante : Now, we only have O(1) parameters (constant K) per layer to be learned through backpropagation. However, the learning complexity is still O(n2).;Maintenant, nous n’avons que des paramètres O(1) (K constants) par couche à apprendre par rétropropagation. Cependant, la complexité de l’apprentissage est toujours de O(n2). LapGCNs;LapGCNs How do we learn in linear time O(n) (w.r.t. graph size nn)? The O(n2) complexity is a direct result of using Laplacian eigenvectors. We need to avoid eigen-decomposition, which can be achieved by directly learning a function of the Laplacian. The spectral function will be a monomial of the Laplacian as shown here.;Comment apprenons-nous en temps linéaire O(n) (taille du graphe par rapport à n) ? La complexité O(n2) est le résultat direct de l’utilisation de vecteurs propres laplaciens. Nous devons éviter la décomposition propre, qui peut être réalisée en apprenant directement une fonction du Laplacien. La fonction spectrale est un monôme du Laplacien comme montré ici : One nice feature is that filters are localized in exactly k-hop supports.;Une caractéristique intéressante est que les filtres sont localisés exactement dans les supports k-hop. We replace the expression Δkh with Xk​, a recursive equation defined as,;Nous remplaçons l’expression Δkh par Xk​, une équation récursive définie comme : Complexity is now O(E.K)=O(n) for sparse (real-world) graphs. We can reshape Xk​ into Xˉ to form a linear operation. We now have the following activation equation.;La complexité est maintenant de O(E.K)=O(n) pour les graphes épars (du monde réel). Nous pouvons remodeler Xk​ en Xˉ pour former une opération linéaire. Nous avons maintenant l’équation d’activation suivante : Note: Since no Laplacian eigen-decomposition is used, all operations are in the spatial (not spectral) domain, so calling them Spectral GCNs may be misguided. Further, another drawback of LapGCNs is that convolutional layers involve sparse linear operations, which GPU’s are not fully optimized for.;Note : comme aucune décomposition propre laplacienne n’est utilisée, toutes les opérations se situent dans le domaine spatial (et non spectral). Il peut donc être erroné de les appeler GCNs spectraux. En outre, un autre inconvénient des LapGCNs est que les couches convolutionnelles impliquent des opérations linéaires éparses pour lesquelles les GPUs ne sont pas totalement optimisés. We now have resolved the 3 limitations of Vanilla GCNs through localized filters (in K-hop support), O(1) parameters per layer and O(n) learning complexity. However, the limitation of LapGCNs is that monomial basis (Δ0,Δ1,…) used is unstable for optimization because it is not orthogonal (changing one coefficient changes the function approximation).;Nous avons maintenant résolu les 3 limitations des GCNs standards grâce à des filtres localisés (en support K-hop), O(1) paramètres par couche et O(n) complexité d’apprentissage. Cependant, la limitation des GCNs standards est que la base monomiale (Δ0,Δ1,…) utilisée est instable pour l’optimisation car elle n’est pas orthogonale (la modification d’un coefficient modifie l’approximation de la fonction). ChebNets;ChebNets To resolve the issue of unstable basis we can use any orthonormal basis, but it must have a recursive equation to ensure linear complexity. For ChebNets we use Chebyshev polynomials, and as in a LapGCN we represent the expression Tk(Δ)h (Chebyshev function applied to h) by Xk​, a recursive equation defined as,;Pour résoudre la question de la base instable, nous pouvons utiliser n’importe quelle base orthonormée, mais elle doit avoir une équation récursive pour assurer une complexité linéaire. Pour les ChebNets, nous utilisons des polynômes de Tchebyshev, et comme dans un LapGCN, nous représentons l’expression Tk​(Δ)h (fonction de Tchebyshev appliquée à h) par Xk​, une équation récursive définie comme : Now we have stability under coefficient perturbation.;Nous avons maintenant une stabilité sous l’effet de la perturbation du coefficient. ChebNets are GCNs that can be used for any arbitrary graph domain, but the limitation is that they are isotropic. Standard ConvNets produce anisotropic filters because Euclidean grids have direction, while Spectral GCNs compute isotropic filters since graphs have no notion of direction (up, down, left, right).;Les ChebNets sont des GCNs qui peuvent être utilisés pour n’importe quel domaine de graphe arbitraire, mais la limitation est qu’ils sont isotropes. Les ConvNets standards produisent des filtres anisotropes car les grilles euclidiennes ont une direction, tandis que les GCNs spectraux calculent des filtres isotropes car les graphes n’ont pas de notion de direction (haut, bas, gauche, droite). We can extend ChebNets to multiple graphs using a 2D spectral filter. This may be useful, for example, in recommender systems where we have movie graphs and user graphs. Multi-graph ChebNets have the activation equation as below.;Nous pouvons étendre les ChebNets à plusieurs graphes en utilisant un filtre spectral 2D. Cela peut être utile, par exemple, dans les systèmes de recommandation où nous avons des graphes de films et des graphes d’utilisateurs. Les ChebNets multi-graphes ont l’équation d’activation suivante : CayleyNets;CayleyNets ChebNets are unstable to produce filters (localize) with frequency bands of interest (graph communities). In CayleyNets, we instead use as our orthonormal basis Cayley rationals.;Les ChebNets sont instables pour produire des filtres (localiser) avec des bandes de fréquences d’intérêt (communautés de graphes). Dans les CayleyNets, nous utilisons plutôt comme base orthonormée les rationnels de Cayley : CayleyNets have the same properties as ChebNets (are isotropic), but they are localized in frequency (with spectral zoom) and provide a richer class of filters (for the same order K).;Les CayleyNets ont les mêmes propriétés que les ChebNets (sont isotropes), mais ils sont localisés en fréquence (avec un zoom spectral) et fournissent une classe de filtres plus riche (pour le même ordre de grandeur K). Spatial Graph ConvNets;GCNs spaciaux Template Matching;Appariement de patrons To understand Spatial Graph ConvNets, we go back to the Template Matching definition of ConvNets.;Pour comprendre les CGNs spaciaux, nous revenons à la définition des ConvNets via l’appariement de patrons. The main issue when we perform Template Matching for graphs is the lack of node ordering or positioning for the template. All we have are the indices of nodes, which isn’t enough to match information between them. How do we design template matching to be invariant to node re-parametrisation? That is, if we have a graph and one of the nodes had an arbitrary index, say 6, this index could’ve been 122 as well. So it’s essential to be able to perform template matching independent to the index of the node.;Le problème principal lorsque nous effectuons l’appariement de patrons pour les graphes est l’absence d’ordre ou de positionnement des nœuds pour le modèle. Tout ce que nous avons, ce sont les indices des nœuds, ce qui ne suffit pas pour faire correspondre les informations entre eux. Comment pouvons-nous concevoir l’appariement de patrons de manière à ce qu’il soit invariant pour le reparamétrage des nœuds ? C’est-à-dire pas de modification si nous avons un graphe et changeons l’indice arbitraire de l’un des nœuds de, disons 6, à 122. Il est donc essentiel de pouvoir effectuer l’appariement de patrons indépendamment de l’index du nœud. The simplest way to do this is by having only one template vector wl, instead of having wj1​,wj2, wj3​ or so on. So we match this vector wl with all other features on our graph. Most Graph Neural Networks today use this property.;La façon la plus simple de le faire est d’avoir un seul vecteur de patron wl, au lieu d’avoir wj1​, wj2​, wj3​ ou ainsi de suite. Nous faisons donc correspondre ce vecteur wl avec toutes les autres caractéristiques de notre graphe. La plupart des GNNs utilisent aujourd’hui cette propriété. Mathematically, for one feature we have,;Mathématiquement, pour une caractéristique que nous avons : where, wl is the template vector at layer l of dimensions d×1 and hijl​ is the vector at node j with d×1 which will result in a scalar quantity hil+1​ at node i.;où wl est le vecteur de patron au niveau de la couche ll de dimensions d×1 et hijl​ est le vecteur au niveau du nœud j avec d×1 ce qui donnera une quantité d’échelle hil+1​ au nœud i. for more(d) features,;Pour (d) caractéristiques : where, wl is of the dimensionality d×d and hil+1​ is d×1;où wl est de la dimension d×d et hil+1​ est d×1 for a vectoral representation,;Pour une représentation vectorielle : where, a is the adjacency matrix of dimensions n×n, hl is the activation function at the layer l with dimensions n×d.;où a est la matrice d’adjacence de dimensions n×n, hl est la fonction d’activation à la couche l de dimensions n×dn×d. Based on this definition of Template Matching we can define two types of Spatial GSNs – Isotropic GCNs and Anisotropic GCNs.;Sur la base de cette définition de l’appariement de patrons, nous pouvons définir deux types de GCNs spatiaux : les GCNs isotropes et les GCNs anisotropes. Isotropic GCNs;Les GCNs isotropiques Vanilla Spatial GCNs;GCNs spaciaux standards It has the same definition as before, but we add the Diagonal matrix in the equation, in such a way that we find the mean value of the neighbourhood.;Même définition qu’auparavant, mais nous ajoutons la matrice diagonale dans l’équation, de telle sorte que nous trouvons la valeur moyenne du voisinage. Matrix representation being,;La représentation matricielle étant : where, a has the dimensions n×n, hl has dimensions n×d and wl has d×d, which results in a n×d hl+1 matrix.;où, A a les dimensions n×n, hl a les dimensions n×d et wl a d×d, ce qui donne une matrice n×d hl+1. And the vectorial representation being,;Et la représentation vectorielle étant : where, hil+1​ has the dimensions of d×1;où, hil+1​ a les dimensions de d×1 The vectorial representation is responsible for handling the absence of node ordering, which is invariant of node re-parametrisation. That is, adding on the previous example, if the node has an in 6 and is changed to 122, this won’t change anything in the computation of the activation function of the next layer hl+1.;La représentation vectorielle est responsable de la gestion de l’absence d’ordonnancement des nœuds, qui est invariante de la reparamétrisation des nœuds. C’est-à-dire, en ajoutant à l’exemple précédent, si le nœud en 6 et est changé en 122, cela ne changera rien dans le calcul de la fonction d’activation de la couche suivante hl+1. We can also deal with neighbourhood of different sizes. That is we can have a neighbourhood of 4 nodes or 10 nodes, it wouldn’t change anything.;Nous pouvons également traiter des voisinages de tailles différentes. C’est-à-dire que nous pouvons avoir un voisinage de 4 nœuds ou de 10 nœuds, cela ne changera rien. We are given the local reception field by design, that is, with Graph Neural Networks we only have to consider the neighbours.;Le champ de réception local nous est donné par conception, c’est-à-dire qu’avec les GNNs, nous n’avons qu’à considérer les voisins. We have weight sharing, that is, we the same wl matrix for all features no matter the position of the graph, which is a Convolution property.;Nous avons un partage de poids, c’est-à-dire que nous avons la même matrice wl pour toutes les caractéristiques quelle que soit la position du graphe, qui est une propriété de convolution. This formulation is also independent of the graph size, since all operations are done locally.;Cette formulation est également indépendante de la taille du graphe puisque toutes les opérations sont effectuées localement. Since it is an isotropic model, the neighbours will have the same wl matrix.;Comme il s’agit d’un modèle isotrope, les voisins auront la même matrice wl. So, the activation of the next layer hil+1​ is a function of the activation of the previous layer hil​ at node i and the neighbourhood of i. When we change the function, we get an entire family of graphs.;Ainsi, l’activation de la couche suivante hil+1​ est une fonction de l’activation de la couche précédente hil​ au nœud i et au voisinage de i. Lorsque nous modifions la fonction, nous obtenons une famille entière de graphes. ChebNets and Vanilla Spatial GCNs;ChebNets et GCNs spaciaux standards The above defined Vanilla Spatial GCN is a simplification of ChebNets. We can truncate the expansion of ChebNet by using the first two Chebyshev functions to end up with,;Le GCN spatial standard défini ci-dessus est une simplification des ChebNets. Nous pouvons tronquer l’expansion de ChebNet en utilisant les deux premières fonctions de Chebyshev pour aboutir à : GraphSage;GraphSage If the Adjacency matrix Aij=1 for the edges in Vanilla Spatial GCNs, we get,;Si la matrice d’adjacence Aij=1 pour les arêtes dans les GCNs spatiaux standards, on obtient : For this equation, we give the central/core vertex i and it’s neighbourhood the same template weight wl. We can differentiate this by giving the central node W1l​, and having a different template node W2l​ for the one-hot neighbourhood. This will improve the performance of the GNNs by a substantial amount. This model is still considered to be Isotropic in nature, since the neighbours have the same weight.;Pour cette équation, nous donnons au sommet central/cœur i et à son voisinage le même poids de patron wl. Nous pouvons différencier cette équation en donnant au nœud central W1l​, et en ayant un nœud de patron différent W2l​ pour le voisinage one-hot. Cela permet d’améliorer considérablement les performances des GNNs. Ce modèle est toujours considéré comme étant de nature isotrope puisque les voisins ont le même poids. "where, W1l​ and W2l​ are of dimension d×d; hil​ and hjl​ are of the dimension d×1.";"où, W1l​ et W2l​ sont de dimension d×d ; hil​ et hjl​ sont de dimension d×1." In this equation, we can find the summation or maximum of W2lhjl or the Long-Short Term Memory of hjl​, instead of the mean.;Dans cette équation, on peut trouver la somme ou le maximum de W2lhjl ou la mémoire à long terme de hjl​, au lieu de la moyenne. Graph Isomorphism Networks (GIN);Graph Isomorphism Networks (GIN) An architecture that can differentiate graphs that are not isomorphic. Isomorphism is the measure of equivalence between graphs. In the figure below, the two graphs are considered isomorphic to each other. Isomorphic graphs will be treated in a similar way and non-isomorphic graphs will be treated differently.;Une architecture qui peut différencier les graphes qui ne sont pas isomorphiques. L’isomorphisme est la mesure de l’équivalence entre les graphes. Dans la figure ci-dessous, les deux graphes sont considérés comme isomorphes l’un par rapport à l’autre. Les graphes isomorphes seront traités de manière similaire et les graphes non isomorphes seront traités différemment. GIN is an isotropic GCN.;Le GIN (Graph Isomorphism Networks) est un GCN isotrope. where, BNBN stands for Batch Normalization.;où, BNBN représente la normalisation par batch. Anisotropic GCNs;GCNs anisotropes Standard CNNs have the ability to produce anisotropic filters — ones that favour certain directions. This is because the directional structure is based on up, down, left, and right. However, the GCNs described above have no notion of direction, and thus can only produce isotropic filters. Anisotropy can be introduced naturally, with edge features. For instance, molecules can have single, double, and triple bonds. Graphically, it is introduced weighting different neighbours differently.;Les ConvNets standards ont la capacité de produire des filtres anisotropes qui favorisent certaines directions. En effet, la structure directionnelle est basée sur le haut, le bas, la gauche et la droite. Cependant les ConvNets décrits ci-dessus n’ont aucune notion de direction et ne peuvent donc produire que des filtres isotropes. L’anisotropie peut être introduite naturellement avec des caractéristiques d’arêtes. Par exemple, les molécules peuvent avoir des liaisons simples, doubles et triples. Graphiquement, elle est introduite en pondérant différemment les différents voisins. MoNets;MoNets MoNets use the degree of the graph to learn the parameters of a Gaussian Mixture Model (GMM).;Les MoNets utilisent le degré du graphe pour apprendre les paramètres d’un modèle de mélange gaussien. Graph Attention Networks (GAT);Graph Attention Networks (GATs) GAT uses the attention mechanism to introduce anisotropy in the neighbourhood aggregation function.;Le GAT utilise le mécanisme d’attention pour introduire l’anisotropie dans la fonction d’agrégation du voisinage. Gated Graph ConvNets;GCNs à porte These use a simple edge gating mechanism, which can be seen as a softer attention process as the sparse attention mechanism used in GATs.;Ils utilisent un simple mécanisme de porte. Cela peut être considéré comme un processus d’attention plus doux que le mécanisme d’attention épars utilisé dans les GATs. Graph Transformers;Graph Transformers This is the graph version of the standard transformer, commonly used in NLP. If the graph is fully connected (every two nodes share an edge), we recover the definition of a standard transformer.;Il s’agit de la version sous la forme d’un graphe du transformer standard communément utilisé en traitement du langage naturel. Si le graphe est entièrement connecté (tous les deux nœuds partagent une arête), on retrouve la définition d’un transformer standard. Graphs obtain their structure from sparsity, so the fully connected graph has trivial structure and is essentially a set. Transformers then can be viewed as Set Neural Networks, and are in fact the best technique currently to analyse sets/bags of features.;Les graphes obtiennent leur structure à partir d’une éparsité, donc le graphe entièrement connecté a une structure triviale et est essentiellement un ensemble. Les transformers peuvent alors être considérés comme des réseaux de neurones Set et sont en fait la meilleure technique actuelle pour analyser des ensembles de caractéristiques. Benchmarking GNNs;Analyse comparative des GNNs Benchmarks are an essential part of progress in any field. The recently released benchmark Benchmarking Graph Neural Networks has six medium-scale datasets that can be used for four fundamental graph problems - graph classification, graph regression, node classification and edge classification. Though these datasets are mediumly sized, they are enough to statistically separate trends in various GNNs.;Les critères de référence sont un élément essentiel du progrès dans tout domaine. Le benchmark récemment publié Benchmarking Graph Neural Networks comporte six jeux de données à moyenne échelle qui peuvent être utilisés pour quatre problèmes fondamentaux des graphes : la classification de graphes, la régression de graphes, la classification des nœuds et la classification des arêtes. Bien que ces jeux de données soient de taille moyenne, ils sont suffisants pour séparer statiquement les tendances des différents réseaux de neurones des graphes. As an example of a Graph Regression task, we would want to predict the molecular solubility.;À titre d’exemple de tâche de régression de graphes, nous voudrions prédire la solubilité moléculaire. We notice that in most cases anisotropic GCNs perform better compared to isotropic GCNs because we use directional properties.;Nous remarquons que dans la plupart des cas, les GCNs anisotropes ont de meilleures performances que les GCNs isotropes car nous utilisons des propriétés directionnelles. For a Graph Classification task, a Computer Vision problem was chosen where we have super nodes of images and we want to classify the image.;Pour une tâche de classification de graphes, un problème de vision par ordinateur a été choisi où nous avons des super-nœuds d’images et nous voulons classifier l’image. For an Edge Classification task, we have considered the Combinatorial Optimization problem of the Travelling Salesman Problem (TSP) - where we want to know if a particular edge belongs to the optimal solution. If it belongs to the solution it falls in class 1, else class 0. Here we need explicit edge features, and the only model that does a good job of this is GatedGCN.;Pour une tâche de classification des arêtes, nous avons considéré le problème d’optimisation combinatoire du problème du voyageur de commerce (TSP en anglais pour Travelling Salesman Problem). Nous voulons savoir si une arête particuliere appartient à la solution optimale. S’il fait partie de la solution, il appartient à la classe 1, sinon à la classe 0. Ici, nous avons besoin de caractéristiques explicites des arêtes et le seul modèle qui fait un bon travail à cet égard est GatedGCN. We can use GCNs for self-supervised tasks as well, they are not limited to supervised learning models. According to Dr. Yann LeCun, almost all self-supervised learning tasks exploit some sort of graph structure. When we do a self-supervised learning task in text, where we take a sequence of words and we learn to predict missing words or new sentences. There is a graphs structure here, which is how many times a word appears some distance away from another word. Text would be a linear graph, and the neighbours chosen would be used to train a Transformer. In the case of contrastive training, where we have two samples that are similar, and two which are dissimilar - it is essentially a similarity graph, where two samples are linked when they are similar and if they are not linked they are considered dissimilar.;Les GCNs ne se limitent pas à des modèles d’apprentissage supervisés et peuvent être utilisés pour des tâches autosupervisées. Selon Yann, presque toutes les tâches d’apprentissage autosupervisé exploitent une sorte de structure graphique. Lorsque nous effectuons une tâche d’apprentissage autosupervisé dans un texte, nous prenons une séquence de mots et nous apprenons à prédire les mots manquants ou les nouvelles phrases. Il existe ici une structure graphique, qui correspond au nombre de fois qu’un mot apparaît à une certaine distance d’un autre mot. Le texte serait un graphe linéaire et les voisins choisis seraient utilisés pour entraîner un transformer. Dans le cas de l’entraînement contrastif, où nous avons deux échantillons qui sont similaires et deux qui sont dissemblables, il s’agit essentiellement d’un graphe de similarité où deux échantillons sont liés lorsqu’ils sont similaires et s’ils ne le sont pas, ils sont considérés comme dissemblables. Conclusion;Conclusion GCNs generalize CNNs to data on graphs. The convolution operator needed to be redesigned on graphs. Doing this for template matching gave rise to Spatial GCNs, and for spectral convolution lead to Spectral GCNs. There is linear complexity for sparse graphs, and GPU implementation, although the latter is not yet optimized for sparse matrix multiplication. The applications are abound as shown below.;Les GCNs généralisent les ConvNets pour les données de type graphes. L’opérateur de convolution a dû être repensé. Cette opération a donné naissance aux GCNs spatiaux pour l’appariement de patrons et aux GCNs spectraux pour la convolution spectrale. Il existe une complexité linéaire pour les graphes épars et l’implémentation GPU, bien que cette dernière ne soit pas encore optimisée pour la multiplication des matrices éparses. Les applications sont nombreuses, comme le montre le tableau ci-dessous. Graph Convolutional Networks III;Réseau convolutif pour graphe III Introduction to Graph Convolutional Network (GCN);Introduction au réseau convolutif pour graphe Graph Convolutional Network (GCN) is one type of architecture that utilizes the structure of data. Before going into details, let’s have a quick recap on self-attention, as GCN and self-attention are conceptually relevant.;Le réseau convolutif pour graphe (GCN pour Graph Convolutional Network) est un type d’architecture qui utilise la structure des données. Avant d’entrer dans les détails, faisons un rapide rappel sur l’auto-attention car le GCN et l’auto-attention sont conceptuellement pertinents. Recap: Self-attention;Récapitulatif sur l’auto-attention In self-attention, we have a set of input {xi​}i=1t​. Unlike a sequence, it does not have an order.;Dans l’auto-attention, nous avons un ensemble d’entrées {xi​}i=1t​. Contrairement à une séquence, elle n’a pas d’ordre. Hidden vector h is given by linear combination of the vectors in the set.;Le vecteur caché h est donné par une combinaison linéaire des vecteurs de l’ensemble. We can express this as Xa using matrix vector multiplication, where a contains coefficients that scale the input vector xi​.;Nous pouvons l’exprimer sous la forme Xa en utilisant une multiplication matricielle des vecteurs, où a contient des coefficients qui mettent à l’échelle le vecteur d’entrée xi​. For a detailed explanation, refer to the notes of Week 12.;Pour une explication détaillée, voir les notes de la semaine 12. Notation;Notation In Figure 1, vertex v is comprised of two vectors: input x and its hidden representation hh. We also have multiple vertices vj​, which is comprised of xj​ and hj​. In this graph, vertices are connected with directed edges.;Dans la figure 1, le sommet v est composé de deux vecteurs : l’entrée x et sa représentation cachée h. Nous avons également plusieurs sommets vj​, qui se composent de xj​ et de hj​. Dans ce graphe, les sommets sont reliés par des arêtes dirigées. We represent these directed edges with adjacency vector a, where each element αj​ is set to 1 if there is a directed edge from vj​ to v.;Nous représentons ces arêtes dirigées avec le vecteur d’adjacence a, où chaque élément αj​ est fixé à 1 s’il y a une arête dirigée de vj​ à v. The degree (number of incoming edges) d is defined as the norm of this adjacency vector, i.e. ∥a∥1, which is the number of ones in the vector a.;Le degré (nombre d’arêtes entrantes) d est défini comme la norme de ce vecteur de’adjacence, c’est-à-dire ∥a∥1​, qui est le nombre de 1 dans le vecteur a. The hidden vector h is given by the following expression:;Le vecteur caché h est donné par l’expression suivante : where f(⋅) is a non-linear function such as ReLU (⋅)+, Sigmoid σ(⋅), and hyperbolic tangent tanh(⋅).;où f(⋅) est une fonction non linéaire telle que ReLU (⋅)+, Sigmoïde σ(⋅) et tangente hyperbolique tanh(⋅). The Ux term takes into account the vertex v itself, by applying rotation U to the input v.;Le terme Ux prend en compte le sommet v lui-même en appliquant la rotation U à l’entrée v. Remember that in self-attention, the hidden vector h is computed by Xa, which means that the columns in x is scaled by the factors in a. In the context of GCN, this means that if we have multiple incoming edges,i.e. multiple ones in adjacency vector a, Xa gets larger. On the other hand, if we have only one incoming edge, this value gets smaller. To remedy this issue of the value being proportionate to the number of incoming edges, we divide it by the number of incoming edges dd. We then apply rotation v to Xad−1.;Dans l’auto-attention, le vecteur caché h est calculé par Xa, ce qui signifie que les colonnes dans x sont mises à l’échelle par les facteurs dans a. Dans le contexte du GCN, cela signifie que si nous avons plusieurs arêtes entrantes, c’est-à-dire plusieurs dans le vecteur d’adjacence a, Xa s’agrandit. En revanche, si nous n’avons qu’une seule arête entrante, cette valeur devient plus petite. Pour remédier à ce problème de proportionnalité de la valeur par rapport au nombre d’arêtes entrantes, nous la divisons par le nombre d’arêtes entrantes dd. Nous appliquons ensuite la rotation v à Xad−1. We can represent this hidden representation h for the entire set of inputs x using the following matrix notation:;Nous pouvons représenter cette représentation cachée h pour l’ensemble des entrées x en utilisant la notation matricielle suivante : Residual Gated GCN Theory and Code;Théorie et code du GCN résiduel à porte Residual Gated Graph Convolutional Network is a type of GCN that can be represented as shown in Figure 2:;Le GCN résiduel à porte (RG CGN pour Residual Gated GCN) est un type de GCN qui peut être représenté comme le montre la figure 2 : As with the standard GCN, the vertex v consists of two vectors: input x and its hidden representation hh. However, in this case, the edges also have a feature representation, where ejxejx​ represents the input edge representation and ejh​ represents the hidden edge representation.;Comme pour le GCN standard, le sommet v est constitué de deux vecteurs : l’entrée x et sa représentation cachée hh. Toutefois, dans ce cas, les arêtes ont également une représentation de caractéristique, où ejxejx​ représente la représentation de l’arête d’entrée et ejh représente la représentation de l’arête cachée. The hidden representation h of the vertex v is computed by the following equation:;La représentation cachée h du sommet v est calculée par l’équation suivante : where x is the input representation, Ax represents a rotation applied to the input x and ∑vj​→v​η(ej​)⊙Bxj​ denotes the summation of elementwise multiplication of rotated incoming features Bxj​ and a gate η(ej​). In contrast to the standard GCN above where we average the incoming representations, the gate term is critical to the implementation of Residual Gated GCN since it allows us to modulate the incoming representations based on the edge representations.;où x est la représentation de l’entrée, Ax représente une rotation appliquée à l’entrée x et ∑vj​→v​η(ej​)⊙Bxj​ indique la somme des multiplications par éléments des éléments entrants ayant subi une rotation Bxj​ et d’une porte η(ej​). Contrairement au GCN standard ci-dessus où nous faisons la moyenne des représentations entrantes, le terme de porte est essentiel à la mise en œuvre du RG CGN car il nous permet de moduler les représentations des entrées en fonction des représentations des arêtes. Note that the summation is only over vertices vj​ that have incoming edges to vertex v. The term residual (in Residual Gated GCN) comes from the fact that in order to calculate the hidden representation h, we add the input representation x. The gate term η(ej​) is calculated as shown below:;A noter que la sommation se fait uniquement sur les sommets vj qui ont des arêtes entrantes au sommet v. Le terme résiduel (dans Residual Gated GCN) vient du fait que pour calculer la représentation cachée h, on ajoute la représentation d’entrée x. Le terme de porte η(ej) est calculé comme indiqué ci-dessous : The gate value η(ej) is a normalized sigmoid obtained by dividing the sigmoid of the incoming edge representation by the sum of sigmoids of all incoming edge representations. Note that in order to calculate the gate term, we need the representation of the edge ej​, which can be computed using the equations below:;La valeur de porte η(ej) est une sigmoïde normalisée obtenue en divisant la sigmoïde de la représentation de l’arête entrante par la somme des sigmoïdes de toutes les représentations de l’arête entrante. A noter que pour calculer le terme de porte, nous avons besoin de la représentation de l’arête ej​, qui peut être calculée à l’aide des équations ci-dessous : The hidden edge representation ejh​ is obtained by the summation of the initial edge representation ejxejx​ and ReLU(⋅) applied to ej​ where ej​ is in turn given by the summation of a rotation applied to ejx​, a rotation applied to the input representation xj of the vertex vj​ and a rotation applied to the input representation x of the vertex v.;La représentation des arêtes cachées ejhejh​ est obtenue par la sommation de la représentation initiale des arêtes ejxejx​ et ReLU(⋅) appliqué à ej​ où ej​ est à son tour donné par la somme d’une rotation appliquée à ejx​, une rotation appliquée à la représentation en entrée xj​ du sommet vj​ et une rotation appliquée à la représentation en entrée x du sommet v. Note: In order to calculate hidden representations downstream (e.g. 2nd layer hidden representations), we can simply replace the input feature representations by the 1st layer feature representations in the equations above.;Note : afin de calculer les représentations cachées en aval (par exemple la deuxième couche de représentations cachées), nous pouvons simplement remplacer les représentations des caractéristiques d’entrée par les représentations des caractéristiques de la couche première dans les équations au-dessus. Graph Classification and Residual Gated GCN Layer;Graph Classification et couche GCN résiduelle The first line tells DGL to use PyTorch as the backend. Deep Graph Library (DGL) provides various functionalities on graphs whereas networkx allows us to visualise the graphs.;La première ligne indique à Deep Graph Library (DGL) d’utiliser PyTorch comme backend. DGL fournit diverses fonctionnalités sur les graphes alors que networkx nous permet de visualiser les graphes. In this notebook, the task is to classify a given graph structure into one of 8 graph types. The dataset obtained from dgl.data.MiniGCDataset yields some number of graphs (num_graphs) with nodes between min_num_v and max_num_v. Hence, all the graphs obtained do not have the same number of nodes/vertices.;Dans ce notebook, la tâche consiste à classer une structure de graphe donnée dans l’un des 8 types de graphes. Le jeu de données obtenu à partir de dgl.data.MiniGCDataset donne un certain nombre de graphes (num_graphs) avec des nœuds entre min_num_v et max_num_v. Par conséquent, tous les graphes obtenus n’ont pas le même nombre de nœuds/sommets. Note: In order to familiarize yourself with the basics of DGLGraphs, it is recommended to go through the short tutorial here.;Note : afin de vous familiariser avec les bases des DGLGraphs, il est recommandé de suivre le court tutoriel disponible ici. Having created the graphs, the next task is to add some signal to the domain. Features can be applied to nodes and edges of a DGLGraph. The features are represented as a dictionary of names (strings) and tensors (fields). ndata and edata are syntax sugar to access the feature data of all nodes and edges.;Après avoir créé les graphes, la tâche suivante consiste à ajouter un signal au domaine. Des caractéristiques peuvent être appliquées aux nœuds et aux arêtes d’un DGLGraph. Les caractéristiques sont représentées par un dictionnaire de noms (chaînes de caractères) et de tenseurs (champs). Les ndata et edata sont des sucres syntaxiques permettant d’accéder aux données des caractéristiques de tous les nœuds et arêtes. The following code snippet shows how the features are generated. Each node is assigned a value equal to the number of incident edges, whereas each edge is assigned the value 1.;L’extrait de code suivant montre comment les caractéristiques sont générées. Chaque nœud se voit attribuer une valeur égale au nombre d’arêtes incidentes, tandis que chaque bord se voit attribuer la valeur 1. Training and testing datasets are created and features are assigned as shown below:;Des jeux de données d’entraînement et de test sont créés et des caractéristiques sont attribuées comme indiqué ci-dessous : A sample graph from the trainset has the following representation. Here, we observe that the graph has 15 nodes and 45 edges and both the nodes and edges have a feature representation of shape (1,) as expected. Furthermore, the 0 signifies that this graph belongs to class 0.;Un exemple de graphe issu du jeu d’entraînement a la représentation suivante. Ici, nous observons que le graphe a 15 nœuds et 45 arêtes et que les nœuds et les arêtes ont une représentation caractéristique de la forme (1,) comme prévu. De plus, le 0 signifie que ce graphe appartient à la classe 0. Gated Residual GCN Layer Implementation;Implémentation de la couche GR GCN A Gated Residual GCN layer is implemented as shown in the code snippets below.;Une couche GR GCN est implémentée comme indiqué dans les extraits de code ci-dessous. Firstly, all the rotations of the input features Ax, Bxj​, Cejx​, Dxj​ and Ex are computed by defining nn.Linear layers inside the __init__ function and then forward propagating the input representations h and e through the linear layers inside the forward function.;Premièrement, toutes les rotations des caractéristiques d’entrée Ax, Bxj​, Cejx​, Dxj​ et Ex sont calculées en définissant nn.Linear couches à l’intérieur de la fonction __init__ puis en propageant les représentations d’entrée h et e à travers les couches linéaires à l’intérieur de la fonction forward. Secondly, we compute the edge representations. This is done inside the message_func function, which iterates over all the edges and computes the edge representations. Specifically, the line e_ij = edges.data['Ce'] + edges.src['Dh'] + edges.dst['Eh'] computes (Eq. 7) from above. The message_func function ships Bh_j (which is Bxj​ from (Eq. 5)) and e_ij (Eq. 7) through the edge into the destination node’s mailbox.;Deuxièmement, nous calculons les représentations de l’arête. Ceci est fait à l’intérieur de la fonction message_func, qui itère sur toutes les arêtes et calcule leurs représentations. Plus précisément, la ligne e_ij = edges.data['Ce'] + edges.src['Dh'] + edges.dst['Eh'] calcule (Eq. 7) à partir du haut. La fonction message_func envoie Bh_j (qui est Bxj​ de (Eq. 5)) et e_ij (Eq. 7) par le bord dans la boîte aux lettres du noeud de destination. Thirdly, the reduce_func function collects the shipped messages by the message_func function. After collecting the node data Ah and shipped data Bh_j and e_ij from the mailbox, the line h = Ah_i + torch.sum(sigma_ij * Bh_j, dim=1) / torch.sum(sigma_ij, dim=1) computes the hidden representation of each node as indicated in (Eq. 5). Note however, that this only represents the term (Ax+∑vj→vη(ej)⊙Bxj without the ReLU(⋅) and residual connection.;Troisièmement, la fonction reduce_func collecte les messages envoyés par la fonction message_func. Après avoir collecté les données du nœud Ah et les données expédiées Bh_j et e_ij de la mailbox, la ligne h = Ah_i + torch.sum(sigma_ij * Bh_j, dim=1) / torch.sum(sigma_ij, dim=1) calcule la représentation cachée de chaque nœud comme indiqué dans (Eq. 5). A noter cependant que cela ne représente que le terme (Ax+∑vj​→v​η(ej​)⊙Bxj​) sans le ReLU(⋅) et la connexion résiduelle. Inside the forward function, having called g.update_all, we obtain the results of graph convolution h and e, which represent the terms (Ax+∑vj​→v​η(ej​)⊙Bxj​) from (Eq.5) and ej​ from (Eq. 7) respectively. Then, we normalize h and e with respect to the graph node size and graph edge size respectively. Batch normalization is then applied so that we can train the network effectively. Finally, we apply ReLU(⋅) and add the residual connections to obtain the hidden representations for the nodes and edges, which are then returned by the forward function.;A l’intérieur de la fonction forward, ayant appelé g.update_all, nous obtenons les résultats de la convolution des graphes h et e, qui représentent les termes Ax+∑vj​→v​η(ej​)⊙Bxj​) de (Eq.5) et ej​ de (Eq. 7) respectivement. Ensuite, nous normalisons h et e par rapport à la taille du nœud et de l’arête du graphe respectivement. La batch normalisation est ensuite appliquée afin que nous puissions entraîner le réseau efficacement. Enfin, nous appliquons ReLU(⋅) et ajoutons les connexions résiduelles pour obtenir les représentations cachées des nœuds et des arêtes, qui sont ensuite renvoyées par la fonction forward. Next, we define the MLP_Layer module which contains several fully connected layers (FCN). We create a list of fully connected layers and forward through the network.;Ensuite, nous définissons le module MLP_Layer qui contient plusieurs couches entièrement connectées. Nous créons une liste de couches entièrement connectées et nous les transmettons à travers le réseau. Finally, we define our GatedGCN model which comprises of the previously defined classes: GatedGCN_layer and MLP_layer. The definition of our model (GatedGCN) is shown below.;Enfin, nous définissons notre modèle GatedGCN qui comprend les classes définies précédemment : GatedGCN_layer et MLP_layer. La définition de notre modèle (GatedGCN) est présentée ci-dessous. In our constructor, we define the embeddings for e and h (self.embedding_e and self.embedding_h), self.GatedGCN_layers which is list (of size L) of our previously defined model: GatedGCN_layer, and finally self.MLP_layer which was also defined before. Next, using these initializations, we simply forward through the model and output y.;Dans notre constructeur, nous définissons les enchâssements pour e et h (self.embedding_e et self.embedding_h), self.GatedGCN_layers qui est la liste (de taille L) de notre modèle précédemment défini : GatedGCN_layer, et enfin self.MLP_layer qui a également été défini auparavant. Ensuite, en utilisant ces initialisations, nous faisons simplement avancer le modèle et nous obtenons un y. To better understand the model, we initiate an object of the model and print it for better visualization:;Pour mieux comprendre le modèle, nous initialisons un objet du modèle et l’affichons pour une meilleure visualisation : The main structure of the model is shown below:;La structure principale du modèle est présentée ci-dessous : Not surprisingly, we have two layers of GatedGCN_layer (since L=2) followed by a MLP_layer which finally yields an output of 8 values.;Sans surprise, nous avons deux couches de GatedGCN_layer (puisque L=2) suivies d’une MLP_layer qui donne finalement une sortie de 8 valeurs. Moving on, we define our train and evaluate functions. In our train function, we have our generic code which takes samples from dataloader. Next, batch_graphs, batch_x, batch_e, batch_snorm_n and batch_snorm_e are fed into our model which returns batch_scores (of size 8). The predicted scores are compared with the ground truth in our loss function: loss(batch_scores, batch_labels). Then, we zero out gradients (optimizer.zero_grad()), perform backprop (J.backward()) and updates our weights (optimizer.step()). Finally, loss for epoch and training accuracy is calculated. Furthermore, we use a similar code for our evaluate function.;Ensuite, nous définissons nos fonctions train et evaluate. Dans notre fonction train, nous avons notre code générique qui prend des échantillons dans le dataloader. Ensuite, les batch_graphs, batch_x, batch_e, batch_snorm_n et batch_snorm_e sont introduits dans notre modèle qui retourne des batch_scores (de taille 8). Les scores prédits sont comparés à la vérité de base dans notre fonction de perte : loss(batch_scores, batch_labels). Ensuite, nous mettons à zéro les gradients (optimizer.zero_grad()), nous effectuons une rétropropagation (J.backward()) et nous mettons à jour nos poids (optimizer.step()). Enfin, la perte pour l’époque et la précision de l’entraînement est calculée. Nous utilisons un code similaire pour notre fonction evaluate. Finally, we are ready to train! We found that after 40 epochs of training, our model has learned to classify the graphs with a test accuracy of 87%.;Enfin, nous sommes prêts à pour l’entraînement ! Nous pouvons constater qu’après 4040 époques d’entraînement, notre modèle a appris à classer les graphes avec une précision de test de 87%. Week 14;Semaine 14 In this section, we discussed the structured prediction. We first introduced the Energy-Based factor graph and efficient inference for it. Then we gave some examples for simple Energy-Based factor graphs with “shallow” factors. Finally, we discussed the Graph Transformer Net.;Dans cette section, nous discutons de prédiction utilisant la structure. Nous présentons d’abord le graphe factoriel à base d’énergie et l’inférence efficace pour celui-ci. Ensuite, nous donnons quelques exemples simples avec des facteurs peu profonds. Enfin, nous discutons du Graph Transformer Network (GTN). The second leg of the lecture further discusses the application of graphical model methods to energy-based models. After spending some time comparing different loss functions, we discuss the application of the Viterbi algorithm and forward algorithm to graphical transformer networks. We then transition to discussing the Lagrangian formulation of backpropagation and then variational inference for energy-based models.;La deuxième partie du cours traite plus en détail de l’application des méthodes de modélisation graphique aux modèles à base d’énergie (EBMs). Après avoir passé un certain temps à comparer différentes fonctions de perte, nous discutons de l’application de l’algorithme de Viterbi et de l’algorithme forward aux GTNs. Nous abordons à la formulation lagrangienne de la rétropropagation et à l’inférence variationnelle pour les EBMs. When training highly parametrised models such as deep neural networks there is a risk of overfitting to the training data. This leads to greater generalization error. To help reduce overfitting we can introduce regularization into our training, discouraging certain solutions to decrease the extent to which our models will fit to noise.;Lors de l’entraînement de modèles hautement paramétrés tels que les réseaux neuronaux profonds, il existe un risque de surentraînement. Cela conduit à une plus grande erreur de généralisation. Pour aider à réduire cela, nous pouvons introduire une régularisation dans notre entraînement, en décourageant certaines solutions pour diminuer la mesure dans laquelle nos modèles s’adapteront au bruit. Deep Learning for Structured Prediction;Apprentissage profond pour une prédiction utilisant la structure Structured prediction;Prédiction utilisant la structure It is the problem of predicting variable y for a given input x which is mutually dependent and constrained rather than scalar discrete or real values. The output variable does not belong to a single category but can have exponential or infinite possible values. For example, in case of speech/handwriting recognition or natural language translation, the output needs to be grammatically correct and it is not possible to limit the number of output possibilities. The task of the model is to capture the sequential, spatial, or combinatorial structure in the problem domain.;Nous sommes dans le cas de la prédiction de la variable y pour une entrée x donnée qui est mutuellement dépendante et contrainte plutôt que des valeurs scalaires discrètes ou réelles. Alors la variable de sortie n’appartient pas à une seule catégorie mais peut avoir des valeurs possibles exponentielles ou infinies. Par exemple, dans le cas de la reconnaissance de la parole/écriture ou de traduction en langage naturel, la sortie doit être grammaticalement correcte et il n’est pas possible de limiter le nombre de possibilités de sortie. La tâche du modèle est de capturer la structure séquentielle, spatiale ou combinatoire dans le domaine du problème. Early works on structured prediction;Premiers travaux sur la prédiction utilisant la structure This vector is fed to a TDNN which gives a feature vector which in case of model systems can be compared to softmax that represents a category. One problem that arises in the case of recognizing the word that was pronounced is different people can pronounce the same word in different ways and speed. To solve this Dynamic Time Warping is used.;Ce vecteur est transmis à un réseau de neurones à retard temporel (TDNN pour Time Delay Neural Network) qui donne un vecteur de caractéristiques qui, dans le cas de systèmes de modèles, peut être comparé au softmax représentant une catégorie. Un problème qui se pose dans le cas de la reconnaissance de la parole est que différentes personnes peuvent prononcer le même mot de différentes manières et à des vitesses différentes. Pour résoudre ce problème, on utilise la déformation temporelle dynamique (DTW pour Dynamic Time Warping). The idea is to provide the system with a set of pre-recorded templates that correspond to sequence or feature vectors that were recorded by someone. The neural network is trained at the same time as the template so that the system learns to recognize the word for different pronunciations. The latent variable allows us to time-warp the feature vector so as to match the length of the templates.;L’idée est de fournir au système un ensemble de patrons pré-enregistrés qui correspondent à des vecteurs de séquences ou de caractéristiques qui ont été enregistrés par quelqu’un. Le réseau neuronal est entraîné en même temps que le patron afin que le système apprenne à reconnaître le mot pour différentes prononciations. La variable latente nous permet de modifier le vecteur de caractéristique de manière à ce qu’il corresponde à la longueur des modèles. This can be visualized as a matrix by arranging the feature vectors from TDNN horizontally and the word templates vertically. Each entry in the matrix corresponds to the distance between the feature vector. This can be visualized as a graph problem where the aim is to start from the bottom left-hand corner and reach the top right corner by traversing the path that minimizes the distance.;Cela peut être visualisé sous forme de matrice en organisant les vecteurs de caractéristiques du TDNN horizontalement et les modèles de mots verticalement. Chaque entrée dans la matrice correspond à la distance entre les vecteurs de caractéristiques. Cela peut être visualisé comme un problème de graphe où le but est de partir du coin inférieur gauche et d’atteindre le coin supérieur droit en parcourant le chemin qui minimise la distance. To train this latent variable model we need to make the energy for the correct answers as small as possible and larger for every incorrect answer. To do this we use an objective function that takes in templates for wrong words and pushes them away from the current sequence of features and backpropagates the gradients.;Pour entraîner ce modèle à variable latente, nous devons rendre l’énergie pour les bonnes réponses aussi petite que possible et plus grande pour chaque mauvaise réponse. Pour ce faire, nous utilisons une fonction objectif qui prend des patrons pour les mots incorrects, les repousse loin de la séquence actuelle des caractéristiques et rétropropage les gradients. Energy based factor graphs;Graphes factoriels à base d’énergie The idea behind energy-based factor graphs is to build an energy-based model in which the energy is sum of partial energy terms or when the probability is a product of factors. The benefit of these models is that efficient inference algorithms can be employed.;L’idée derrière les graphes factoriels à base d’énergie est de construire un EBM dans lequel l’énergie est la somme de termes énergétiques partiels ou lorsque la probabilité est un produit de facteurs. L’avantage de ces modèles est que des algorithmes d’inférence efficaces peuvent être utilisés. Sequence labelling;Etiquetage des séquences The model takes an input speech signal X and output the labels Y such that the output labels minimize the total energy term.;Le modèle prend un signal vocal d’entrée x et sort les labels y de telle sorte qu’ils minimisent le terme d’énergie total. In this case, the energy is a sum of three terms represented by blue squares which are neural networks that produce feature vectors for the input variables. In the case of speech recognition X can be thought of as a speech signal and the squares implement the grammatical constraints and Y represent the generated output labels.;Dans ce cas, l’énergie est une somme de trois termes représentés par des carrés bleus qui sont des réseaux de neurones qui produisent des vecteurs de caractéristiques pour les variables d’entrée. Dans le cas de la reconnaissance vocale, x peut être considéré comme un signal vocal, les carrés implémentent les contraintes grammaticales et y représente les labels de sortie générées. Efficient inference for energy-based factor graphs;Inférence efficiente pour les graphes factoriels à base d’énergie A Tutorial on Energy-Based Learning (Yann LeCun, Sumit Chopra, Raia Hadsell, Marc’Aurelio Ranzato, and Fu Jie Huang 2006):;Un tutoriel sur l’apprentissage à base d’énergie est disponible ici (Le Cun et al. (2006)). Learning and inference with Energy-Based Models involves a minimization of the energy over the set of answers y and latent variables Z. When the cardinality of Y×Z is large, this minimization can become intractable. One approach to the problem is to exploit the structure of the energy function in order to perform the minimization efficiently. One case where the structure can be exploited occurs when the energy can be expressed as a sum of individual functions (called factors) that each depend on different subsets of the variables in Y and Z. These dependencies are best expressed in the form of a factor graph. Factor graphs are a general form of graphical models, or belief networks.;L’apprentissage et l’inférence avec les modèles à base d’énergie impliquent une minimisation de l’énergie sur l’ensemble des réponses y et des variables latentes Z. Lorsque la cardinalité de Y×Z est importante, cette minimisation peut devenir insoluble. Une approche du problème consiste à exploiter la structure de la fonction énergie afin d’effectuer la minimisation de manière efficace. Un cas où la structure peut être exploitée se produit lorsque l’énergie peut être exprimée comme une somme de fonctions individuelles (appelées facteurs) qui dépendent chacune de différents sous-ensembles des variables de y et ZZ. Ces dépendances sont mieux exprimées sous la forme d’un graphe factoriel. Les graphes factoriels sont une forme générale de modèles graphiques ou de réseaux de croyances. A simple example of a factor graph is shown in Figure 19 (top). The energy function is the sum of four factors:;Un exemple simple de graphe de facteur est présenté à la figure 5 (en haut). La fonction énergie est la somme de quatre facteurs : where Y=[Y1,Y2] are the output variables and Z=[Z1,Z2] are the latent variables. Each factor can be seen as representing soft constraints between the values of its input variables. The inference problem consists in finding:;où Y=[Y1,Y2] sont les variables de sortie et Z=[Z1,Z2] sont les variables latentes. Chaque facteur peut être considéré comme représentant des contraintes souples entre les valeurs de ses variables d’entrée. Le problème d’inférence consiste à trouver : Let’s assume that Z1​, Z2​, and Y1​ are discrete binary variables, and Y2​ is a ternary variable. The cardinality of the domain of x is immaterial since X is always observed. The number of possible configurations of z and y given X is 2×2×2×3=24. A naive minimization algorithm through exhaustive search would evaluate the entire energy function 24 times (96 single factor evaluations).;Supposons que Z1​, Z2​ et Y1​ sont des variables binaires discrètes et que Y2​ est une variable ternaire. La cardinalité du domaine de x est sans importance puisque x est toujours observé. Le nombre de configurations possibles de z et y étant donné x est de 2×2×2×3=24. Un algorithme de minimisation naïf par recherche exhaustive évaluerait la fonction énergie entière 24 fois (96 évaluations à facteur unique). However, we notice that for a given X, Ea​ only has two possible input configurations: Z1=0 and Z1​=1. Similarly, Eb​ and Ec​ only have 4 possible input configurations, and Ed has 6. Hence, there is no need for more than 2+4+4+6=16 single factor evaluations.;Cependant, nous remarquons que pour un x donné, Ea​ n’a que deux configurations d’entrée possibles : Z1=0 et Z1​=1. De même, Eb​ et Ec​ n’ont que 4 configurations d’entrée possibles, et Ed​ en a 6, il n’est pas nécessaire d’avoir plus de 2+4+4+6=16 d’évaluations de facteur unique. Hence, we can pre compute the 16 factor values, and put them on the arcs in a trellis as shown in Figure 5 (bottom).;Nous pouvons donc précalculer les 16 valeurs de facteurs et les placer sur les arcs d’un trellis comme le montre la figure 5 (en bas). The nodes in each column represent the possible values of a single variable. Each edge is weighted by the output energy of the factor for the corresponding values of its input variables. With this representation, a single path from the start node to the end node represents one possible configuration of all the variables. The sum of the weights along a path is equal to the total energy for the corresponding configuration. Therefore, the inference problem can be reduced to searching for the shortest path in this graph. This can be performed using a dynamic programming method such as the Viterbi algorithm, or the A* algorithm. The cost is proportional to the number of edges (16), which is exponentially smaller than the number of paths in general.;Les nœuds de chaque colonne représentent les valeurs possibles d’une seule variable. Chaque arc est pondéré par l’énergie de sortie du facteur pour les valeurs correspondantes de ses variables d’entrée. Avec cette représentation, un seul chemin du nœud de départ au nœud d’arrivée représente une configuration possible de toutes les variables. La somme des poids le long d’un chemin est égale à l’énergie totale pour la configuration correspondante. Par conséquent, le problème d’inférence peut être réduit à la recherche du plus court chemin dans ce graphe. Ceci peut être réalisé en utilisant une méthode de programmation dynamique telle que l’algorithme de Viterbi ou l’algorithme A*. Le coût est proportionnel au nombre d’arêtes (16) qui est exponentiellement plus petit que le nombre de chemins en général. To compute E(Y,X)=minz∈Z​E(Y,z,X), we follow the same procedure, but we restrict the graph to the subset of arcs that are compatible with the prescribed value of Y.;Pour calculer E(Y,X)=minz∈Z​E(Y,z,X) nous suivons la même procédure mais nous limitons le graphe au sous-ensemble des arcs qui sont compatibles avec la valeur prescrite de Y. The above procedure is sometimes called the min-sum algorithm, and it is the log domain version of the traditional max-product for graphical models. The procedure can easily be generalized to factor graphs where the factors take more than two variables as inputs, and to factor graphs that have a tree structure instead of a chain structure.;La procédure ci-dessus est parfois appelée l’algorithme min-sum et il s’agit de la version logarithmique du domaine du max-product traditionnel pour les modèles graphiques. La procédure peut facilement être généralisée aux graphes factoriels où les facteurs prennent plus de deux variables comme entrées et aux graphes factoriels qui ont une structure arborescente au lieu d’une structure de chaîne. However, it only applies to factor graphs that are bipartite trees (with no loops). When loops are present in the graph, the min-sum algorithm may give an approximate solution when iterated, or may not converge at all. In this case, a descent algorithm such as simulated annealing could be used.;Toutefois, elle ne s’applique qu’aux graphes de facteurs qui sont des arbres bipartites (sans boucles). Lorsque des boucles sont présentes dans le graphe, l’algorithme min-sum peut donner une solution approximative lorsqu’il est répété, ou peut ne pas converger du tout. Dans ce cas, un algorithme de descente tel que l’annealing simulé peut être utilisé. Simple energy-based factor graphs with “shallow” factors;Graphes factoriels simples à base d’énergie avec facteurs peu profonds Each factor is a linear function of the trainable parameters. It depends on the input x and on a pair of individual labels (Ym,Yn​). In general, each factor could depend on more than two individual labels, but we will limit the discussion to pairwise factors to simplify the notation:;Chaque facteur dans la figure 6 est une fonction de paramètres entraînables dépendant de x et d’une paire de labels individuels (Ym​,Yn​). En général, chaque facteur peut dépendre de plus de deux labels individuels mais nous limitons la discussion aux facteurs par paires pour simplifier la notation : Here F denotes the set of factors (the set of pairs of individual labels that have a direct inter-dependency), Wmm​ is the parameter vector for factor (m,n), and fmn(X,Ym,Yn) is a (fixed) feature vector. The global parameter vector w is the concatenation of all the Wmn​.;Ici, F désigne l’ensemble des facteurs (l’ensemble des paires de labels individuels qui ont une interdépendance directe), Wmn​ est le vecteur de paramètre pour le facteur,(m,n), et fmn​(X,Ym​,Yn​) est un vecteur de caractéristique (fixe). Le vecteur paramètre global w est la concaténation de tous les Wmn. And then we can think about like what type of loss function. Here comes several different models.;On peut alors réfléchir au type de la fonction de perte. Voici plusieurs modèles différents. Conditional Random Field;Champ aléatoire conditionnel We can use the negative log-likelihood loss function to train a linear structured model.;Nous pouvons utiliser la fonction de perte de log-vraisemblance négative pour entraîner un modèle à structure linéaire. This is the Conditional Random Field;Il s’agit du champ aléatoire conditionnel. The intuition is we want the energy of the correct answer to below and want the log of exponential for all the answers, including the good one, to be large.;L’intuition est que nous voulons que l’énergie de la bonne réponse soit basse et que le logarithme de l’exponentielle pour toutes les réponses, y compris la bonne, soit grand. Below is the formal definition for the negative log-likelihood loss function:;Voici la définition formelle de la fonction de perte de probabilité logarithmique négative : Max-margin Markov nets and latent SVM;Réseaux de Markov à marge maximale et les SVMs latentes We can also using the Hinge loss function for optimization.;Nous pouvons également utiliser la fonction de perte Hinge pour l’optimisation. The intuition behind is that we want the energy of the correct answer to be low, and then among all possible configurations of incorrect answers, we are going to look for the one that has the lowest energy among all the wrong or the bad ones. And then we are going to push up the energy of this one. We don’t need to push up the energy for the other bad answers because they are larger anyway.;L’intuition est que nous voulons que l’énergie de la bonne réponse soit faible. Puis parmi toutes les configurations possibles de réponses incorrectes, nous allons chercher celle qui a l’énergie la plus faible parmi toutes les mauvaises réponses. Nous allons ensuite augmenter l’énergie de celle-ci. Nous n’avons pas besoin d’augmenter l’énergie pour les autres mauvaises réponses parce qu’elles sont de toute façon plus grandes. This is the idea behind Max Margin Markov Nets and Latent SVM.;C’est l’idée qui sous-tend les réseaux de Markov à marge maximale et les SVMs latentes. Structured perceptron model;Modèle avec une strcuture perceptron We can train the linear structured model by using perceptron loss.;Nous pouvons entraîner un modèle linéaire en utilisant la perte de perceptron. Collins [Collins, 2000, Collins, 2002] has advocated its use for linear structured models in the context of NLP:;Collins (2000 et 2002) a préconisé son utilisation pour les modèles linéaires structurés dans le contexte du traitement du langage naturel : where Y∗i=argminy∈Y​E(W,y,Xi) is the answer produced by the system.;où Y∗i=argminy∈Y​E(W,y,Xi) est la réponse produite par le système. Early trails on discriminative training for speech/handwritten recognition;Premières pistes sur un entraînement discriminant pour la reconnaissance de la parole et de l’écriture Minimum Empirical Error Loss (Ljolje, and Rabiner 1990): By training at sequence level, they do not tell the system this sound or that location. They give the system input sentence and transcription of it in term of words, and ask the system to figure it out by doing time warping. They did not use neural networks, and have other ways in turning speech signals into sound categories.;Minimum Empirical Error Loss (Ljolje et Rabiner 1990) : En entraînant au niveau de la séquence, les auteurs n’indiquent pas au système tel ou tel son ou endroit. Ils donnent au système la phrase d’entrée et sa transcription en termes de mots, et demandent au système de la comprendre en faisant une distorsion temporelle. Ils n’ont pas utilisé de réseaux de neurones et disposent d’autres moyens pour transformer les signaux vocaux en catégories de sons. Graph Transformer Net;Graph Transformer Network (GTN) Here the problem is that we have a sequence of digits at the input and we do not know how to do segmentation. What we can do is build a graph in which each path is a way of breaking up the sequence of characters, and we are going to find out the path with lowest energy, basically is to find the shortest path. Here is a concrete example of how it works.;Ici, le problème est que nous avons une séquence de chiffres en entrée et que nous ne savons pas comment faire la segmentation. Nous pouvons néanmoins construire un graphe dans lequel chaque chemin est un moyen de décomposer la séquence de caractères. Nous allons alors trouver le chemin avec la plus faible énergie. En gros cela revient à trouver le chemin le plus court. Voici un exemple concret de la façon dont cela fonctionne. We have input image 34. Run this through segmenter, and get multiple alternative segmentations. These segmentation are ways to group these blobs of thing together. Each path in the segmentation graph corresponds to one particular way of grouping the blobs of ink.;Nous avons en entrée l’image du nombre 34. On la passe dans le segmenteur et on obtient plusieurs segmentations alternatives. Ces segmentations sont des moyens de regrouper ces blocs de choses. Chaque chemin dans le graphe de segmentation correspond à une façon particulière de regrouper les taches d’encre. We run each through the same character recognition ConvNet, and get a list of 10 scores (Two here but essentially should be 10, representing 10 categories). For example, 1 [0.1] means the energy is 0.1 for category 1. So I get a graph here, and you can think of it as a weird form of tensor. It is a sparse tensor really. It is a tensor that says for each possible configuration of this variable, tell me the cost of the variable. It’s more like a distribution over tensors, or log distribution because we are talking about energies.;Nous passons chaque segment par le même ConvNet de reconnaissance de caractères et obtenons une liste de 10 scores (2 ici mais généralement on en a 10 représentant les 10 catégories/chiffres). Par exemple, 1 [0,1] signifie que l’énergie est de 0,1 pour la catégorie 1. On obtient alors un graphe pouvant être considéré comme une forme étrange de tenseur peu dense). C’est un tenseur qui pour chaque configuration possible de cette variable, demande le coût de la variable. Il s’agit davantage d’une distribution sur les tenseurs, ou une distribution logarithmique car nous parlons d’énergies. Take this graph and then I want to compute the energy of the correct answer. I am telling you the correct answer is 34. Select within those paths and find out ones that say 34. There are two of them, one the energy 3.4 + 2.4 = 5.8, and the other 0.1 + 0.6 = 0.7. Pick the path with the lowest energy. Here we get the path with energy 0.7.;Si on prend le graphe de la figure 9 et devons calculer l’énergie de la bonne réponse (3434), nous devons sélectionner dans ces chemins ceux donnant la bonne réponse. Il y en a deux, l’une est l’énergie 3,4+2,4=5,83,4+2,4=5,8 et l’autre 0,1+0,6=0,70,1+0,6=0,7. Il nous reste alors plus qu’à prendre le chemin qui a l’énergie la plus faible. Ici, nous obtenons le chemin avec l’énergie 0,70,7. So finding the path is like minimizing over the latent variable where latent variable is which path you pick. Conceptually, it is an energy model with latent variable as a path.;Trouver le chemin est donc comme minimiser sur une variable latente où la variable latente est le chemin choisi. Conceptuellement, il s’agit d’un modèle d’énergie avec une variable latente comme chemin. Now we have the energy of the correct path, 0.7. What we need to do now is backpropagate gradient through this entire structure, so that we can change the weight in ConvNet in such a way that final energy goes down. It looks daunting, but is entirely possible. Because this entire system is built out of element we already know about, neural net is regular and the Path Selector and Viterbi Transformer are basically switches that pick a particular edge or not.;Nous avons donc l’énergie du chemin correct, 0,7. Ce que nous devons faire maintenant, c’est rétropropager le gradient à travers toute cette structure, afin de pouvoir modifier le poids dans le ConvNet de telle sorte que l’énergie finale diminue. Cela semble intimidant, mais c’est tout à fait possible. Comme tout ce système est construit à partir d’éléments que nous connaissons déjà, le réseau neuronal est classique. Le sélecteur de chemin et le transformer de Viterbi sont essentiellement des interrupteurs qui choisissent une arête particulière ou non. So how do we backpropagate. Well, the point 0.7 is the sum of 0.1 and 0.6. So both point 0.1 and 0.6 will have gradient +1, which are indicated in the brackets. Then Viterbi Transformer just select one path among two. So just copy the gradient for the corresponding edge in the input graph and set the gradient for other paths that are not selected as zero. It’s exactly what’s happening in Max-Pooling or Mean-Pooling. The Path Selector is the same, it is just a system that selects the correct answer. Note that 3 [0.1] (0) in the graph should be 3 [0.1] (1) at this stage, and will come back to this later. Then you can backpropagate gradient through the neural net. That will make the energy of the correct answer small.;Alors comment rétropropager ? Le point 0,7 est la somme de 0,1 et 0,6. Donc, les points 0,1 et 0,6 auront tous deux un gradient de +1, indiqué entre parenthèses dans la figure 9. Ensuite, le transformer de Viterbi n’a qu’à sélectionner un chemin parmi deux. Il suffit donc de copier le gradient pour l’arête correspondante dans le graphe d’entrée et de définir le gradient des autres trajectoires comme étant nulles car non retenues. C’est exactement ce qui se passe dans le max-pooling ou le mean-pooling. Le sélecteur de trajectoire est le même, c’est juste un système qui sélectionne la bonne réponse. A noter qu’à ce stade, le 3 [0.1] (0) dans le graphe de la figure 9, deviendrait 3 [0.1] (1). Nous pouvons alors rétroprogager le gradient à travers le réseau rendant l’énergie de la bonne réponse faible. What’s important here is that this structure is dynamic in the sense that if I give you a new input, the number of instances of neural net will change with the number of segmentations, and graphs derived will also change. We need to backpropagate through this dynamical structure. This is the situation where things like PyTorch are really important.;Ce qui est important ici, c’est que cette structure est dynamique. Car si on nous donne une nouvelle entrée, le nombre d’instances du réseau névralgique changera avec le nombre de segmentations et les graphes dérivés changeront également. Nous devons faire une rétropropagation à travers cette structure dynamique. C’est là que des frameworks comme PyTorch sont vraiment importantes. This phase of backpropagation make the energy of correct answer small. And there’s going to be a second phase where we are going to make the energy of incorrect answer large. In this case, we just let the system pick whatever answer it wants. This is going to be a simplified form of discriminative training for structure prediction that use perceptual loss.;Cette phase de rétropropagation rend l’énergie de la bonne réponse faible. Et il y aura une deuxième phase où nous allons rendre l’énergie de la mauvaise réponse grande. Dans ce cas, nous laissons le système choisir la réponse qu’il veut. Il s’agira d’une forme simplifiée d’entraînement discriminatoire pour la prédiction des structures qui utilisent la perte de perception. The first stages of phase two are exactly the same with the first phase. The Viterbi Transformer here just pick the best path with the lowest energy, we do not care whether this path is a correct path or not here. The energy you get here is going to be smaller or equal to the one you get from phase one, since the energy get here is the smallest among all possible paths.;Les premières étapes de la deuxième phase sont exactement les mêmes que celles de la première. Le transformer de Viterbi ici choisi simplement le meilleur chemin avec la plus faible énergie. Nous ne nous soucions pas de savoir si ce chemin est correct ou non. L’énergie obtenue ici sera plus petite ou égale à celle obtenue dans la première phase puisque l’énergie obtenue ici est la plus petite de toutes les voies possibles. Putting phase one and two together. The loss function should be energy1 - energy2. Before, we introduced how to backpropagate through the left part, and now we actually need to backpropagate through the entire structure. Whatever path on the left side will get +1, and whatever path in right hand side will get -1. So 3 [0.1] appeared in both path, thus should get gradient 0. If we do this, the system will eventually minimize the difference between the energy of the correct answer and the energy of the best answer whatever it is. The Loss function here is the perceptron loss.;En mettant la phase une et deux ensemble, la fonction de perte devrait être eˊnergie1−eˊnergie2. Avant, nous avons introduit la rétropropagation par la partie gauche et maintenant nous devons en fait rétropropager à travers toute la structure. Quel que soit le chemin sur le côté gauche on obtiendra +1 et quel que soit le chemin sur le côté droit on obtiendra −1. Donc 3 [0,1] est apparu dans les deux chemins et nous obtenons un gradient nul. Si nous faisons cela, le système fini par minimiser la différence entre l’énergie de la bonne réponse et l’énergie de la meilleure réponse quelle qu’elle soit. La fonction de perte ici est la perte de perceptron. Student's questions;Questions des étudiants Why is inference easy in the case of energy-based factor graphs?;Pourquoi l’inférence est-elle facile dans le cas des graphes factoriels à base d’énergie ? Inference in the case of the energy-based model with latent variable involves the usage of exhaustive techniques such as gradient descent to minimize the energy however since the energy, in this case, is the sum of factors and techniques such as dynamic programming can be used instead.;L’inférence dans le cas d’un EBM avec variable latente implique l’utilisation de techniques exhaustives telles que la descente de gradient pour minimiser l’énergie. Cependant dans ce cas puisque l’énergie est la somme des facteurs, des techniques telles que la programmation dynamique peuvent être utilisées à la place. What if the latent variables in factor graphs are continuous variables? Can we still using min-sum algorithm?;Que faire si les variables latentes des graphes factoriels sont des variables continues ? Peut-on encore utiliser l’algorithme min-sum ? We can’t since we can’t search for all possible combination for all factor values now. However, in this case, energies also gives us an advantage, because we can do independent optimizations. Like the combination of Z1​ and Z2​ only affects Eb​ in Figure 19. We can do independent optimization and dynamic programming to do the inference.;Nous ne le pouvons pas car nous ne pouvons pas rechercher toutes les combinaisons possibles pour toutes les valeurs des facteurs. Cependant, dans ce cas, les énergies nous donnent aussi un avantage car nous pouvons faire des optimisations indépendantes. Comme la combinaison de Z1​ et Z2​ n’affecte que Eb dans la figure 5. Nous pouvons faire des optimisations indépendantes et une programmation dynamique pour faire l’inférence. Are the N boxes referring to separate ConvNets?;Les boîtes font-elles référence à des ConvNets séparés ? They are shared. They are multiple copies of the same ConvNet. It’s just a character recognition network.;Elles sont partagées. Ce sont des copies multiples du même ConvNet. Il s’agit simplement d’un réseau de reconnaissance de caractères. Graphical Energy-based Methods;Méthodes graphiques à base d'énergie Comparing losses;Comparer les pertes In the figure above, incorrect paths have −1.;Dans la figure ci-dessus, les chemins incorrects ont une valeur de −1. Professor LeCun starts with perceptron loss, which is used in the example of Graph Transformer Model in the figure above. The goal is to make energy of wrong answers large, and correct ones small.;Yann commence par la perte de perceptron, qui est utilisée dans l’exemple du Graph Transformer Model dans la figure ci-dessus. L’objectif est de faire en sorte que l’énergie des mauvaises réponses soit grande et celle des bonnes petites. In terms of implementation, you would represent the arcs in the visualization with a vector. Rather than a separate arc for each category, one vector contains both the categories and the score for each category.;En termes de mise en œuvre, nous représenterons les arcs dans la visualisation avec un vecteur. Plutôt qu’un arc séparé pour chaque catégorie, un vecteur contient à la fois les catégories et le score de chaque catégorie. Q: How is the segmentor implemented in the model above?;Comment le segmenteur est-il implémenté dans le modèle ci-dessus ? A: The segment is handcrafted heuristics. The model uses a handcrafted segment although there is a way to make it trainable end-to-end. This handcrafted approach was superseded by the sliding window approach for character recognition.;Le segmenteur est une heuristique artisanale. Le modèle utilise un segment artisanal bien qu’il y ait un moyen de le rendre entraînable de bout en bout. Cette approche artisanale a été remplacée par l’approche de la fenêtre coulissante pour la reconnaissance des caractères. Overview of losses;Aperçu des pertes The perceptron loss seen in the table above does not have a margin, and thus the loss has a risk of collapsing.;La perte de perceptron observée dans le tableau ci-dessus n’a pas de marge et donc risque de s’effondrer. Hinge loss is taking the energy of the most offending answer, and the correct answer, and computing their difference. Intuitively, with a margin m, the hinge will only have loss of 0 when the correct energy is lower than the most offending energy by at least m.;La perte de perceptron consiste à calculer la différence d’énergie entre celle de la réponse la plus offensante et celle de la bonne réponse. Intuitivement, avec une marge m, l’hinge aura une perte de 0 que lorsque l’énergie correcte est inférieure à l’énergie la plus offensante d’au moins m. MCE loss is used in speech recognition, and looks similar to a sigmoid.;La perte MCE est utilisée dans la reconnaissance vocale et ressemble à une sigmoïde. NLL loss aims to make the energy of the correct answer small, and make the log component of the equation large.;La perte NLL vise à rendre l’énergie de la bonne réponse petite et la composante logarithmique de l’équation grande. How may hinge be better than NLL loss?;Comment la perte hinge peut-elle être meilleure que la perte NLL ? Hinge is better than NLL because NLL will try to push the difference between the correct answer and other answers to infinity, whereas hinge only wants to make it larger than some value (the margin m).;La perte hinge est meilleure que la perte NLL parce que NLL essaie de pousser la différence entre la bonne réponse et les autres réponses à l’infini, alors que l’hinge veut seulement la rendre plus grande qu’une certaine valeur (la marge m). Definition:;Définition : A decoder inputs a sequence of vectors that indicate the scores or energy of individual sounds or images, and picks out the best possible output. What are some examples of problems that can use decoders? Language modelling, machine translation, and sequence tagging.;Un décodeur entre une séquence de vecteurs qui indiquent les scores ou l’énergie des différents sons ou images, et choisit la meilleure sortie possible. Il peut être utile pour tout ce qui est modélisation du langage, traduction automatique et marquage des séquences. Forward algorithm in Graph Transformer Networks;Algorithme forward dans les réseaux Graph Transformer Networks Graph composition;Composition de graphes Graph composition allows us to combine two graphs. In this example we can see a language model lexicon being represented as a trietrie (a graph) and a recognition graph which is produced by a neural network.;La composition de graphes nous permet de combiner deux graphes. Dans cet exemple, nous pouvons voir un lexique de modèle de langage représenté par un trietrie (un graphe) et un graphe de reconnaissance qui est produit par un réseau de neurones. The recognition graph specifies with different energy values (associated with each arc) how likely a character is at a particular step.;Le graphe de reconnaissance spécifie avec différentes valeurs d’énergie (associées à chaque arc) la probabilité qu’un personnage se trouve à une étape particulière. Now, for this example, the question we answer with a graph composition operation is, what is the best path in this recognition graph that also agrees with our lexicon?;Maintenant, pour cet exemple, la question à laquelle nous répondons par une opération de composition de graphes est la suivante : quel est le meilleur chemin dans ce graphe qui est également d’accord avec notre lexique ? The common hop from step 1 to step 2 between the recognition graph and the grammar is the character cc, associated with energy 0.4. Hence, our interpretation graph contains just 1 arc between step 1 and 2 corresponding to c. Similarly, possible characters between step 2 and 3 are x, u and a in the recognition graph. Branches following c in the grammar graph contain u and a. So, the graph composition operation picks out arcs u and a to be present in the interpretation graph. It also associates the arc it copies from the recognition graph with their energy values.;Le saut commun de l’étape 1 à l’étape 2 entre le graphe de reconnaissance et la grammaire est le caractère c, associé à l’énergie 0,4. Ainsi, notre graphe d’interprétation ne contient qu’un seul arc entre les étapes 1 et 2 correspondant à c. De même, les caractères possibles entre les étapes 2 et 3 sont x, u et a dans le graphe de reconnaissance. Les branches suivant c dans le graphe de grammaire contiennent u et a. Ainsi, l’opération de composition de graphes permet de repérer les arcs u et a qui doivent être présents dans le graphe d’interprétation. Elle associe également l’arc qu’elle copie du graphe de reconnaissance à leurs valeurs énergétiques. If the grammar also contained energy values associated with arcs, the graph composition would have added the energy values or combined them using some other operator.;Si la grammaire contenait également des valeurs énergétiques associées aux arcs, la composition du graphe aurait ajouté les valeurs d’énergie ou les aurait combinées à l’aide d’un autre opérateur. In a similar fashion, graph composition also allows us to combine two knowledge bases that are represented by neural networks. In the example discussed above, the grammar can essentially be represented as a neural network predicting the next character. The softmax output of the N provides us with the transition probabilities to the next character from a given node.;De la même manière, la composition des graphes nous permet également de combiner deux bases de connaissances représentées par des réseaux de neurones. Dans l’exemple présenté ci-dessus, la grammaire peut être représentée essentiellement comme un réseau de neurones prédisant le prochain caractère. La sortie softmax du réseau neuronal nous fournit les probabilités de transition vers le caractère suivant à partir d’un nœud donné. As a side note, if the language model shown in this example is a neural network, we can backpropagate through the entire structure. This becomes an example of a differentiable program where we backpropagate through a program containing loops, if-conditions, recursions etc.;Par ailleurs, si le modèle de langage présenté dans cet exemple est un réseau de neurones, nous pouvons faire une rétropropagation à travers toute la structure. Ceci devient un exemple de programme différenciable où nous faisons une rétropropagation à travers un programme contenant des boucles, des conditions if, des récursions, etc. A check reader from mid-90s;Un lecteur de chèques du milieu des années 90 The entire architecture of a check reader from the mid-90s is quite complex, but what we are primarily interested in, is the part starting from the character recogniser, which produces the recognition graph.;L’ensemble de l’architecture d’un lecteur de chèques du milieu des années 1990 est assez complexe, mais ce qui nous intéresse avant tout, c’est la partie partant du reconnaisseur de caractères produisant le graphe de reconnaissance. This recognition graph undergoes two separate composition operations, one with the correct interpretation (or the ground truth) and second with the grammar which creates a graph of all possible interpretations.;Ce graphe de reconnaissance subit deux opérations de composition distinctes, la première avec l’interprétation correcte (ou la vérité de base) et la seconde avec la grammaire qui crée un graphe de toutes les interprétations possibles. The entire system is trained via the Negative Log-Likelihood loss function. The negative log-likelihood says that each path in the interpretation graph is a possible interpretation and sum of energies along that path is the energy of that interpretation.;L’ensemble du système est entraîné par la fonction de perte de log-vraisemblance négative. La log-vraisemblance négative indique que chaque chemin dans le graphe d’interprétation est une interprétation possible et que la somme des énergies le long de ce chemin est l’énergie de cette interprétation. Now, instead of using the Viterbi algorithm, we use the forward algorithm. The following sub-sections discuss the differences between the two approaches.;Maintenant, au lieu d’utiliser l’algorithme de Viterbi, nous utilisons l’algorithme forward. Les sous-sections suivantes traitent des différences entre les deux approches. Viterbi algorithm;Algorithme de Viterbi Viterbi algorithm is a dynamic programming algorithm that is used to find the most likely path (or the path with the minimum energy) in a given graph. It minimises the energy with respect to a latent variable z, where z represents the path we are taking in the graph.;L’algorithme de Viterbi est un algorithme de programmation dynamique qui est utilisé pour trouver le chemin le plus probable (ou le chemin avec le minimum d’énergie) dans un graphe donné. Il minimise l’énergie par rapport à une variable latente z, où z représente le chemin que nous empruntons dans le graphe. The forward algorithm;L’algorithme forward The forward algorithm, on the other hand, computes the log of sum of exponentials of the negative value of energies of all paths. This mouthful can be easily seen as a formula below:;L’algorithme forward, quant à lui, calcule le logarithme de la somme des exponentielles de la valeur négative des énergies de tous les chemins. On peut facilement voir cela sous la forme d’une formule ci-dessous : This is marginalising over the latent variable z, which defines the paths in an interpretation graph. This approach computes this log sum exponential value over all possible paths to a particular node. This is like combining the cost of all possible paths in a soft-minimum way.;Cela marginalise par rapport à la variable latente z qui définit les chemins dans un graphe d’interprétation. Cette approche calcule la valeur exponentielle de cette somme logarithmique sur tous les chemins possibles vers un nœud particulier. C’est comme si l’on combinait le coût de tous les chemins possibles d’une manière douce et minimale. The forward algorithm is cheap to implement and does not cost more than Viterbi algorithm. Also, we can backpropagate through the forward algorithm node in the graph.;L’algorithme forward est peu coûteux à mettre en œuvre et ne coûte pas plus cher que l’algorithme de Viterbi. De plus, nous pouvons faire une rétropropagation à travers le nœud de l’algorithme foward dans le graphe. The working of the forward algorithm can be shown using the following example defined on an interpretation graph.;Le fonctionnement de l’algorithme foward peut être montré à l’aide de l’exemple suivant défini sur un graphe d’interprétation. The cost from the input node to the red shaded node is computed by marginalising over all possible paths reaching the red node. The arrows entering the red node define these possible paths in our example.;Le coût du nœud d’entrée au nœud rouge est calculé en marginalisant sur tous les chemins possibles atteignant le nœud rouge. Les flèches qui entrent dans le nœud rouge définissent ces chemins possibles dans notre exemple. For the red node, the value of energy at the node is given by:;Pour le nœud rouge, la valeur de l’énergie au nœud est donnée par : Neural network analogy of forward algorithm;Analogie du réseau neuronal avec l’algorithme forward The forward algorithm is a special case of the belief-propagation algorithm, when the underlying graph is a chain graph. This entire algorithm can be viewed as a feed-forward neural network where the function at each node is a log sum of exponentials and an addition term.;L’algorithme forward est un cas particulier de l’algorithme de propagation des croyances lorsque le graphe sous-jacent est un graphe en chaîne. L’ensemble de l’algorithme peut être considéré comme un réseau neuronal feed-forward où la fonction à chaque nœud est le logarithmique de la somme des exponentielles et un terme d’addition. For each node in the interpretation graph, we maintain a variable α.;Pour chaque nœud du graphe d’interprétation, nous conservons une variable α. where eki​ is the energy of the link from node k to node i.;où eki​ est l’énergie du lien entre le nœud k et le nœud i. αi​ forms the activation of a node i in this neural network and eki​ is the weight between nodes k and node i. This formulation is algebraically equivalent to the weighted sum operations of a regular neural network in the log domain.;αi​ forme l’activation d’un nœud i dans ce réseau de neurones et eki​ est le poids entre les nœuds k et le nœud i. Cette formulation est algébriquement équivalente aux opérations de somme pondérée d’un réseau neuronal dans le domaine logarithmique. We can backpropagate through the dynamic interpretation graph (since it changes from example to example) on which we apply the forward algorithm. We can compute the gradients of F(x,y) computed at the last node of the graph w.r.t the ekieki​ weights defining the edges of the interpretation graph.;Nous pouvons effectuer une rétropropagation à travers le graphe d’interprétation dynamique (puisqu’il change d’un exemple à l’autre) sur lequel nous appliquons l’algorithme forward. Nous pouvons calculer les gradients de F(x,y) calculés au dernier nœud du graphe avec les poids ekieki​ définissant les bords du graphe d’interprétation. Returning back to the check reader example, we apply the forward algorithm on the two graph compositions and obtain the energy value at the last node using the log sum exponential formula. The difference between these energy values is the negative log-likelihood loss.;Pour revenir à l’exemple du lecteur de chèque, nous appliquons l’algorithme forward sur les deux compositions de graphes et obtenons la valeur énergétique au dernier nœud en utilisant la formule du log de la somme d’exponentielles. La différence entre ces valeurs énergétiques est la perte de log-vraisemblance négative. The value obtained from applying the forward algorithm on the graph composition between correct answer and recognition graph is the log sum exponential value of the correct answer. In contrast, log sum exponential value at the last node of the graph composition between recognition graph and grammar is the marginalised value over all possible valid interpretations.;La valeur obtenue en appliquant l’algorithme forward sur la composition des graphes entre la bonne réponse et le graphe de reconnaissance est la valeur du logarithme de la somme des exponentielles de la bonne réponse. En revanche, la valeur du logarithme de la somme des exponentielles au dernier nœud de la composition des graphes entre le graphe de reconnaissance et la grammaire est la valeur marginale de toutes les interprétations valides possibles. Lagrangian formulation of backpropagation;Formulation lagrangienne de la rétropropagation For an input x and target output y, we can formulate a network as a collection of functions, fk​ and weights, wk​ such that successive steps in the network output zk​ with zk+1​=fk​(zk​,wk​). In a supervised setting, the goal of the network is to minimize C(zn,y), the cost of the nthnth output of the network, with respect to the ground truth. This is equivalent to the problem of minimizing C(zn​,y) with respect to the constraints zk+1​=fk​(zk​,wk​) and z0​=x.;Pour une entrée x et une sortie cible y, nous pouvons formuler un réseau comme un ensemble de fonctions fk et de poids wk​ de sorte que les étapes successives du réseau produisent zk avec zk+1​=fk​(zk​,wk​). Dans un environnement supervisé, l’objectif du réseau est de minimiser C(zn​,y), le coût de la sortie nthnth du réseau, par rapport à la vérité de terrain. Ceci est équivalent au problème de la minimisation de C(zn,y) par rapport aux contraintes zk+1​=fk​(zk​,wk​) et z0​=x. This approach originated with Lagrange and Hamilton in the context of Classical Mechanics, where the minimization is over the energy of the system and the Λ terms denote physical constraints of the system, such as two balls being forced to stay at a fixed distance from each other by virtue of being attached by a metal bar, for example.;Cette approche est née avec Lagrange et Hamilton dans le contexte de la mécanique classique, où la minimisation est supérieure à l’énergie du système et où les termes Λ désignent les contraintes physiques du système. Par exemple deux boules qui sont forcées de rester à une distance fixe l’une de l’autre car sont attachées par une barre métallique. In a situation where we need to minimize the cost c at every time step, k, the Lagrangian becomes L=∑k​(Ck​(zk​,yk​)+λk+1T​(zk+1​−fk​(zk​,wk​))).;Dans une situation où nous devons minimiser le coût c à chaque pas de temps, k, le Lagrangien devient : L=∑k​(Ck​(zk​,yk​)+λk+1T​(zk+1​−fk​(zk​,wk​))). Neural Ordinary Differential Equation;Equation différentielle ordinaire (ODE) neuronale Using this formulation of backprop, we can now talk about a new class of models, Neural ODEs. These are basically recurrent networks where the state, z, at time t is given by zt+dt​=zt​+f(zt​,W)dt, where w represents some set of fixed parameters. This can also be expressed as an ordinary differential equation (no partial derivatives): dtdz​=f(zt​,W).;En utilisant cette formulation de la rétropropagation, nous pouvons maintenant parler d’une nouvelle classe de modèles : les ODEs neuronales. Il s’agit essentiellement de réseaux récurrents où l’état, z, au moment t est donné par : tzt+dt​=zt​+f(zt​,W)dt, où w représente un ensemble de paramètres fixes. Cela peut également être exprimé sous la forme d’une équation différentielle ordinaire (sans dérivée partielle) : dzdt=f(zt,W). Training such a network using the Lagrangian formulation is very straightforward. If we have a target, y, and want the state of the system to reach y by time T, we simply establish the cost function as the distance between zt and y. Another goal of the network could be to find a stable state of the system, i.e. one that ceases to change after a certain point. Mathematically, this is equivalent to setting dtdz​=f(y,W)=0. In general, finding a solution, y to this equation is much easier than back propagation through time, because the network need not remember the gradient with respect to the whole sequence, and only has to minimize f or ∣f∣2. For more information about training neural ODE’s to reach fixed points, see (Lecun88).;Entraîner un tel réseau en utilisant la formulation lagrangienne est très simple. Si nous voulons que l’état du système atteigne y dans le temps T, nous établissons simplement la fonction de coût comme étant la distance entre zt et y. Un autre objectif du réseau pourrait être de trouver un état stable du système, c’est-à-dire un état qui cesse de changer après un certain point. Mathématiquement, cela équivaut à fixer dzdt=f(y,W)=0. En général, trouver une solution y à cette équation est beaucoup plus facile que la propagation dans le temps car le réseau n’a pas besoin de se souvenir du gradient par rapport à l’ensemble de la séquence. Il doit seulement minimiser f ou ∣f∣2. Pour plus d’informations sur l’entraînement des ODEs neuronales pour atteindre des points fixes, voir Le Cun (1988). Variational Inference in terms of Energy;Inférence variationnelle en termes d’énergie For an elementary energy function E(x,y,z), if we wish to marginalize over a variable, z, to obtain a loss in terms of only x and y, L(x,y), we must compute;Pour une fonction d’énergie élémentaire E(x,y,z), si nous voulons marginaliser sur une variable z pour obtenir une perte en termes de seulement x et y, L(x,y), nous devons calculer : Jensen’s inequality;L’inégalité de Jensen Jensen’s Inequality is a geometrical observation that states: if we have a convex function, then the expectation of that function, over a range, is less than the average of the function evaluated at the beginning and end of the range. Geometrically illustrated this is very intuitive:;L’inégalité de Jensen indique que si nous avons une fonction convexe alors l’espérance de cette fonction sur un intervalle est inférieure à la moyenne de la fonction évaluée au début et à la fin de l’intervalle. Illustrée géométriquement, cette observation est très intuitive : What’s the point?;Quel est l’intérêt ? We now have formulated an upper bound in such a way that we can avoid complicated integrations, and instead simply approximate these values by sampling from a surrogate distribution (q(z)), of our choice!;Nous avons maintenant formulé une limite supérieure de manière à éviter les intégrations compliquées, et à la place, nous approximons simplement ces valeurs par un échantillonnage à partir d’une distribution de substitution (q(z)), de notre choix ! To get the value of the first term of our upper bound function, we just sample from that distribution, and compute the average value of L that we obtain from applying our sampled z’s.;Pour obtenir la valeur du premier terme de notre fonction de limite supérieure, nous échantillonnons simplement à partir de cette distribution et calculons la valeur moyenne de L que nous obtenons en appliquant nos z échantillonnés. The second term (a factor of entropy) is just a property of the distribution family, and can likewise be approximated with random sampling of q.;Le second terme (un facteur d’entropie) est juste une propriété de la famille de distribution et peut également être approximé avec un échantillonnage aléatoire de q. Finally, we can minimize L with respect to its parameters (say, weights of a network W), by minimizing this function that bounds L above. We conduct this minimization by updating our two variables: (1) the entropy of q, and (2) our model parameters W.;Enfin, nous pouvons minimiser L par rapport à ses paramètres (par exemple, les poids d’un réseau W), en minimisant cette fonction qui délimite L ci-dessus. Nous effectuons cette minimisation en mettant à jour nos deux variables : (1) l’entropie de q et (2) les paramètres de notre modèle W. Summary;Résumé This is the “energy view” of variational inference. If you need to compute the log of a sum of exponentials, replace it with the average of your function plus an entropy term. This gives us an upper bound. We then minimise this upper bound, and in doing so minimize the function we actually care about.;Ceci est la vue énergétique de l’inférence variationnelle. Si nous devons calculer le logarithme d’une somme d’exponentielles, remplaçons-le par la moyenne de votre fonction plus un terme d’entropie. Cela nous donne une limite supérieure. Nous minimisons ensuite cette limite supérieure et, ce faisant, nous minimisons la fonction qui nous intéresse réellement. Overfitting and regularization;Surentraînement et régularisation Overfitting;Surentraînement Consider a regression problem. A model could underfit, right-fit, or overfit.;Considérez un problème de régression. Un modèle peut être sousentraîné, bien entraîné ou surentraîné. If the model is insufficiently expressive for the data it will underfit. If the model is more expressive than the data (as is the case with deep neural networks), it runs the risk of overfitting.;Si le modèle n’est pas suffisamment expressif pour les données, il sera sousentraîné. Si le modèle est plus expressif que les données (comme c’est le cas pour les réseaux neuronaux profonds), il risque de surentraîner. In this case, the model is powerful enough to fit both the original data and the noise, producing a poor solution for the task at hand.;Dans ce cas, le modèle est suffisamment puissant pour s’adapter à la fois aux données d’origine et au bruit, ce qui produit une mauvaise solution pour la tâche à accomplir. Ideally we would like our model to fit the underlying data and not the noise, producing a good fit for our data. We would especially like to do this without needing to reduce the power of our models. Deep learning models are very powerful, often much more than is strictly necessary in order to learn the data. We would like to keep that power (to make training easier), but still fight overfitting.;Dans l’idéal, nous aimerions que notre modèle s’adapte aux données sous-jacentes et non au bruit, ce qui produirait un bon entraînement de nos données. Nous aimerions surtout le faire sans avoir besoin de réduire la puissance de nos modèles. Les modèles d’apprentissage profond sont très puissants, souvent bien plus que ce qui est strictement nécessaire pour apprendre les données. Nous aimerions conserver cette puissance (pour faciliter l’entraînement) mais tout en luttant contre le surentraînenement. Overfitting for debugging;Surentraînement pour le débogage Overfitting can be useful in some cases, such as during debugging. One can test a network on a small subset of training data (even a single batch or a set of random noise tensors) and make sure that the network is able to overfit to this data. If it fails to learn, it is a sign that there may be a bug.;Le surentraînement peut être utile dans certains cas, par exemple lors du débogage. On peut tester un réseau sur un petit sous-ensemble de données d’entraînement (même un seul batch ou un ensemble de tenseurs de bruit aléatoire) et s’assurer que le réseau est capable de sur-entraîner sur ces données. S’il ne parvient pas à apprendre, c’est le signe qu’il y a peut-être un bogue. Regularization;Régularisation We can try to fight overfitting by introducing regularization. The amount of regularization will affect the model’s validation performance. Too little regularization will fail to resolve the overfitting problem. Too much regularization will make the model much less effective.;Nous pouvons essayer de lutter contre le surentraînement en introduisant une régularisation. L’ampleur de la régularisation aura une incidence sur les performances de validation du modèle. Une régularisation trop faible ne résoudra pas le problème du surentraînement. Trop de régularisation rendra le modèle beaucoup moins efficace. "Regularization adds prior knowledge to a model; a prior distribution is specified for the parameters. It acts as a restriction on the set of possible learnable functions.";La régularisation ajoute des connaissances préalables à un modèle, une distribution préalable est spécifiée pour les paramètres. Elle agit comme une restriction sur l’ensemble des fonctions pouvant être apprises. Another definition of regularization from Ian Goodfellow: Regularization is any modification we make to a learning algorithm that is intended to reduce its generalization error but not its training error.;Une autre définition de la régularisation de Ian Goodfellow : « la régularisation est toute modification que nous apportons à un algorithme d’apprentissage visant à réduire son erreur de généralisation mais pas son erreur d’entraînement ». Initialization techniques;Techniques d’initialisation We can select a prior for our network parameters by initializing the weights according to a particular distribution. One option: Xavier initialization.;Nous pouvons sélectionner un préalable pour les paramètres de notre réseau en initialisant les poids selon une distribution particulière. Une option : l’initialisation de Xavier. Weight decay regularisation;Régularisation du taux de décroissance des poids Weight decay is our first regularisation technique. Weight decay is in widespread use in machine learning, but less so with neural networks. In PyTorch, weight decay is provided as a parameter to the optimizer (see for example the weight_decay parameter for SGD).;Le taux de décroissance des poids (weight decay) est notre première technique de régularisation. Elle est largement utilisée dans l’apprentissage machine, mais moins dans les réseaux de neurones. Dans PyTorch, cela est fourni comme paramètre à l’optimiseur (voir par exemple le paramètre weight_decay pour SGD). This is also called:;Ce paramètre est également appelé : L2;L2 Ridge;Ridge Gaussian prior;Gaussian prior We can consider an objective which acts on the parameters:;On peut envisager un objectif qui agit sur les paramètres : then we have updates:;puis nous avons des mises à jour : For weight decay we add a penalty term:;Pour le taux de décroissance des poids, nous ajoutons un terme de pénalité : which produces an update;qui produit une mise à jour : This new term in the update drives the parameters θ slightly toward zero, adding some “decay” in the weights with each update.;Ce nouveau terme dans la mise à jour conduit les paramètres θ légèrement vers 0, en ajoutant une certaine décroissance dans les poids à chaque mise à jour. L1 regularisation;Régularisation L1 Available as an option for PyTorch optimizers.;Disponible en option pour PyTorch optimiseurs. Also called:;Aussi appelé : LASSO: Least Absolute Shrinkage Selector Operator;LASSO Laplacian prior;Laplacian prior Sparsity prior;Sparsity prior Viewing this as a Laplace distribution prior, this regularization puts more probability mass near zero than does a Gaussian distribution.;En considérant cela comme une distribution de Laplace antérieure, cette régularisation met plus de masse de probabilité près de 0 que ne le fait une distribution gaussienne. Starting with the same update as above we can view this as adding another penalty:;En commençant avec la même mise à jour que ci-dessus, nous pouvons considérer que cela ajoute une autre pénalité : which produces an update;qui produit une mise à jour : Unlike L2​ weight decay, the L1​ regularization will “kill” components that are close to an axis in the parameter space, rather than evenly reducing the length of the parameter vector.;Contrairement au taux de décroissance L2​, la régularisation L1​ « tuera » les composantes qui sont proches d’un axe dans l’espace de paramètres, plutôt que de réduire de manière égale la longueur du vecteur de paramètres. Dropout;Dropout Dropout involves setting a certain number of neurons to zero randomly during training. This prevents the network from learning a singular path from input to output. Similarly, due to the large parametrisation of neural networks, it is possible for the neural network to effectively memorize the input. However, with dropout, this is a lot more difficult since the input is being put into a different network each time since dropout effectively trains a infinite number of networks that are different each time. Hence, dropout can be a powerful way of controlling overfitting and being more robust against small variations in the input.;Le dropout consiste à mettre à 0 un certain nombre de neurones de façon aléatoire pendant l’entraînement. Cela empêche le réseau d’apprendre un chemin singulier de l’entrée à la sortie. De même, en raison de la grande paramétrisation des réseaux de neurones, il est possible pour le réseau de neurones de mémoriser efficacement l’entrée. Cependant, avec le dropout, cela est beaucoup plus difficile car l’entrée est mise dans un réseau différent à chaque fois, puisque le dropout entraîne effectivement un nombre infini de réseaux qui sont différents à chaque fois. Par conséquent, le dropout peut être un moyen efficace de contrôler le surentraînement et d’être plus résistant aux petites variations de l’entrée. In PyTorch, we can set a random dropout rate of neuron.;Dans PyTorch, nous pouvons fixer un taux de dropout aléatoire des neurones. After training, during inference, dropout is not used any more. In order to create the final network for inference, we average over all of the individual networks created during dropout and use that for inference. We can similarly multiply all of the weights by 1/(1−p) where p is the dropout rate.;Après l’entraînement, lors de l’inférence, le dropout n’est plus utilisé. Afin de créer le réseau final pour l’inférence, nous faisons la moyenne de tous les réseaux individuels créés pendant le dropout et nous l’utilisons pour l’inférence. Nous pouvons également multiplier tous les poids par 1/(1−p), où p est le taux de dropout. Early-stopping;Arrêt anticipé During training, if the validation loss starts increasing, we can stop training and use the best weights found so far. This prevents the weights from growing too much which will start hurting validation performance at some point. In practise, it is common to calculate the validation performance at certain intervals and stop after a certain number of validation error calculations stop decreasing.;Pendant l’entraînement, si la perte de validation commence à augmenter, nous pouvons arrêter l’entraînement et utiliser les meilleurs poids trouvés jusqu’à présent. Cela permet d’éviter que les poids n’augmentent trop, ce qui commencerait à nuire aux performances de validation à un moment donné. En pratique, il est courant de calculer la performance de validation à certains intervalles et de s’arrêter après qu’un certain nombre de calculs d’erreurs de validation aient cessé de diminuer. Fighting overfitting indirectly;Lutter indirectement contre le surentraînement There are techniques that have the side-effect of regularizing parameters but are not regularisers themselves.;Il existe des techniques qui ont pour effet secondaire de régulariser les paramètres mais qui ne sont pas elles-mêmes des régulariseurs. Batch-norm;Normalisation par batch How does batch norm make training more efficient?;Comment la normalisation par batch rend-elle l’entraînement plus efficace ? We can use higher learning rate when applying batch norm. Batch normalization is used to prevent the internal covariate shift of a neural network but there is a lot debate if it actually does this and what the true benefit actually is.;Nous pouvons utiliser un taux d’apprentissage plus élevé lorsque nous appliquons la normalisation par batch. Elle est utilisée pour empêcher le déplacement des covariables internes d’un réseau neuronal, mais la question de savoir si elle permet réellement d’atteindre cet objectif et quel en est le véritable avantage fait l’objet de nombreux débats. Batch normalisation essentially extends the logic of normalizing the input of the neural network to normalizing the input of each hidden layer in the network. The basic idea is to have a fixed distribution feed each subsequent layer of a neural network since learning occurs best when we have a fixed distribution. To do this, we compute the mean and variance of each batch before each hidden layer and normalize the incoming values by these batch specific statistics, which reduces the amount by which the values will ultimately shift around during training.;La normalisation par batch étend essentiellement la logique de normalisation de l’entrée du réseau neuronal à la normalisation de l’entrée de chaque couche cachée du réseau. L’idée de base est d’avoir une distribution fixe qui alimente chaque couche suivante d’un réseau neuronal puisque l’apprentissage se fait mieux lorsque nous avons une distribution fixe. Pour ce faire, nous calculons la moyenne et la variance de chaque batch avant chaque couche cachée et nous normalisons les valeurs entrantes par ces statistiques spécifiques aux batchs, ce qui réduit la quantité par laquelle les valeurs vont finalement se déplacer pendant l’entraînement. Regarding the regularizing effect, due to each batch being different, each sample will be normalized by slightly different statistics based upon the batch it is in. Hence, the network will see various slightly altered versions of a single input which helps the network learn to be more robust against slight variations in the input and prevent overfitting. Another benefit of batch normalisation is that training is a lot faster.;En ce qui concerne l’effet de régularisation, étant donné que chaque batch est différent, chaque échantillon sera normalisé par des statistiques légèrement différentes en fonction du lot dans lequel il se trouve. Ainsi, le réseau verra différentes versions légèrement modifiées d’une même entrée, ce qui l’aidera à apprendre à être plus robuste contre de légères variations de l’entrée et à éviter le surentraînement. Un autre avantage de la batch normalisation est que l’entraînement est beaucoup plus rapide. More data;Plus de données Gathering more data is a easy way to prevent overfitting but can be expensive or not feasible.;La collecte de données supplémentaires est un moyen facile d’éviter le surentraînement mais peut être coûteuse ou impossible. Data-augmentation;L’augmentation de données Transformations using Torchvision can have a regularizing effect by teaching the network to learn how to be insensitive to perturbations.;Les transformations réalisées à l’aide de Torchvision peuvent avoir un effet régulariseur en apprenant au réseau à être insensible aux perturbations. Transfer leaning (TF) fine-tuning (FT);L’apprentissage par transfert et le finetuning Transfer learning (TF) refers to just training a final classifier on top of a pre-trained network (used in cases of little data generally).;L’apprentissage par transfert (TF pour Transfert learning) consiste simplement à entraîner un classifieur final en plus d’un réseau pré-entraîné (utilisé généralement dans les cas où les données sont peu nombreuses). Fine tuning (FT) refers to training partial/full portions of the pre-trained network as well (used in cases where we have a lot of data generally).;Le finetuning (FT) consiste à entraîner également des parties partielles ou complètes du réseau pré-entraîné (utilisé dans les cas où nous disposons de beaucoup de données en général). Generally, when should we freeze the layers of a pre-trained model?;En général, quand devrions-nous geler les couches d’un modèle pré-entraîné ? 4 general cases: 1) If we have little data with similar distributions, we can just do transfer learning. 2) If we have a lot of data with similar distributions we can do fine-tuning in order to improve the performance of the feature extractor as well. 3) If we have a little data and a different distribution we should remove a few of the final trained layers in the feature extractor since they are too specialized. 4) If we have a lot of data and they are from different distributions, we can just train all portions.;4 cas généraux : 1) Si nous avons peu de données avec des distributions similaires, nous pouvons simplement faire un apprentissage par transfert. 2) Si nous avons beaucoup de données avec des distributions similaires, nous pouvons faire un finetuning afin d’améliorer également les performances de l’extracteur de caractéristiques. 3) Si nous avons peu de données et une distribution différente, nous devrions supprimer quelques couches finales entraînées dans l’extracteur de caractéristiques car elles sont trop spécialisées. 4) Si nous avons beaucoup de données et qu’elles proviennent de différentes distributions, nous pouvons simplement entraîner toutes les parties. Note, we can also use different learning rates for different layers in order to improve performance.;A noter que nous pouvons également utiliser des taux d’apprentissage différents pour les différentes couches afin d’améliorer les performances. To further our discussion about overfitting and regularisation, let us look at the visualisations below. These visualisations were generated with the code from Notebook.;Pour approfondir notre discussion sur le surentraînement et la régularisation, examinons les visualisations ci-dessous. Ces visualisations ont été générées avec le code de la version anglaise de ce notebook. From Figure 7 and Figure 8, we can understand the dramatic effect that dropout has on generalisation error i.e. the difference between the training loss and validation loss. In Figure 7, without dropout there is clear overfitting as the training loss is much lower than the validation loss. However, in Figure 8, with dropout the training loss and validation loss almost continuously overlap indicating that the model is generalising well to the validation set, which serves as our proxy for out-of-sample set. Of course, we can measure the actual out-of-sample performance using a separate holdout test set.;Les figures 7 et 8 nous permettent de comprendre l’effet spectaculaire que le dropout a sur l’erreur de généralisation, c’est-à-dire la différence entre la perte d’entraînement et la perte de validation. Dans la figure 7 sans dropout, il y a un surentraînement évident car la perte d’entraînement est beaucoup plus faible que la perte de validation. Cependant, dans la figure 8 avec le dropout, la perte d’entraînement et la perte de validation se chevauchent presque continuellement ce qui indique que le modèle se généralise bien à l’ensemble de validation nous servant de substitut pour l’ensemble hors échantillon. Bien entendu, nous pouvons mesurer la performance réelle hors échantillon en utilisant un ensemble de tests de résistance distinct. In Figure 9, we observe the effect that regularisation (L1 & L2) have on the weights of the network.;Dans la figure 9, nous observons l’effet que la régularisation (L1 et L2) a sur les poids du réseau. When we apply L1 regularisation, from the red peak at zero, we can understand that most of the weights are zero. Small red dots closer to zero are the non-zero weights of the model.;Lorsque nous appliquons la régularisation L1 à partir du pic rouge à 0, nous pouvons comprendre que la plupart des poids sont nuls. Les petits points rouges plus proches de 0 sont les poids non nuls du modèle. Contrastingly, in L2 regularisation, from the lavender peak near zero we can see that most of the weights are close to zero but non-zero.;Par contraste, dans la régularisation L2, à partir du pic violet proche de 0, nous pouvons voir que la plupart des poids sont proches de 0 mais non nuls. When there is no regularisation (blue) the weights are much more flexible and spread out around zero resembling a normal distribution.;Lorsqu’il n’y a pas de régularisation (bleu), les poids sont beaucoup plus souples et s’étalent autour de 0 comme dans une distribution normale. Bayesian Neural Networks: estimating uncertainty around predictions;Réseaux de neurones Bayésiens : estimer l’incertitude autour des prévisions We care about uncertainty in neural networks because a network needs to know how certain/confident on its prediction.;Nous nous soucions de l’incertitude dans les réseaux de neurones car un réseau a besoin de savoir à quel point il est certain/confident de ses prédictions. Ex: If you build a neural networks to predict steering control, you need to know how confident the network’s predictions.;Par exemple, si nous construisons un réseau de neurones pour prédire le contrôle de la direction, nous devons connaître le degré de confiance des prédictions du réseau. We can use a neural network with dropout to get a confidence interval around our predictions. Let us train a network with dropout, rr being the dropout ratio.;Nous pouvons utiliser un réseau de neurones avec dropout pour obtenir un intervalle de confiance autour de nos prédictions. Entraînons un réseau avec dropout, rr étant le taux de dropout. Usually during inference, we set the network to validation mode and use all neurons to get the final prediction. While doing the prediction, we scale the weights Δ by 1−r1​ to account for dropping neurons during training.;Habituellement, lors de l’inférence, nous mettons le réseau en mode de validation et utilisons tous les neurones pour obtenir la prédiction finale. Tout en faisant la prédiction, nous échelonnons les poids Δ par 1−r1​ pour tenir compte des neurones abandonnés pendant l’entraînement. This method gives us a single prediction for each input. However, to get a confidence interval around our prediction, we need multiple predictions for the same input. So instead of setting the network to validation mode during inference, we retain it in training mode i.e. still drop neurons randomly and get a prediction. When we predict multiple times using this dropout network, for the same input we will get different predictions depending on the neurons being dropped. We use these predictions to estimate the average final prediction and a confidence interval around it.;Cette méthode nous permet d’obtenir une seule prédiction pour chaque entrée. Cependant, pour obtenir un intervalle de confiance autour de notre prédiction, nous avons besoin de plusieurs prédictions pour la même entrée. Ainsi, au lieu de mettre le réseau en mode validation pendant l’inférence, nous le gardons en mode d’entraînement, c’est-à-dire que nous appliquons toujours le dropout sur des neurones de manière aléatoire et obtenons une prédiction. En faisant plusieurs prédictions pour la même entrée avec ce réseau avec dropout, nous obtenons des prédictions différentes selon les neurones qui sont dropés. Nous utilisons ces prédictions pour estimer la prédiction finale moyenne et un intervalle de confiance autour de celle-ci. In the below images, we have estimated confidence intervals around the predictions of networks. These visualisations were generated with the code from Bayesian Neural Networks Notebook. The red line represents the predictions. The purple shaded region around the predictions represent the uncertainty i.e. variance of predictions.;Dans les images ci-dessous, nous avons estimé les intervalles de confiance autour des prédictions des réseaux. Ces visualisations ont été générées avec la version anglaise de ce notebook. Une version en français est disponible ici. La ligne rouge représente les prédictions. La région en violet autour des prédictions représente l’incertitude c’est-à-dire la variance des prédictions. As you can observe in the above images, these uncertainty estimations are not calibrated. They are different for different activation functions. Noticeably in the images, uncertainty around data points is low. Furthermore, the variance that we can observe is a differentiable function. So we can run gradient descent to minimise this variance. Thereby we can get more confident predictions.;Comme vous pouvez l’observer sur les images ci-dessus, ces estimations d’incertitude ne sont pas calibrées. Elles sont différentes pour différentes fonctions d’activation. Sur les images, on remarque que l’incertitude autour des points de données est faible. De plus, la variance que nous pouvons observer est une fonction différentiable. Nous pouvons donc effectuer une descente de gradient pour minimiser cette variance. Nous pouvons ainsi obtenir des prévisions plus fiables. If we have multiple terms contributing to total loss in our EBM model, how do they interact?;Si notre EBM comporte plusieurs termes contribuant à la perte totale, comment interagissent-ils ? In EBM models, we can simply and conveniently sum the different terms to estimate the total loss.;Dans les EBMs, nous pouvons simplement et commodément additionner les différents termes pour estimer la perte totale. Digression: A term that penalises the length of the latent variable can act as one of many loss terms in a model. The length of a vector is roughly proportional to the number of dimensions it has. So if you decrease the number of dimensions, then the length of the vector decreases and as a result it encodes less information. In an auto-encoder setting, this makes sure that the model is retaining the most important information. So, one way to bottleneck information in latent spaces is to reduce the dimensionality of the latent space.;Digression : un terme qui pénalise la longueur de la variable latente peut agir comme l’un des nombreux termes de perte dans un modèle. La longueur d’un vecteur est à peu près proportionnelle au nombre de dimensions qu’il possède. Ainsi, si nous diminuons le nombre de dimensions, la longueur du vecteur diminue et par conséquent il code moins d’informations. Dans un paramétrage d’auto-encodeur, cela permet de s’assurer que le modèle conserve les informations les plus importantes. Ainsi, une façon de bloquer l’information dans les espaces latents est de réduire la dimensionnalité de l’espace latent. How can we determine the hyper-parameter for regularisation?;Comment déterminer l’hyperparamètre pour la régularisation ? In practice, to determine the optimal hyper-parameter for regularisation i.e. regularisation strength we can use;En pratique, pour déterminer l’hyperparamètre optimal pour la régularisation, c’est-à-dire la force de régularisation, nous pouvons utiliser : Bayesian hyper-parameter Optimization;l’optimisation des hyperparamètres bayésiens Grid Search;la recherche par grille Random Search;la recherche aléatoire While doing these searches, the first few epochs are usually enough to give us a sense of how the regularization is working. So we need train the model extensively.;Lors de ces recherches, les premières époques sont généralement suffisantes pour nous donner une idée du fonctionnement de la régularisation. Nous devons donc entraîner le modèle de façon intensive. Week 15;Semaine 15 When encountering the data with multiple outputs for a single input, feed-forward networks cannot capture such implicit dependencies. Instead, latent-variable energy-based models (EBMs) come to the rescue. We developed a toy ellipse example with a fixed input and the optimal model formulation. Then, we applied latent-variable EBMs to inference the best latent variables that can learn the implicit relationships.;Lorsque les réseaux feed-forward rencontrent des données à sorties multiples pour une seule entrée, ils ne peuvent pas saisir les dépendances implicites. C’est là que les modèles à base d’énergie à variable latente (LV-EBMs pour Latent variable energy based models) viennent à la rescousse. Nous développons un exemple d’ellipse avec une entrée fixe et la formulation optimale du modèle. Ensuite, nous appliquons les EBMs à variables latentes pour inférer les meilleures variables latentes pouvant apprendre les relations implicites. This section starts from introducing a relaxed version of free energy by modifying the “temperature” to smooth the energy function. Then we demonstrate how to train EBMs by minimizing loss functionals with several examples. Finally we give a concrete example of self-supervised learning, where we train a EBM to learn a horn-like data manifold.;Cette section introduit une version détendue de l’énergie libre en modifiant la « température » afin de lisser la fonction d’énergie. Ensuite, nous montrons comment entraîner les EBMs en minimisant les pertes fonctionnelles à l’aide de plusieurs exemples. Enfin, nous donnons un exemple concret d’apprentissage autosupervisé, où nous entraînons un EBM à l’apprentissage d’une variété de type conique. Inference for latent variable Energy-Based Models (EBMs);Inférence pour les modèles à base d’énergie à variable latente Training data and model definition;Données d’entraînement et définition du modèle To understand why and how to use an Energy-Based Model (EBM), as well as relevant data format, let us consider training samples from an ellipse. Given function below;Pour comprendre pourquoi et comment utiliser un modèle à base d’énergie (EBM), et quel est le format de données qui est pertinent pour ce type de modèle, considérons des échantillons d’entraînement à partir d’une ellipse. La fonction est donnée ci-dessous : From Figure 1, it is clear that given a single input x, there are multiple possible output y. In other words, we cannot identify a one-to-one mapping of vectors as we expected for Feed Forward Neural Networks (For example, there are almost always two possible y2 fixing y1​ given input x). This is where we introduce the Latent Variable Energy-Based Models.;La figure 1 montre clairement qu’avec une seule entrée x, il y a plusieurs sorties possibles y. En d’autres termes, nous ne pouvons pas identifier une association un à un des vecteurs comme nous l’avions prévu pour les réseaux neuronaux de type feed forward (par exemple, étant donné l’entrée x, pour un y1​ fixé, il y a presque toujours deux y2​ possibles). C’est ici que nous introduisons les modèles à base d’énergie à variable latente. Meanwhile, we take latent variable z=[0:24π​:2π) and feed it into a decoder to produce y~​ (Figure 2 and 3). Then, the energy function is computed as the squared Euclidean distance between y and y~​:;Entre-temps, nous prenons la variable latente z=[0:24π​:2π] et l’introduisons dans un décodeur pour produire y~ (figures 2 et 3). Ensuite, la fonction d’énergie est calculée comme le carré de la distance euclidienne entre y et y~​ : For each y(i)∈Y,i∈[1,24], we can compute the corresponding energy given each y~​ by changing z. Therefore, we may visualize 24 energy functions E1​,…,E24​, where energy quantity on y-axis is plotted against the choice of latent variable z on the x-axis (Figure 4).;Pour chaque y(i)∈Y,i∈[1,24], nous pouvons calculer l’énergie correspondante donnée à chaque y~​ en changeant z. Par conséquent, nous pouvons visualiser 24 fonctions d’énergie E1​,…,E24​, où la quantité d’énergie sur l’axe des y est tracée en fonction du choix de la variable latente z sur l’axe des x (figure 4). Energy and free energy for two training samples;Energie et énergie libre pour deux exemples d’entraînement Let’s dive deeper into the functional form of the E(y,z) for a given y(i). Figure 5 shows a plot of E(y(23),z)=E23​.;Plongeons dans la forme fonctionnelle des E(y,z) pour un y(i) donné. La figure 5 montre un tracé de E(y(23),z)=E23​. Note that the energy, E23​, yields a periodic function with a maximum near z=0 and 2π and minimum near z=π. This symmetric form arises due to the location y(23) in the y space relative to the decoded y~​.;L’énergie, E23, donne une fonction périodique avec un maximum proche de z=0 et 2π et un minimum proche de z=π. Cette forme symétrique est due à la position y(23) dans l’espace y par rapport au y~​ décodé. As shown in Figure 6, y(23) marked by the green point is closely aligned to the horizontal axis of y~​ shown in purple which yields symmetry in E23​. The latent variable z acts as a reverse polar coordinates angle such that the positive direction is clockwise. At z=0 (the leftmost purple point), the Euclidean distance between y~​ and y(23) is largely resulting in high energy. As z approaches π (the rightmost purple point), y~​ gets closer to y(23) which decreases the energy towards a minimum level. Conversely, as z increases beyond π towards 2π, the distance between y~ and y(23) increases, and hence the energy also increases towards a maximum.;Comme le montre la figure 6, y(23) marqué par le point vert, est étroitement aligné sur l’axe horizontal de y~​, indiqué en violet. Cela donne une symétrie en E23​. La variable latente z agit comme un angle de coordonnées polaires inversées de telle sorte que le sens positif est dans le sens des aiguilles d’une montre. À z=0 (le point violet le plus à gauche), la distance euclidienne entre y~​ et y(23) se traduit en grande partie par une énergie élevée. Lorsque z s’approche de π (le point violet le plus à droite), y~​ se rapproche de y(23), ce qui réduit l’énergie vers un niveau minimum. Inversement, lorsque z augmente au-delà de π vers 2π, la distance entre y~​ et y(23) augmente, et donc l’énergie augmente également vers un maximum. Now that we have an understanding of the energy distribution, let’s evaluate the zero-temperature limit of the free energy defined by the following.;Maintenant que nous avons une compréhension de la distribution de l’énergie, évaluons la limite vers zéro de la température de l’énergie libre définie par ce qui suit : We will also express the latent variable which yields the free energy as zˇ defined by the following.;Nous exprimerons également la variable latente qui donne l’énergie libre sous la forme zˇ définie par ce qui suit : As depicted in Figure 5, to find the free energy associated with y(23) we’ll start with an initial latent variable z~. zˇ can be evaluated through optimization algorithms such as exhaustive search, conjugate gradient, line search, or limited-memory BFGS. The free energy is the minimum value of the energy with respect to the latent variable.;Comme le montre la figure 5, pour trouver l’énergie libre associée à y(23), nous commençons par une variable initiale latente z~. zˇ peut être évalué par des algorithmes d’optimisation tels que la recherche exhaustive, le gradient conjugué, la recherche linéaire ou le BFGS à mémoire limitée. L’énergie libre est la valeur minimale de l’énergie par rapport à la variable latente. Figure 7 below shows the evaluation of the free energy in the y space. Note that throughout the optimization, the latent variable is increased such that y~​ moves clockwise toward y(23). At the free energy, the energy and consequently the distance between y~​ and y(23) is minimized.;La figure 7 ci-dessous montre l’évaluation de l’énergie libre dans l’espace y~. Notons que tout au long de l’optimisation, la variable latente est augmentée de telle sorte que y~​ se déplace dans le sens des aiguilles d’une montre vers y(23). À l’énergie libre, l’énergie (et donc la distance entre y~​ et y(23)) est minimisée. In evaluating the free energy F∞​ and its associated latent variable zˇ, we are able to find the decoded y~​ which is close to the sample data y(i).;En évaluant l’énergie libre, F∞​, et sa variable latente associée zˇ, nous sommes capables de trouver le y~​ décodé qui est proche des données de l’échantillon y(i). Free energy dense estimation;Estimation de la densité d’énergie libre To understand the Free Energy Function better, we begin with the following example, shown in Figure 8.;Pour mieux comprendre la fonction d’énergie libre, nous commençons par l’exemple présenté à la figure 8. To compute the free energy, F∞​, at each mesh grid point with respect to the manifold in blue color (which is also the all possible choices of the latent variables z~), we first recall the definition of Free Energy Function as below:;Pour calculer l’énergie libre, F∞​, à chaque point de la grille de maille par rapport à la variété en bleue (qui est également l’ensemble des choix possibles des variables latentes z~), nous rappelons d’abord la définition de la fonction d’énergie libre ci-dessous : Given the formula of the energy function, E(y,z), and a location (sample) y~, our minimization process starts with inference, which is exactly the process to find the latent variable zˇ that most likely generates our location of sample. Graphically speaking with Figure 8, we start with an arbitrary point z on the blue manifold and then move around the manifold to find the point, zˇ, on the manifold that is closest to our sample location, y~. As a result, the free energy would be the Euclidean distance between our sample point y and the picked y~​(zˇ).;Étant donné la formule de la fonction énergie E(y,z) et un emplacement (un échantillon) y~, notre processus de minimisation commence par l’inférence qui est exactement le processus pour trouver la variable latente zˇ générant notre emplacement le plus probable. Sur le graphique de la figure 8, nous commençons par un point arbitraire z sur la variété en bleue, puis nous nous déplaçons autour pour trouver sur la variété le point zˇ qui est le plus proche de notre emplacement y~. Par conséquent, l’énergie libre est la distance euclidienne entre notre point d’échantillonnage y et le point choisi y~​(zˇ). Now, we consider 5 specific sample points in the mesh grid, shown in Figure 9 with different colors.;Maintenant, nous considérons 5 points échantillons spécifiques dans la grille de maille, illustrés sur la figure 9 avec des couleurs différentes. Utilizing what we learned above and give a guess to the energy function shapes of these five points, with respect to different choices of latent variable z on the manifold. Exactly, the blue point will likely have energy function with the largest magnitude, and thus the largest free energy among the 5, and the orange point will likely have the smallest free energy.;Utilisons ce que nous avons appris ci-dessus et donnons une estimation des formes de la fonction d’énergie pour ces cinq points, par rapport aux différents choix de la variable latente z sur la variété. Le point bleu est probablement la fonction d’énergie avec la plus grande magnitude et donc la plus grande énergie libre parmi les 5. Le point orange a probablement la plus petite énergie libre. The complete look of five energy functions given as following in Figure10, the cross signs represent the values of zˇ for each specific energy function.;L’aspect complet des cinq fonctions d’énergie est donné comme suit dans la figure 10. Les signes en croix représentent les valeurs de zˇ pour chaque fonction d’énergie spécifique. Continuing the above example, we should note that our Free Energy Function, F∞​, only takes non-negative scalar values for its range (because we are using Euclidean distance for E(y,z)), and the domain of our Free Energy Function, F∞​, is R2 (only the y space), so generally we haveF∞​:R2→R+. We now use the free energy values as our inference to plot the above mesh grid as the following heat map, shown in Figure 11. To be noted, arrows represent gradient values.;En poursuivant l’exemple ci-dessus, nous devons noter que notre fonction d’énergie libre, F∞​, ne prend que des valeurs scalaires non négatives pour son domaine (car nous utilisons la distance euclidienne pour E(y,z)). Le domaine de notre fonction d’énergie libre, F∞​, est R2 (seulement l’espace y~), donc généralement nous avons F∞​:R2→R+. Nous utilisons maintenant les valeurs d’énergie libre comme inférence pour tracer la grille de maille comme la carte thermique illustrée à la figure 11. À noter que les flèches représentent les valeurs de gradient. To sum up, we only discuss a single example of Free Energy here. In real circumstances, we will have much wider choices of latent variables, z~, rather than the only choice of ellipse manifold in our example. However, we need to keep in mind that the free energy value, F∞​, is not dependent on the latent variable at all.;Pour résumer, nous ne discutons ici que d’un seul exemple d’énergie libre. Dans des circonstances réelles, nous aurons un choix beaucoup plus large de variables latentes z~, plutôt que le seul choix de multiples ellipses dans notre exemple. Cependant, nous devons garder à l’esprit que la valeur de l’énergie libre, F∞​, ne dépend pas du tout de la variable latente. Answers to students' questions;Réponses aux questions des étudiants Question 1: Why is the energy surface scalar-valued?;Question 1 : Pourquoi la surface énergétique est-elle évaluée de manière scalaire ? Energy surface, which takes the value of free energy, F∞​, is exactly the minimum value of our energy function E(y,z) across all possible latent variables, z~. Therefore, F∞​ is not dependent on z~, but only on y~, which outputs a scalar value for each choice of y~. Considering the mesh grid example above, the mesh grid has 17×25=425 points, so we will have 425 free energy values, and each value is the quadratic Euclidean distance from each point to the manifold.;La surface énergétique, qui prend la valeur de l’énergie libre F∞​, est exactement la valeur minimale de notre fonction d’énergie E(y,z) parmi toutes les variables latentes z possibles. Par conséquent, F∞​ ne dépend pas de z~, mais seulement de y~, qui produit une valeur scalaire pour chaque choix de y~. En considérant l’exemple de maillage ci-dessus, celui-ci a 17×25=425 points. Nous avons donc 425 valeurs d’énergie libre et chaque valeur est la distance euclidienne quadratique de chaque point de la variété. Question 2: How do you choose the function to represent the data manifold?;Question 2 : Comment choisir la fonction pour représenter la variété ? There are numerous researches about choices of the latent variable, and we may have a few layers of Neural Networks to represent the choices of latent variables. One typical example is language translation. We can translate a sentence in different ways, and we may not use a softmax function for our model training as there will be infinitely many possible resulted sentences after translation. Therefore, we can use EBM here, and the energy function will tell how compatible is between our original sentence and translated sentence.;Il existe de nombreuses recherches sur les choix de la variable latente et nous pouvons avoir quelques couches de réseaux de neurones pour représenter les choix des variables latentes. Un exemple typique est celui de la traduction linguistique. Nous pouvons traduire une phrase de différentes manières et nous ne pouvons pas utiliser une fonction softmax pour l’entraînement de notre modèle car il y aura une infinité de phrases possibles après la traduction. Par conséquent, nous pouvons utiliser ici l’EBM et la fonction d’énergie nous dit dans quelle mesure la phrase originale et la phrase traduite sont compatibles. Question 3: Does minimizing energy regarding the trained manifold basically mean denoising?;Question 3 : Est-ce que la minimisation de l’énergie par rapport à la variété entraînée signifie-t-elle débruitage ? If the model has learnt from the real manifold, then you can find the denoised version of your input by minimizing energy.;Si le modèle a tiré des leçons de la variété réelle, vous pouvez trouver la version débruitée de votre entrée en minimisant l’énergie. Training latent variable Energy-Based Models (EBMs);Entraîner des modèles à base d’énergie à variable latente Free energy;Énergie libre Here, F∞​ is the zero temperature limit free energy, y is a 2D vector. This free energy is the quadratic euclidean distance from the model manifold, and all points that are within the model manifold have zero energy. As you move away, it’s going to increase up quadratically.;Ici, F∞​ est la limite vers zéro de la température de l’énergie libre et y est un vecteur 2D. Cette énergie libre est la distance euclidienne quadratique par rapport à la variété du modèle. Tous les points qui se trouvent dans la variété du modèle ont une énergie nulle. En s’éloignant, elle augmente de façon quadratique. Cold: F∞​=0, warm: F∞​=0.5, hot: F∞​≥1;Froid : F∞​=0, tiède : F∞​=0,5, chaud : F∞​≥1 All the regions around the ellipse that is with the manifold ellipse is going to have zero energy but at the centre, there is an infinite zero temperature limit free energy. In order to avoid this, we need to relax the free energy to one without local minima so that it becomes more smooth.;Toutes les régions autour de l’ellipse qui se trouve avec la variété en ellipse ont une énergie nulle. Au centre, il y a une limite vers zéro de la température de l’énergie libre qui est infinie. Pour éviter cela, nous devons détendre l’énergie libre à une énergie sans minima locaux afin qu’elle devienne plus lisse. Let’s take a closer look at y1​=0, with the following cold-warm map:;Regardons de plus près y1​=0, avec la carte thermique suivante : If we take y2​=0.4, then Fβ​(y)=0 and as we move linearly away from the point towards the right-hand side, the free energy increases quadratically. Similarly, if we move towards 0, you will end up climbing towards the parabola, creating a peak in the centre.;Si nous prenons y2​=0,4, Fβ​(y)=0 et lorsque nous nous éloignons linéairement du point vers la droite, l’énergie libre augmente de façon quadratique. De même, si nous nous déplaçons vers 0, nous finissons par monter vers la parabole, créant un pic au centre. Relaxed version of free energy;Version détendue de l’énergie libre In order to smooth the peak that we previously observed, we need to relax the free energy function such that:;Afin de lisser le pic que nous avons précédemment observé, nous devons détendre la fonction d’énergie libre de telle sorte que : where β=(kBT)−1 is the inverse temperature, consisting of the Boltzmann constant multiplied by the temperature. If the temperature is very high, β is going to be extremely small and if the temperature is cold, then β→∞.;où β=(kB​T)−1 est la température inverse, constituée de la constante de Boltzmann multipliée par la température. Si la température est très élevée, β sera extrêmement faible et si la température est froide, alors β→∞. Simple discrete approximation:;Approximation discrète simple : Here, we define −β1​log∣Z∣1​z∈Z∑​exp[−βE(y,z)] to be the softminzβ[E(y,z)], such that the relaxation of the zero temperature limit free energy becomes the actual-softmin.;Ici, nous définissons −β1​log∣Z∣1​z∈Z∑​exp[−βE(y,z)] pour être le softminzβ[E(y,z)], de sorte que la relaxation de la limite vers zéro de la température de l’énergie libre devient le softmin réel. Examples:;Exemples : We will now revisit examples from the previous practicum and see the effects from applying the relaxed version.;Nous revenons sur les exemples de la partie précédente et regardons les effets de l’application de la version détendue. Case 1: y’=Y[23];Cas 1 : y’=Y[23] Points that are closer to the point y’ will have smaller energy, and therefore the exponential will be larger, but for those that are further away the exponential will be zero.;Les points qui sont plus proches du point y’ ont une énergie plus faible et donc l’exponentielle est plus grande. Pour ceux qui sont plus éloignés l’exponentielle est nulle. Case 2: y’=Y[10];Cas 2 : y’=Y[10] Notice how the colour-bar range changed from the previous example. The upper value here is derived from exp[−βE(y,z)].;Nous remarquons que la gamme des barres de couleur a changé par rapport à l’exemple précédent. La valeur supérieure ici est dérivée de exp[−βE(y,z)]. Case 3: y’=(0,0);Cas 3: y’=(0,0) If we choose y’ to be the origin, then all the points will contribute and the free energy will change symmetrically.;Si nous choisissons y’ comme origine, alors tous les points contribuent et l’énergie libre change de façon symétrique. Now, let’s go back to how we can smooth the peak that formed due to the cold energy. If we choose the warmer free energy, we will get the following depiction:;Maintenant, revenons à la façon dont nous pouvons lisser le pic qui s’est formé en raison de l’énergie froide. Si nous choisissons l’énergie libre plus chaude, nous obtenons la représentation suivante : As we increase the temperature by reducing β, the result is a parabola with a single global minima. As β approaches 0, you will end up with the average and recover the MSE.;Lorsque nous augmentons la température en réduisant les β, le résultat est une parabole avec un seul minimum global. Lorsque β s’approche de 0, on se retrouve avec la moyenne et on récupère la MSE. Nomenclature and PyTorch;Nomenclature et PyTorch In technical terms, if free energy is;En termes techniques, si l’énergie libre est : hot, it refers to the average.;brûlante, cela fait référence à la moyenne. warm, it refers to the marginalization of the latent.;chaude, cela se réfère à la marginalisation de la latente. cold, it refers to the minimum value.;froide, cela se réfère à la valeur minimale. Training EBMs;Entraînement des EBMs Objective - Finding a well behaved energy function;Objectif : trouver une fonction d’énergie avec un bon comportement. A loss functional, minimized during learning, is used to measure the quality of the available energy functions. In simple terms, loss functional is a scalar function that tells us how good our energy function is. A distinction should be made between the energy function, which is minimized by the inference process, and the loss functional, which is minimized by the learning process.;Une perte fonctionnelle, minimisée lors de l’apprentissage, est utilisée pour mesurer la qualité des fonctions d’énergie disponibles. En termes simples, la perte fonctionnelle est une fonction scalaire qui nous indique la qualité de notre fonction d’énergie. Il convient de faire la distinction entre la fonction d’énergie, qui est minimisée par le processus d’inférence et la perte fonctionnelle qui est minimisée par le processus d’apprentissage. L is the loss function of the whole dataset that can be expressed as the average of these per sample loss function functionals.;L est la fonction de perte de l’ensemble des données qui peut être exprimée comme la moyenne de ces fonctions de perte par échantillon. where lenergy​ is the energy loss functional evaluated in y and y is the data point on the dataset. yˇ​ indicates the data points that are to be pushed down. This means the loss functionals should be minimized while training.;où lenergy​ est la fonction de perte d’énergie évaluée en y et y est le point de données sur l’ensemble de données. yˇ​ indique les points de données qui doivent être poussés vers le bas. Cela signifie que les pertes de fonctions doivent être réduites au minimum pendant l’entraînement. The Energy function should be small for data that comes from training distribution but large elsewhere.;La fonction d’énergie doit être petite pour les données qui proviennent de la distribution d’entraînement mais grande ailleurs. where m is the margin and F(yˇ​) and F(y^​) are the free energies for “cold” (for correct labels) and “hot” energies (for incorrect labels) respectively.;où m est la marge et F(yˇ) et F(y^​) sont les énergies libres pour les énergies froides (pour les étiquettes correctes) et chaudes (pour les étiquettes incorrectes) respectivement. The model tries to make the difference between two energies to be larger than the margin m.;Le modèle essaie de faire en sorte que la différence entre deux énergies soit supérieure à la marge m. Understand that there is a ReLU function [⋅]+ used on the output of m−[F(y^​)−F(yˇ​)], which means the value of this hinge loss function will always be non-negative. This implies if there are any negative values, they would become 0 due to this function.;Il existe une fonction ReLU [⋅]+ utilisée sur la sortie de m−[F(y^​)−F(yˇ​)], ce qui signifie que la valeur de cette fonction de perte hinge sera toujours non négative. Cela implique que s’il y a des valeurs négatives, elles deviendront nulles en raison de cette fonction. Training will make F(y^​)−F(yˇ​) equal or grater than mm. If the difference becomes greater than mm, the overall value of [m−[F(y^​)−F(yˇ​)]] becomes negative, the hinge loss becomes 0. We can also say that we push the energies as long as the difference is less than m. However, if the difference becomes greater than the margin mm, we stop pushing. Hinge Loss Function does not have a smooth margin.;L’entraînement rend le terme F(y^)−F(yˇ) égal ou supérieur à mm. Si la différence devient supérieure à mm, la valeur globale de [m−[F(y^​)−F(yˇ​)]] devient négative, la perte hinge devient nulle. On peut aussi dire que nous poussons les énergies tant que la différence est inférieure à m. Cependant, si la différence devient supérieure à la marge mm, nous cessons de pousser. La fonction de perte hinge n’a pas une marge lisse. Log loss functional has smooth margin as shown below:;La fonction de perte logarithme a une marge lisse, comme indiqué ci-dessous : Since, we have an exponential function, this loss has a smoother margin. In other words, it seems like a “soft” version of the hinge loss with an infinite margin.;Comme nous avons une fonction exponentielle, cette perte a une marge plus lisse. En d’autres termes, elle semble être une version « douce » de la perte hinge avec une marge infinie. The left hand side is the untrained version where for every training point, there is a corresponding x which is the location on the model manifold closest to the training point as seen in the picture. During training at ZTL (Zero Temperature Limit), the gradient makes the data point on the manifold that is closest to the training point be pushed towards the training point. We can see that after one epoch on the right hand side image, the trained version of the model shows the x points to arrive at the desired location and the energy goes to zero corresponding to the training points (blue points in the figure).;Le côté gauche est la version non entraînée où, pour chaque point d’entraînement, il y a un x correspondant qui est, sur la surface du modèle, l’emplacement le plus proche du point d’entraînement. Pendant l’entraînement à la ZTL (Zero Temperature Limit), le gradient fait que le point de données sur la variété qui est le plus proche du point d’entraînement est poussé vers ce dernier. On peut voir qu’après une époque, la version entraînée du modèle montre les points x arriver à l’endroit désiré. L’énergie passe à zéro correspondant ainsi aux points d’entraînement (points bleus dans la figure). Let’s talk about marginalization now. When the model is trained at ZTL and the temperature is increased, the points were picked individually to be pushed towards the training point. However, in case of marginalization, if we pick one point y (the green cross point on the left bottom image), the gradient is just the average of all the arrows pointing towards this particular point y~). This makes all the points that get pulled towards y~, making sure that it does not overfit the training data. Notice how the trained version does not fit over all of the training points.;Lorsque le modèle est entraîné à la ZTL et que la température est augmentée, les points sont choisis individuellement pour être poussés vers le point d’entraînement. Cependant, en cas de marginalisation, si nous choisissons un point y (le point vert en croix sur l’image en bas à gauche), le gradient est juste la moyenne de toutes les flèches pointant vers ce point particulier y~). Tous les points sont tirés vers y~, en s’assurant que cela ne surcharge pas les données d’entraînement. La version entraînée ne s’adapte pas à tous les points d’entraînement. For the ZTL (β=∞), we can see that the free energy has a high peak. As we decrease β, the spike keeps on reducing and we reduce it till we get this smooth parabolic plot in blue, which is the plot in case of marginalization.;Pour la ZTL (β=∞), nous pouvons voir que l’énergie libre a un pic élevé. Au fur et à mesure que nous diminuons β, le pic continue à diminuer et nous le réduisons jusqu’à obtenir ce graphique parabolique lisse en bleu, qui est le graphique en cas de marginalisation. Self-supervised learning;Apprentissage autosupervisé A revisit of the training data:;Une révision des données d’entraînement : During training, we are trying to learn the shape of the “horn”.;Pendant l’entraînement, nous essayons d’apprendre la forme de la « corne ». z takes values linearly, and is fed into the decoder to obtain y~​, which will go around the ellipse.;z prend des valeurs de façon linéaire et est introduit dans le décodeur pour obtenir y~, qui va faire le tour de l’ellipse. The predictor takes the observed x, and feeds the result into the decoder. We perform zero temperature free energy training, which gives a result:;Le prédicteur prend le x observé et donne le résultat au décodeur. Nous effectuons un entraînement de l’énergie sans température zéro, ce qui donne un résultat : Given the “horn”, we take one point y~, find the closest point on the manifold and pull it towards y~.;Compte tenu de la « corne », nous prenons un point y~, trouvons le point le plus proche sur la surface et le tirons vers y~. The component of g will be scaled by output of f.;La composante de g sera mise à l’échelle par la sortie de f. The example data takes no time to train, but how do we move forward to generalize it?;L’entraînement des données de l’exemple ne prend pas de temps, mais comment généraliser ? In this case the g function takes f and z~, and g can be a neural net. This time, the model has to learn that y moves around in circle, which is the sin and cos part we take for granted before.;Dans ce cas, la fonction g prend f et z~. g peut être un réseau neuronal. Cette fois, le modèle doit apprendre que y se déplace en cercle, ce qui est la partie sin et cos que nous considérons comme allant de soi auparavant. Another issue is to determine the dimension of latent variable z~.;Un autre problème consiste à déterminer la dimension de la variable latente z~. Since a high dimension latent will lead to overfitting. We need to regularize z~. Otherwise, the model will memorize all the points, causing the energy to be zero across the space.;Puisqu’une haute dimension latente entraîne un surentraînement, nous devons régulariser z~. Sinon, le modèle mémorisera tous les points, ce qui fera que l’énergie sera nulle dans tout l’espace. Problem Motivation, Linear Algebra, and Visualization;Problem Motivation, Linear Algebra, and Visualization Resources;Resources Please follow Alfredo Canziani on Twitter @alfcnz. Videos and textbooks with relevant details on linear algebra and singular value decomposition (SVD) can be found by searching Alfredo’s Twitter, for example type linear algebra (from:alfcnz) in the search box.;Nous vous invitons à suivre Alfredo Canziani sur Twitter @alfcnz. Vous trouverez sur son compte des vidéos et des manuels contenant des détails pertinents sur l’algèbre linéaire et la décomposition en valeurs singulières (SVD). Ce contenu est trouvable en effectuant une recherche (en anglais) sur le Twitter d’Alfredo, en tapant par exemple linear algebra (from:alfcnz) dans la barre de recherche. Neural Nets: Rotation and Squashing;Réseaux neuronaux : rotation et écrasement A traditional neural network is an alternating collection of two blocks - the linear blocks and the non-linear blocks. Given below is a block diagram of a traditional neural network.;Un réseau de neurones traditionnel est une collection alternée de deux blocs : les blocs linéaires et les blocs non linéaires. Voici le schéma fonctionnel d’un réseau de neurones traditionnel. The linear blocks (Rotations, for simplicity) are given by:;Les blocs linéaires (rotations pour simplifier) sont donnés par : And the non-linear blocks (Squashing functions for intuitive understanding) are given by:;Et les blocs non linéaires (fonctions d’écrasement pour une compréhension intuitive) sont donnés par : In the above diagram and equations, x∈Rn represents the input vector. Wk∈Rnk×nk−1​ represents the matrix of an affine transformation corresponding to the kth block and is described below in further detail. The function h is called the activation function and this function forms the non-linear block of the neural network. Sigmoid, ReLu and tanh are some of the common activation functions and we will look at them in the later parts of this section. After alternate applications of linear and non-linear blocks, the above network produces an output vector sk∈Rnk−1​.;Dans le schéma et les équations ci-dessus, x∈Rn représente le vecteur d’entrée. Wk​∈Rnk​×nk−1​ représente la matrice d’une transformation affine correspondant au keˋmekeˋme bloc et est décrite plus en détail ci-dessous. La fonction h est appelée fonction d’activation et cette fonction forme le bloc non linéaire du réseau neuronal. Sigmoïde, ReLU et tanh sont quelques-unes des fonctions d’activation les plus courantes et nous les examinerons dans les parties suivantes de cette section. Après des applications alternées des blocs linéaire et non linéaire, le réseau ci-dessus produit un vecteur de sortie sk​∈Rnk−1​. Let us first have a look at the linear block to gain some intuition on affine transformations. As a motivating example, let us consider image classification. Suppose we take a picture with a 1 megapixel camera. This image will have about 1,000 pixels vertically and 1,000 pixels horizontally, and each pixel will have three colour dimensions for red, green, and blue (RGB). Each particular image can then be considered as one point in a 3 million-dimensional space. With such massive dimensionality, many interesting images we might want to classify – such as a dog vs. a cat – will essentially be in the same region of the space.;Examinons d’abord le bloc linéaire pour comprendre les transformations affines. Comme exemple considérons la classification d’images. Supposons que nous prenions une photo avec un appareil photo de 1 mégapixel. Cette image aura environ 1000 pixels verticalement et 1000 pixels horizontalement, et chaque pixel aura trois dimensions de couleur pour le rouge, le vert et le bleu (RVB). Chaque image peut donc être considérée comme un point dans un espace à 3 millions de dimensions. Avec une telle dimensionnalité, de nombreuses images intéressantes que nous pourrions vouloir classer, comme un chien vs un chat, se trouveront essentiellement dans la même région de l’espace. In order to effectively separate these images, we consider ways of transforming the data in order to move the points. Recall that in 2-D space, a linear transformation is the same as matrix multiplication. For example, the following are transformations, which can be obtained by changing matrix characteristics:;Afin de séparer efficacement ces images, nous envisageons des moyens de transformer les données afin de déplacer les points. Rappelons que dans l’espace bidimensionnel, une transformation linéaire équivaut à une multiplication de matrice. Par exemple, les transformations suivantes peuvent être obtenues en changeant les caractéristiques de la matrice : Rotation (when the matrix is orthonormal).;Rotation : lorsque la matrice est orthonormée. Scaling (when the matrix is diagonal).;Mise à l’échelle (« scalabilité ») : lorsque la matrice est diagonale. Reflection (when the determinant is negative).;Réflexion : lorsque le déterminant est négatif. Shearing.;Shearing. Translation.;Translation. Note that translation alone is not linear since 0 will not always be mapped to 0, but it is an affine transformation. Returning to our image example, we can transform the data points by translating such that the points are clustered around 0 and scaling with a diagonal matrix such that we “zoom in” to that region. Finally, we can do classification by finding lines across the space which separate the different points into their respective classes. In other words, the idea is to use linear and nonlinear transformations to map the points into a space such that they are linearly separable. This idea will be made more concrete in the following sections.;A noter que la translation seule n’est pas linéaire puisque 0 ne sera pas toujours mis en correspondance avec 0, mais c’est une transformation affine. Pour revenir à notre exemple d’image, nous pouvons transformer les points de données en les translatant de manière à ce qu’ils soient regroupés autour de 0 et en les mettant à l’échelle à l’aide d’une matrice diagonale de manière à effectuer un « zoom avant » sur cette région. Enfin, nous pouvons effectuer une classification en trouvant des lignes dans l’espace qui séparent les différents points dans leurs classes respectives. En d’autres termes, l’idée est d’utiliser des transformations linéaires et non linéaires pour représenter les points dans un espace tel qu’ils soient linéairement séparables. Cette idée sera rendue plus concrète dans les sections suivantes. In the next part, we visualize how a neural network separates points and a few linear and non-linear transformations. This can be accessed here.;Dans la suite, nous visualisons comment un réseau neuronal sépare des points et quelques transformations linéaires et non linéaires. Ce contenu est essentiellement le même que celui de l’année dernière, ainsi nous vous invitons à vous rendre ici pour le consulter. We introduced how to draw deep network schematics conveniently using diagrams.net. Then we showed the different effect of using only linear transformation, and the effect of combining linear and non-linear transformation together on spiral classification. Finally, we showed the mathematical principles underlying neural networks, including chain rule derivation, back propagation, and gradient descent.;Nous présentons comment dessiner des schémas de réseaux profonds de manière pratique en utilisant diagrams.net. Nous montrons ensuite les différents effets de l’utilisation de la seule transformation linéaire, et l’effet de la combinaison de la transformation linéaire et non linéaire sur la classification en spirale. Enfin nous voyons les principes mathématiques qui sous-tendent les réseaux neuronaux, notamment le théorème de dérivation des fonctions composées, la rétropropagation et la descente de gradient. Spiral classification;Classification d'une spirale Typora is a useful tool to write markdown with the addition of formulae in LaTeX. It is convenient to write paper and homework, and generating pdf file with Typora.;Typora est un outil utile pour écrire en markdown et ajouter des formules en LaTeX. Il est pratique pour rédiger des articles, des devoirs et générer des fichiers pdf. Here you can place all your favorite stuff. This includes but is not limited to recipes, music, books, notes. Everything in one place, simple and powerful.;Avec Notion vous pouvez placer en un endroit toutes vos affaires préférées. Cela inclut, sans s’y limiter, les recettes, la musique, les livres, les notes. Tout en un seul endroit, simple et puissant. When you find some useful article regarding Deep Learning, you may want to collect it for future review. The database is just all you need. You can find more information about how to use the database.;Lorsque vous trouvez un article utile sur l’apprentissage profond, vous pouvez l’y stocker pour le consulter ultérieurement. Vous pouvez trouver plus d’informations sur la façon d’utiliser la base de données. First you need to create a database by “Workspace” -> “Add a new page”. Inside this page, choose “/table” -> “Table - Full Page”. In addition to filling out the information related to the paper, we usually want to cover “The Golden Circle” aka “What? Why? How?” in our summary.;Vous devez d’abord créer une base de données via Workspace => Add a new page. Dans cette page, choisissez /table => Table - Full Page. En plus de remplir les informations relatives au document, nous voulons généralement couvrir le traditionnel « Qui ? Quoi ? Où ? Pourquoi ? Comment ? Quand ? » dans le résumé. This is an example of how to organize your summary.;Voici un exemple (en anglais) de la façon d’organiser votre résumé. Diagrams.net is a great tool to draw neural network diagrams. Next we will introduce a few rules to make our diagrams more consistent with the ones in lecture.;Diagrams.net est un excellent outil pour dessiner des diagrammes de réseaux neuronaux. Nous allons introduire quelques règles pour rendre nos diagrammes plus cohérents avec ceux du cours. The grayscale background means this is an observation, which means they are data points from a given dataset. You can check the input and labels by going to the directory of the dataset if you want.;Le fond en niveaux de gris signifie qu’il s’agit d’une observation donc qu’il s’agit de points de données d’un jeu de données fourni. Vous pouvez vérifier l’entrée et les étiquettes en allant dans le répertoire du jeu de données si vous le souhaitez. We use “Delay” to denote the encoder(e.g., neural network).;Nous utilisons Delay pour désigner l’encodeur (par exemple, un réseau neuronal). In this example, x and y are observations.;Dans cet exemple, x et y sont des observations. In the half above, we feed the x to a given encoder to get a prediction yˉ​. This is called forward propagation.;Dans la moitié ci-dessus, nous donnons les x à un encodeur pour obtenir une prédiction yˉ​. C’est ce qu’on appelle la propagation vers l’avant. In the half below, we want to get the prediction xˉ given observation y~. We keep doing gradient descent to make the network output as close as to y~. This is called amortizing inference.;Dans la moitié inférieure, nous voulons obtenir la prédiction xˉ étant donné l’observation y~. Nous continuons à faire une descente de gradient pour que la sortie du réseau soit aussi proche que possible de y~. C’est ce qu’on appelle « l’inférence amortissante ». Usually, we use backpropagation to compute the gradient, then we apply gradient descent with those computed values to train the model. This example shows that backpropagation is NOT only used during training. Backpropagation can also be used for inference.;Habituellement, nous utilisons la rétropropagation pour calculer le gradient, puis nous appliquons la descente de gradient avec ces valeurs calculées pour entraîner le modèle. Cet exemple montre que la rétropropagation n’est PAS uniquement utilisée pendant l’entraînement. La rétropropagation peut également être utilisée pour l’inférence. Spiral Classification;Classification d’une spirale The following content is mostly the same, so here you can find what you need.;Le contenu suivant est essentiellement le même que celui de l’année dernière, rendez-vous donc ici pour le consulter. We started with an application of autoencoders: DALL-E. We discussed Autoencoders (in terms of Energy-Based Models) and their use cases. Next, we discussed the reconstruction costs and the loss functions we should use. Finally, we discussed a particular type of autoencoder, i.e., denoising autoencoder.;Nous commençons par une application des auto-encodeurs : DALL-E. Nous discutons ensuite des auto-encodeurs (en termes de modèles à base d’énergie) et de leurs cas d’utilisation. Puis nous discutons des coûts de reconstruction et des fonctions de perte à utiliser. Enfin, nous abordons un type particulier d’auto-encodeur à savoir l’auto-encodeur débruiteur. Introduction to Autoencoders;ntroduction aux auto-encodeurs Applications of Autoencoder;Applications de l’auto-encodeur DALL-E: Creating Images from Text;DALL-E : Création d’images à partir de texte DALL-E (released by OpenAI) is a neural network based on the Transformers architecture, that creates images from text captions. It is a 12-billion parameter version of GPT-3, trained on a dataset of text-image pairs.;DALL-E (publié par OpenAI) est un réseau neuronal basé sur l’architecture Transformer créant des images à partir de légendes de texte. Il s’agit d’une version à 12 milliards de paramètres de GPT-3 entraînée sur un jeu de données de paires texte-image. Go to the website and play with the captions!;Rendez-vous sur le site pour jouer avec les légendes ! Autoencoder;Auto-encodeur Definitions;Définitions Input;Entrée xx: is observed during both training and testing;x : est observé à la fois pendant l’apprentissage et le test y~: is observed during training but not testing;y~ : est observé pendant l’apprentissage mais pas pendant le test z~: is not observed (neither during training nor during testing).;z~ : n’est pas observé (ni pendant l’apprentissage ni pendant le test) Output;Sortie hh: is computed from the input (hidden/internal);h : est calculé à partir de l’entrée (cachée/interne) y~: is computed from the hidden (predicted y~, ~ means circa);y~​ : est calculé à partir de la cachée (prédit y~, ~ signifie circa) Confused? Refer to the below figure to understand the use of different variables in different machine learning techniques.;Vous êtes confus ? Reportez-vous à la figure ci-dessous pour comprendre l’utilisation des différentes variables dans différentes techniques d’apprentissage automatique. Introduction;Introduction These kinds of networks are used to learn the internal structure of some input and encode it in a hidden internal representation h, which expresses the input.;Ces types de réseaux sont utilisés pour apprendre la structure interne d’une entrée et l’encodeur dans une représentation interne cachée h. We already learned how to train energy-based models, let’s look at the below network:;Nous avons déjà appris à entraîner des modèles à base d’énergie, regardons le réseau ci-dessous : Here instead of computing the minimization of the energy E for z~, we use an encoder that approximates the minimization and provides a hidden representation h for a given y~.;Ici, au lieu de calculer la minimisation de l’énergie E pour z~, on utilise un encodeur qui approxime la minimisation et fournit une représentation cachée h pour une y donnée. Then the hidden representation is convected into y~ (Here we don’t have a predictor, we have an encoder).;Ensuite, la représentation cachée est convertie en y~​ (ici nous n’avons pas de prédicteur, nous avons un encodeur). Basically, h is the output of a squashing function f of the rotation of our input/observation y~. y~​ is the output of squashing function g of the rotation of our hidden representation h.;En gros, h est la sortie d’une fonction d’écrasement f de la rotation de notre entrée/observation y~. y~​ est la sortie de la fonction d’écrasement g de la rotation de notre représentation cachée h. Note that, here y and y~​ both belong to the same input space, and h belong to Rd which is the internal representation. Wh​ and Wy​ are matrices for rotation.;Notez qu’ici, y et y~​ appartiennent tous deux au même espace d’entrée et h appartiennent à Rd qui est la représentation interne. Wh​ et Wy​ sont des matrices de rotation. This is called Autoencoder. The encoder is performing amortizing and we don’t have to minimize the energy E but F:;C’est ce qu’on appelle un auto-encodeur. L’encodeur effectue un amortissement et nous n’avons pas à minimiser l’énergie E mais F : Reconstruction Costs;Coûts de reconstruction Below are the two examples of reconstruction energies:;Vous trouverez ci-dessous deux exemples d’énergies de reconstruction : Real-Valued Input:;Entrée à valeur réelle : This is the square euclidean distance between y and y~​.;C’est la distance euclidienne carrée entre y et y~​. Binary input;Entrée binaire In the case of binary input, we can simply use binary cross-entropy;Dans le cas d’une entrée binaire, nous pouvons simplement utiliser l’entropie croisée binaire : Loss Functionals;Fonctions de perte Average across all training samples of per sample loss function;Moyenne sur tous les échantillons d’entraînement de la fonction de perte par échantillon : We take the energy loss and try to push the energy down on y~;Nous prenons la perte d’énergie et essayons de pousser l’énergie vers le bas sur y~​ Use-cases;Cas d’utilisation The size of the hidden representation h obtained using these networks can be both smaller and larger than the input size.;La taille de la représentation cachée h obtenue à l’aide de ces réseaux peut être aussi bien plus petite que plus grande que la taille de l’entrée. If we choose a smaller hh, the network can be used for non-linear dimensionality reduction.;Si nous choisissons une h plus petite, le réseau peut être utilisé pour la réduction non linéaire de la dimensionnalité. In some situations it can be useful to have a larger than input hh, however, in this scenario, a plain autoencoder would collapse. In other words, since we are trying to reconstruct the input, the model is prone to copying all the input features into the hidden layer and passing it as the output thus essentially behaving as an identity function. This needs to be avoided as this would imply that our model fails to learn anything.;Dans certaines situations, il peut être utile d’avoir un h plus grand que l’entrée, cependant, dans ce scénario, un auto-encodeur simple s’effondrerait. En d’autres termes, puisque nous essayons de reconstruire l’entrée, le modèle est enclin à copier toutes les caractéristiques d’entrée dans la couche cachée et à les transmettre comme sortie. Il se comporte ainsi essentiellement comme une fonction d’identité. Il faut éviter ça car cela signifierait que notre modèle n’apprend rien. To prevent the model from collapsing, we have to employ techniques that constrain the amount of region which can take zero or low energy values. These techniques can be some sort of regularization such as sparsity constraints, adding additional noise, or sampling.;Pour éviter que le modèle ne s’effondre, nous devons utiliser des techniques qui limitent la quantité de régions pouvant prendre des valeurs d’énergie nulles ou faibles. Ces techniques peuvent être une sorte de régularisation telle que des contraintes d’éparsité, l’ajout de bruit supplémentaire ou l’échantillonnage. Denoising autoencoder;Auto-encodeur débruiteur We add some augmentation/corruption like Gaussian noise to an input sampled from the training manifold y^​ before feeding it into the model and expect the reconstructed input y~​ to be similar to the original input y~.;Nous ajoutons une augmentation/corruption comme un bruit gaussien à une entrée échantillonnée à partir de la variété d’apprentissage y^​ avant de la donner au modèle. Nous nous attendons à ce que l’entrée reconstruite y~​ soit similaire à l’entrée originale y~. An important note: The noise added to the original input should be similar to what we expect in reality, so the model can easily recover from it.;Une note importante : le bruit ajouté à l’entrée originale doit être similaire à ce que nous attendons dans la réalité afin que le modèle puisse facilement s’en remettre. "In the image above, the light colour points on the spiral represent the original data manifold. As we add noise, we go farther from the original points. These noise-added points are fed into the auto-encoder to generate this graph. The direction of each arrow points to the original datapoint the model pushes the noise-added point towards; whereas the size of the arrow shows by how much. We also see a dark purple spiral region which exists because the points in this region are equidistant from two points on the data manifold.";Dans l’image ci-dessus, les points de couleur claire sur la spirale représentent la variété de données originale. En ajoutant du bruit, on s’éloigne des points originaux. Ces points avec bruit sont introduits dans l’auto-encodeur pour générer ce graphique. La direction de chaque flèche pointe vers le point de données original vers lequel le modèle pousse le point avec bruit, tandis que la taille de la flèche indique de combien. Nous voyons également une région en violet foncé en forme de spirale car les points de cette région sont équidistants de deux points sur la variété de données. In this section, we introduced some Generative Models including Denoising AE, Contractive AE and Variational AE. We compared the functionalities and advantages of Variational AEs over Basic Autoencoders. We explored the objective function of VAE in detail, understanding how it enforced some structure in the latent space.;Dans cette section, nous présentons quelques modèles génératifs, dont l’auto-encodeur débruiteur, l’auto-encodeur contractif et l’auto-encodeur variationnel. Nous avons comparé les fonctionnalités et les avantages des auto-encodeurs variationnels par rapport aux auto-encodeurs de base. Nous avons exploré en détail la fonction objective de l’auto-encodeur variationnel en comprenant comment il impose une certaine structure dans l’espace latent. Generative Models - Autoencoders;Modèles génératifs / Auto-encodeurs Recap: Predictive Latent Variable Model;Récapitulation : Modèle prédictif à variables latentes As we know latent variables are useful in providing additional information that help in predicting multiple values of the target y~, associated with the input x. We have seen earlier, in order to predict the target variable y from latent variable z~, the energy function is given as,;Les variables latentes sont utiles pour fournir des informations supplémentaires qui aident à prédire plusieurs valeurs de la cible y~, associées à l’entrée x. Nous avons vu précédemment que pour prédire la variable cible y à partir de la variable latente z~, la fonction d’énergie est donnée comme suit : To be clear, we show the unit of g:;Pour être clair, nous montrons l’unité de g : In this case, the latent variable z is one dimensional. However, if the z has a higher dimension, this could lead to an energy function of 0 everywhere. Hence, in order to ensure lower energy values for more compatible predictions we introduce a regularized factor.;Dans ce cas la variable latente z est unidimensionnelle. Cependant, si la z a une dimension plus élevée, cela pourrait conduire à une fonction d’énergie de 0 partout. Par conséquent, afin de garantir des valeurs d’énergie plus faibles pour des prédictions plus compatibles, nous introduisons un facteur régularisé. Training recap;Récapitulatif de l’entraînement Given an observation y~, training the regularised latent variable model;Étant donné une observation y~, l’entraînement du modèle à variable latente régularisée, Target propagation;Propagation de la cible Fig. 1 shows the architecture of target propagation. Given an observation y~, we first compute z~ which is the initial guess of the latent variable z~;La figure 1 montre l’architecture de la propagation de la cible. Étant donné une observation y~, nous calculons d’abord z~ qui est la supposition initiale de la variable latente z~. We then initialize z to z~, here we must ensure that these values are not too far apart from each other.;Nous initialisons ensuite z à z~, ici nous devons nous assurer que ces valeurs ne sont pas trop éloignées les unes des autres. We now minimise the loss functional in two steps, minimise L(F∞​(⋅),Y):;Nous minimisons maintenant la fonctionnelle de perte en deux étapes, en minimisant L(F∞​(⋅),Y) : In this way z is constrained in taking only a set of values.;De cette façon, z est contraint de ne prendre qu’un ensemble de valeurs. Autoencoder (AE);Auto-encodeur (AE) An autoencoder is a type of artificial neural network used to learn efficient data encodings in an unsupervised manner. The aim is to first learn encoded representations of our data and then generate the input data (as closely as possible) from the learned encoded representations. Thus, the output of an autoencoder is its prediction for the input.;Un auto-encodeur est un type de réseau neuronal artificiel utilisé pour apprendre des codages de données efficaces de manière non supervisée. L’objectif est d’abord d’apprendre des représentations codées de nos données, puis de générer les données d’entrée (aussi étroitement que possible) à partir des représentations codées apprises. Ainsi, la sortie d’un auto-encodeur est sa prédiction pour l’entrée. Fig. 2 shows the architecture of a basic unconditional autoencoder. To summarize at a high level, a very simple form of AE is as follows:;La figure 2 montre l’architecture d’un auto-encodeur de base. Pour résumer à un haut niveau, une forme très simple d’AE est la suivante : First, the autoencoder takes in an input and maps it to a hidden state through an affine transformation h=f(Why+bh), where f is an (element-wise) activation function. This is the encoder stage. Note that h is also called the code.;Tout d’abord, l’auto-encodeur reçoit une entrée et l’applique à un état caché par le biais d’une transformation affine h=f(Wh​y+bh​), où f est une fonction d’activation (par éléments). Il s’agit de l’étape encodeur. A noter que h est également appelé le code. Next, y~​=g(Wy​y+by​), where g is an activation function. This is the decoder stage.;Ensuite, y~​=g(Wy​y+by​), où g est une fonction d’activation. C’est l’étape du décodeur. Finally, the energy is the sum of the reconstruction and the regularization, F(y)=C(y,y~​)+R(h).;Enfin, l’énergie est la somme de la reconstruction et de la régularisation : F(y)=C(y,y~​)+R(h). Reconstruction costs;Coûts de reconstruction When the input is real-valued we use mean squared error loss,;Lorsque l’entrée est à valeur réelle, nous utilisons la perte d’erreur quadratique moyenne : When the input is categorical we use cross entropy loss,;Lorsque l’entrée est catégorique, nous utilisons la perte d’entropie croisée : Loss functional;Fonctionnel de perte The loss functional is the average of the per sample loss.;La fonctionnelle de perte est la moyenne de la perte par échantillon : Under-/over-complete hidden layer;Couche cachée sous-complète ou sur-complète When the dimensionality of the hidden layer is less than the dimensionality of the input then it is under complete hidden layer. When the dimensionality of the hidden layer is greater than the dimensionality of the input then it is over complete.;Lorsque la dimensionnalité de la couche cachée est inférieure à la dimensionnalité de l’entrée, la couche cachée est incomplète. Lorsque la dimensionnalité de la couche cachée est supérieure à la dimensionnalité de l’entrée, elle est surcomplète. The dimensionality of the hidden layer is larger than the input so that they can be linearly separable. However, this can lead to a collapsed representation. Since by reconstructing the input, the model can copy all the features. In order to avoid this there are a few techniques such as denoising autoencoder, contractive autoencoder, variation autoencoder, etc.;La dimensionnalité de la couche cachée est plus grande que celle de l’entrée afin qu’elles puissent être linéairement séparables. Cependant, cela peut conduire à une représentation effondrée. En effet, en reconstruisant l’entrée, le modèle peut copier toutes les caractéristiques. Afin d’éviter cela, il existe quelques techniques telles que l’auto-encodeur débruiteur, l’auto-encodeur contractif, l’auto-encodeur variationnel, etc. Denoising Autoencoder;L’auto-encodeur débruiteur Denoising Autoencoder is a contrastive technique. Fig. 3 below shows the architecture and manifold of the denoising autoencoder and the intuition of how it works.;L’auto-encodeur débruiteur (DAE) est une technique contrastive. La figure 3 ci-dessous montre l’architecture et la variété du DAE ainsi que l’intuition de son fonctionnement. In this model, we corrupt the input data y~, in blue, because it’s cold / low energy, and get the sample y^​, in red, because it’s hot / high energy. The energy associated to y~​ is squared euclidean distance from its original value. Then y~​ is encoded back to the hidden variable h and then passed back to the decoder producing y~​ which should be close to the target y~. Hence irrespective of what noise is added to the original data, the autoencoder needs to learn to separate the noise and retrieve the original value of y~.;Dans ce modèle, on corrompt la donnée d’entrée y en bleu (car elle est froide / a une énergie faible), et on obtient l’échantillon y^​ en rouge (car il est chaud / a une haute énergie). L’énergie associée à y~​ est la distance euclidienne au carré par rapport à sa valeur initiale. Ensuite, y~​ est ré-encodé dans la variable cachée h puis repassé au décodeur produisant y~​ qui doit être proche de la cible y~. Par conséquent, quel que soit le bruit ajouté aux données originales, l’auto-encodeur doit apprendre à séparer le bruit et à retrouver la valeur originale de y~. Contractive Autoencoder;L’auto-encodeur contractif A contractive autoencoder is an unsupervised deep learning technique that helps a neural network encode unlabelled training data. It makes this encoding less sensitive to small variations in its training dataset. This is accomplished by adding a regulariser, or penalty term, to whatever cost or objective function the algorithm is trying to minimize. The end result is to reduce the learned representation’s sensitivity towards the training input.;Un auto-encodeur contractif est une technique d’apprentissage profond non supervisé qui aide un réseau neuronal à encoder des données d’entraînement non étiquetées. Il rend cet encodage moins sensible aux petites variations de son ensemble de données d’apprentissage. Pour ce faire, un régulariseur ou terme de pénalité, est ajouté au coût ou à la fonction objective que l’algorithme tente de minimiser. Le résultat final est de réduire la sensibilité de la représentation apprise envers l’entrée d’entraînement. As shown in Fig. 4, C(y,y~​) penalises sensitivities to reconstructions along the manifold while R(h) penalises how much the wiggling of h comes from the wiggling of y~. In this manner, you basically get to push up the energies only in the direction that are not used for the reconstruction.;Comme le montre la figure 4, C(y,y~​) pénalise les sensibilités aux reconstructions le long de la variété tandis que R(h) pénalise combien le remuement de h provient du remuement de y~. De cette manière, on peut augmenter les énergies uniquement dans les directions qui ne sont pas utilisées pour la reconstruction. Variational Autoencoder (VAE);L’auto-encodeur variationnel Intuition behind VAE and a comparison with classic autoencoders;Intuition derrière les VAEs et comparaison avec les auto-encodeurs classiques Next, we introduce Variational Autoencoders (or VAE), a type of generative model. But why do we even care about generative models? To answer the question, discriminative models learn to make predictions given some observations, but generative models aim to simulate the data generation process. One effect is that generative models can better understand the underlying causal relations which leads to better generalization.;Nous présentons les auto-encodeurs variationnels, un type de modèle génératif. Mais pourquoi s’intéresser aux modèles génératifs ? Pour répondre à la question, les modèles discriminatifs apprennent à faire des prédictions à partir de certaines observations, mais les modèles génératifs visent à simuler le processus de génération de données. L’un des effets est que les modèles génératifs peuvent mieux comprendre les relations causales sous-jacentes, ce qui conduit à une meilleure généralisation. What’s the difference between variational autoencoder (VAE) and basic autoencoder (AE)?;Quelle est la différence entre un auto-encodeur variationnel (VAE) et un auto-encodeur de base (AE) ? Note that although VAE has “Autoencoders” (AE) in its name (because of structural or architectural similarity to auto-encoders), the formulations between VAEs and AEs are very different. Fig. 5 below shows the architectures of VAE and basic AE.;Bien que le nom VAE comporte le terme auto-encodeur, en raison de la similitude structurelle ou architecturale avec les auto-encodeurs, les formulations entre VAE et AE sont très différentes. La figure 5 ci-dessous montre les architectures des VAEs et des AEs de base. For VAE:;Pour un VAE : First, the encoder stage: we pass the input y to the encoder. Instead of generating a hidden representation h in AE, the hidden representation in VAE comprises two parts: μ and v. And similar to using regularisation factor R for h, we now use regularisation factors u and v for μ and v, respectively.;Premièrement l’étape de l’encodeur : on passe l’entrée y à l’encodeur. Au lieu de générer une représentation cachée h comme pour l’AE, la représentation cachée dans le VAE comprend deux parties : μ et v. De la même manière que nous utilisons le facteur de régularisation R pour h, nous utilisons les facteurs de régularisation u et v pour μ et v, respectivement. Next, we use a sampler to sample z which is the latent random variable following a Gaussian distribution with μ and v. Note that people use Gaussian distributions as the encoded distribution in practice, but other distributions can be used as well.;Ensuite, nous utilisons un échantillonneur pour échantillonner z qui est la variable aléatoire latente suivant une distribution gaussienne μ et v. A noter qu’en pratique les gens utilisent les distributions gaussiennes comme distribution codée mais d’autres distributions peuvent également être utilisées. Finally, z is passed into the decoder to generate y~​.;Enfin, z est passé dans le décodeur pour générer y~​. The decoder will be a function from z to Rn:z↦y~​.;Le décodeur sera une fonction de z à Rn : z↦y~​. In fact, for basic autoencoder, we can think of h as just the vector μ in the VAE formulation, with the variance set to zero. In short, the main difference between VAEs and AEs is that VAEs have a good latent space that enables generative process.;En fait, pour un auto-encodeur de base, nous pouvons considérer que h est simplement le vecteur μ dans la formulation VAE avec la variance fixée à zéro. En bref, la principale différence entre les VAEs et les AEs est que les VAEs ont un bon espace latent qui permet un processus génératif. What’s the difference between variational autoencoder (VAE) and denoising autoencoder (DAE)?;Quelle est la différence entre l’auto-encodeur variationnel (VAE) et l’auto-encodeur débruiteur (DAE) ? Now let’s have compare the difference between VAE and DAE. See Fig. 6 below.;Comparons maintenant la différence entre VAE et DAE avec la figure 6 ci-dessous. For DAE as we mentioned before, the sampling was happening between y~, in blue, because it’s cold / low energy, and y^​, in red, because it’s hot / high energy. So we move the input and then we decode everything into y~​. For VAE we encode the input and we add noise in the hidden , so we just switch the position of the encoder in the sampler more or less.;Pour le DAE, comme nous l’avons mentionné précédemment, l’échantillonnage se produisait entre y~, en bleu car il est froid / a une énergie basse, et y^​ en rouge car il est chaud / a une haute énergie. On déplace donc l’entrée et on décode tout en y~​. Pour le VAE, on code l’entrée et on ajoute du bruit dans la cachée ainsi on change plus ou moins la position de l’encodeur dans l’échantillonneur. The VAE objective (loss) function;La fonction objectif du VAE First, we encode from input space (left) to latent space (right), through encoder and noise. Next, we decode from latent space (right) to output space (left). To go from the latent to input space (the generative process) we will need to either learn the distribution (of the latent code) or enforce some structure. In our case, VAE enforces some structure to the latent space.;Tout d’abord, nous codons de l’espace d’entrée (à gauche) à l’espace latent (à droite), en passant par l’encodeur et le bruit. Ensuite, nous décodons de l’espace latent (droite) vers l’espace de sortie (gauche). Pour passer de l’espace latent à l’espace d’entrée (le processus génératif), nous devons soit apprendre la distribution (du code latent), soit imposer une certaine structure. Dans notre cas, le VAE impose une certaine structure à l’espace latent. As usual, to train VAE, we minimize a loss function. The loss function is therefore composed of a reconstruction term as well as a regularization term.;Comme d’habitude, pour entraîner le VAE nous minimisons une fonction de perte. La fonction de perte est donc composée d’un terme de reconstruction ainsi que d’un terme de régularisation. The reconstruction term is on the final layer (left side of the figure). This corresponds to C(y,y~​) in the figure.;Le terme de reconstruction se trouve sur la dernière couche (côté gauche de la figure). Cela correspond à C(y,y~​) dans la figure. The regularization term is on the latent layer, to enforce some specific Gaussian structure on the latent space (right side of the figure). We do so by using a penalty term DKL​(N(μ,v)∥N(0,1)). Without this term, VAE will act like a basic autoencoder, which may lead to overfitting, and we won’t have the generative properties that we desire.;Le terme de régularisation se trouve sur la couche latente, afin d’imposer une structure gaussienne spécifique à l’espace latent (côté droit de la figure). Pour ce faire, nous utilisons un terme de pénalité DKL​(N(μ,v)∥N(0,1)). Sans ce terme, le VAE agira comme un AE de base, ce qui peut conduire à un surentraînement et nous n’aurons pas les propriétés génératives que nous souhaitons. Discussion on sampling z (reparameterisation trick);Discussion sur l’échantillonnage de z (astuce de reparamétrisation) How do we add this noise as mentioned above? We here introduce reparameterisation trick. From above we know that, we sample from the Gaussian distribution, in order to obtain latent variable z~. However, this is problematic, because when we do gradient descent to train the VAE model, we don’t know how to do backpropagation through the sampling module.;Comment ajouter ce bruit comme mentionné ci-dessus ? Nous introduisons ici l’astuce de reparamétrisation. D’après ce qui précède, nous savons que nous échantillonnons à partir de la distribution gaussienne pour obtenir la variable latente z~. Cependant, cela pose problème car lorsque nous effectuons la descente de gradient pour entraîner le VAE, nous ne savons pas comment effectuer la rétropropagation à travers le module d’échantillonnage. We can simply say that the new latent z is going to be μ which is the guess for the mean plus a epsilon that was sampled from a Gaussian whose amplitude is changed by the square root of the standard deviation v. So in this way, we can get gradients back flowing in these encoder.;Nous pouvons simplement dire que la nouvelle latente z sera μ qui est l’estimation de la moyenne plus un epsilon qui a été échantillonné à partir d’une gaussienne dont l’amplitude est modifiée par la racine carrée de l’écart type v. Ainsi, de cette manière, nous pouvons faire circuler les gradients dans ces encodeurs. Visualizing Latent Variable Estimates and Reconstruction Loss;Visualisation des estimations des variables latentes et perte de reconstruction In Fig. 8 above, each bubble represents an estimated region of z~, and the arrows represent how the reconstruction term pushes each estimated value away from the others, which is explained more below.;Dans la figure 8 ci-dessus, chaque bulle représente une région estimée de z et les flèches représentent la façon dont le terme de reconstruction éloigne chaque valeur estimée des autres, ce qui est expliqué plus en détail ci-dessous. As stated above, the Free Energy for the VAE contains two terms: a reconstruction term and a regularization term. We can write this as;Comme indiqué ci-dessus, l’énergie libre pour le VAE contient deux termes : un terme de reconstruction et un terme de régularisation. Nous pouvons l’écrire comme suit : To visualize the purpose of each term in the free energy, we can think of each estimated z value as a circle in 2d space, where the centre of the circle is μ and the surrounding area are the possible values of z determined by v.;Pour visualiser l’objectif de chaque terme de l’énergie libre, nous pouvons considérer chaque valeur estimée de z comme un cercle dans l’espace 2D, où le centre du cercle est μ et la zone environnante sont les valeurs possibles de z déterminées par v. If there is an overlap between any two estimates of z~, (visually, if two bubbles overlap) this creates ambiguity for reconstruction because the points in the overlap can be mapped to both original inputs. The first term C(y,y~​) forces to reconstructing these bubbles to the correct locations.;S’il existe un chevauchement entre deux estimations de z (visuellement si deux bulles se chevauchent), cela crée une ambiguïté pour la reconstruction car les points du chevauchement peuvent être mis en correspondance avec les deux entrées originales. Le premier terme C(y,y~​) force à reconstruire ces bulles aux emplacements corrects. The reconstruction loss C(y,y~​) will push the points away from one another such there is no overlap.;La perte de reconstruction C(y,y~) éloignera les points l’un de l’autre de sorte qu’il n’y ait pas de chevauchement. Another option for C(y,y~​) to avoid overlap is to make the variance zero and then there are just points other than bubbles so there’s no more overlap.;Une autre option pour C(y,y~​) pour éviter le chevauchement est de rendre la variance nulle et alors il n’y a que des points autres que les bulles donc il n’y a plus de chevauchement. However, if we use just the reconstruction loss, the estimates will continue to be pushed away from each other and the system could blow up. This is where the penalty term comes in.;Cependant, si nous utilisons uniquement la perte de reconstruction, les estimations continueront à s’éloigner les unes des autres et le système pourrait exploser. C’est là que le terme de pénalité entre en jeu. The penalty term;Le terme de pénalité The second term is the relative entropy (a measure of the distance between two distributions) between a Gaussian, with mean μ and variance v, and the standard normal distribution. If we expand this second term in the VAE loss function we get:;Le deuxième terme est l’entropie relative (une mesure de la distance entre deux distributions) entre une gaussienne de moyenne μ et de variance v, et la distribution normale standard. Si nous développons ce deuxième terme dans la fonction de perte VAE, nous obtenons : where the expression in the summation has four terms. Let’s use v for the first three terms.;où l’expression dans la sommation a quatre termes. Utilisons v pour les trois premiers termes. From the left bottom plot in Fig. 8 above, we can see that this expression is minimized when vi​ is 1. Therefore our penalty loss will keep the variance of our estimated latent variables at around 1. Visually, this means our “bubbles” from above will have a radius of around 1.;D’après le graphique en bas à gauche de la figure 8 ci-dessus, nous pouvons voir que cette expression est minimisée lorsque vi​ est égal à 1. Par conséquent, notre perte de pénalité maintiendra la variance de nos variables latentes estimées autour de 1. Visuellement, cela signifie que nos “bulles” du dessus auront un rayon d’environ 1. The last term, μi​2, minimizes the distance between the bubbles and therefore prevents the “exploding” encouraged by the reconstruction term.;Le dernier terme, μi​2, minimise la distance entre les bulles et empêche donc l’“explosion” encouragée par le terme de reconstruction. Note: The β in the VAE loss function is a hyperparameter that dictates how to weight the reconstruction and penalty terms.;Note : le β dans la fonction de perte VAE est un hyperparamètre qui dicte la manière de pondérer les termes de reconstruction et de pénalité. In this section, we covered the implementation of Generative models viz. Undercomplete Autoencoder, Denoising Autoencoders, Variational Autoencoders and Generative Adversarial Networks. We analyze these models from the perspective of the framework of Energy Based Models (EBM). In doing so, we realize that these generative models can be considered as extensions of EBMs and differ from each other with subtle architectural adjustments.;Dans cette section nous couvrons l’implémentation de modèles génératifs, à savoir les auto-encodeurs sous-complets, les auto-encodeurs débruieurs, les auto-encodeurs variationnels et les réseaux antagonistes génératifs. Nous analysons ces modèles du point de vue du cadre des modèles à base d’énergie (EBMs). Ce faisant, nous nous rendons compte que ces modèles génératifs peuvent être considérés comme des extensions des EBMs et qu’ils diffèrent les uns des autres par de subtils ajustements architecturaux. Generative Models;Modèles génératifs Autoencoders (AE);Auto-encodeurs (AE) Autoencoders are artificial neural networks trained in an unsupervised fashion that aim to learn representation of input data and then generate the data from the learned encoded representations. Autoencoders can be considered a special case of Amortized Inference where instead of finding the optimal latent to produce appropriate reconstruction of the input, we simply feed the output of encoder to decoder.;Les auto-encodeurs sont des réseaux neuronaux artificiels entraînés de manière non supervisée qui visent à apprendre la représentation des données d’entrée, puis à générer les données à partir des représentations codées apprises. Les auto-encodeurs peuvent être considérés comme un cas particulier d’inférence amortie où, au lieu de trouver la latente optimale pour produire une reconstruction appropriée de l’entrée, nous alimentons simplement la sortie de l’encodeur au décodeur. We can express the above architecture mathematically as;Nous pouvons exprimer mathématiquement l’architecture ci-dessus comme suit : With following dimensionalities:;Avec les problèmes de dimensions suivants : The data is represented only through y as the aim is to reconstruct the data that lives on the manifold (instance of unconditional EBM) through following energy function:;Les données sont représentées uniquement par y car le but est de reconstruire les données qui vivent sur la variété (instance d’EBM inconditionnelle) par la fonction d’énergie suivante : Under/Over Complete Autoencoder;Auto-encodeur sous/sur complet In an autoencoder, when the dimension of hidden representation d, (30) is less than that of input size, N (784), it can be referred as Under Complete Autoencoder.;Dans un auto-encodeur, lorsque la dimension de la représentation cachée, d, (30) est inférieure à celle de la taille de l’entrée, N (784), on peut parler d’auto-encodeur sous-complet. Correspondingly, when the dimensionality of hidden representation, d is greater than input dimensions n, it is said to be Over Complete Autoencoder.;Corrélativement, lorsque la dimension de la représentation cachée, d est supérieure aux dimensions d’entrée, n, on dit qu’il s’agit d’un auto-encodeur sur-complet. We are working with MNIST 28×28 images such that the transformation routine is defined from 784(=28×28)→30 under the encoder followed by decoder that maps 30→784. The images are normalized and pixel values ∈[−1,1];Nous travaillons avec des images MNIST 28×28 de telle sorte que la routine de transfomation est définie de 784(=28×28)→30 sous l’encodeur suivi du décodeur qui fait correspondre 30→784. Les images sont normalisées et les valeurs des pixels ∈[−1,1]. Let’s have a look on some of the kernels of the encoder.;Jetons un coup d’œil sur certains des noyaux de l’encodeur. If you notice there appears salt and pepper noise surrounding the center of images. This is due to the low spatial frequency along the region in the input image. The +1s and −1s in the noise cancel out to 0, resulting in their average contribution as 0. High-frequency regions appear around the central region as the digits in MNIST images are centered. The kernels with only noise indicate that the corresponding kernel collapsed or died.;Si vous remarquez qu’il apparaît un bruit de sel et de poivre entourant le centre des images, cela est dû à la faible fréquence spatiale le long de la région dans l’image d’entrée. Les +1 et −1 du bruit s’annulent à 0, ce qui fait que leur contribution moyenne est de 0. Des régions à haute fréquence apparaissent autour de la région centrale, car les chiffres des images MNIST sont centrés. Les noyaux avec seulement du bruit indiquent que le noyau correspondant s’est effondré ou est mort. Denoising Autoencoder (DAE);Auto-encodeur débruiteur (DAE) In Denoising Autoencoder, we take a sample from dataset, inject some noise such the autoencoder is forced to reproduce the original sample. Therefore, the aim is to learn the vector field that should transform corrupted sample back to denoised part. Here, we set d=500 which is greater than number of pixels actually utilized to represent the digits in images. (Over Complete AE);Dans l’auto-encodeur débruiteur, nous prenons un échantillon d’un ensemble de données, nous injectons un certain bruit de sorte que l’auto-encodeur est obligé de reproduire l’échantillon original. Par conséquent, l’objectif est d’apprendre le champ vectoriel qui doit transformer l’échantillon corrompu en une partie débruitée. Ici, nous avons fixé d=500, ce qui est supérieur au nombre de pixels réellement utilisés pour représenter les chiffres dans les images (AE sur-complet). For the purpose of adding noise we perform the following steps:;Dans le but d’ajouter du bruit, nous effectuons les étapes suivantes : 1. Employ do=nn.Dropout() to randomly turn neuron off i.e. some pixel values will result in 0. (Original image is composed of pixel values [−1,1]);1. Employer do=nn.Dropout() pour désactiver aléatoirement le neurone, c’est-à-dire que certaines valeurs de pixel donneront 0. (L’image originale est composée de valeurs de pixel [−1,1]). 2. Create a noise mask using the dropout do(torch.ones(img.shape));2. Créer un masque de bruit en utilisant le dropout do(torch.ones(img.shape)). 3. Generate corrupted image by multiplying the original image with noise mask. img_bad=(img*noise);3. Générer une image corrompue en multipliant l’image originale avec le masque de bruit. img_bad=(img*noise) The criterion for the model stay same i.e. to reproduce original sample given a noisy sample.;Le critère du modèle reste le même, c’est-à-dire reproduire l’échantillon original à partir d’un échantillon bruité. Again, let’s have a look at the kernels of the encoder. As you can see there is no salt and pepper noise as the surrounding region is no longer zero-mean and the kernel is forced to learn to ignore the region out of interest.;Encore une fois, regardons les noyaux de l’encodeur. Comme vous pouvez le voir, il n’y a pas de bruit poivre et sel car la région environnante n’est plus de moyenne zéro et le noyau est obligé d’apprendre à ignorer la région hors d’intérêt. Comparing our denoised autoencoder with Computer Vision Inpainting methods such as Telea and Navier-Stokes methods.;Comparaison de notre DAE avec les méthodes d’Inpainting de vision par ordinateur telles que les méthodes Telea et Navier-Stokes. Recall that an Denoised Autoencoder is an Constrastive EBM that assigns low-energy to samples lying on the actual data manifold (observed during training). Now, to test this out we merge two digits (perform alpha composite) and pass through the autoencoder:;Rappelons qu’un DAE est un EBM constrastif qui attribue une faible énergie aux échantillons se trouvant sur la variété de données réel (observé pendant l’entraînement). Maintenant, pour tester cela, nous fusionnons deux chiffres (composite alpha) et passons par l’auto-encodeur : Interestingly, the autoencoder fails to reconstruct the merged garbage input as it was not observed during training. Therefore, the autoencoder can be used to estimate how noisy a given input sample is.;Il est intéressant de noter que l’auto-encodeur ne parvient pas à reconstruire l’entrée des chiffres fusionnées car elle n’a pas été observée pendant l’entraînement. Par conséquent, l’auto-encodeur peut être utilisé pour estimer le degré de bruit d’un échantillon d’entrée donné. Variational Autoencoder (VAE);Auto-encodeur variationnel (VAE) Varitational Autoencoders are type of generative models, where we aim to represent latent attribute for given input as a probability distribution. The encoder produces μ and v such that a sampler samples a latent input z from these encoder outputs. The latent input z is simply fed to encoder to produce y^​ as reconstruction of y~.;Les auto-encodeurs variationnels sont un type de modèles génératifs où l’on cherche à représenter un attribut latent pour une entrée donnée sous la forme d’une distribution de probabilité. L’encodeur produit μ et v de sorte qu’un échantillonneur échantillonne une entrée latente z à partir de ces sorties d’encodeur. L’entrée latente z est simplement introduite dans l’encodeur pour produire y^​ comme reconstruction de y~. Here, we consider the latent random variable as z belonging to a Gaussian with mean μ and variance y~. (Feel free to use any other distribution). Unlike before, we do not normalize the images.;Ici, nous considérons la variable latente aléatoire z appartenant à une gaussienne de moyenne μ et de variance y~. (N’hésitez pas à utiliser toute autre distribution). Contrairement à la version précédente, nous ne normalisons pas les images. Encoder and Decoder;Encodeur et décodeur The last layer of encoder has an output of dimension 2d: first d values refer to means, μ and remaining d values are variances v. The decoder has a sigmoid activation for last layer to maintain output range [0,1].;La dernière couche de l’encodeur a une sortie de dimension 2d : les premières valeurs d font référence aux moyennes, μ et les dernières valeurs d sont des variances v. Le décodeur a une activation sigmoïde pour la dernière couche afin de maintenir l’intervalle de sortie [0,1]. Reparameterise and forward function;Reparamétrage et fonction forward During training, the reparameterise function is used for the reparameterisation trick: We cannot backpropagate through the sampler, we simply compute z=μ+ϵ⊙v;Pendant l’apprentissage, la fonction reparameterise est utilisée pour l’astuce de reparamétrage. Nous ne pouvons pas rétropropager à travers l’échantillonneur, nous calculons simplement z=μ+ϵ⊙v ​ where ϵ∈N(0,Id). This allows to flow gradient back to encoder. During test time, we simply use μ;​ où ϵ∈N(0,Id). Cela permet de renvoyer le gradient vers l’encodeur. Pendant le test, on utilise simplement μ. We use log variance instead of variance (change of scale) because we want to ensure;Nous utilisons la variance logarithmique au lieu de la variance (changement d’échelle) car nous voulons nous assurer que : 1. Variance is non-negative.;1. la variance est non-négative, 2. Full range of variance, to make training stable.;2. avoir une gamme complète pour la variance afin de rendre l’entraînement stable. Recall the free energy for VAE,;Rappelons l’énergie libre pour le VAE : To regularise the expressivity of the latent, we include KL-divergence between the Gaussian of latent variable and a Normal distribution (N(0,1)). (Also see Week 8-Practicum for bubble explanation of VAE loss);Pour régulariser la variable latente, nous incluons la divergence KL entre la gaussienne de la variable latente et une distribution normale (N(0,1)). (Voir également la semaine 8 pour une explication sous forme de bulles de la perte VAE). Therefore, we define the loss function as;Par conséquent, nous définissons la fonction de perte comme suit : Since, VAE is a generative model, we sample from the distribution to generate the following digits:;Puisque le VAE est un modèle génératif, nous échantillonnons à partir de la distribution pour générer les chiffres suivants : The regions (classes) get segregated as the reconstruction term forces the latent space to get well defined. The data gets clustered into classes without actually using the labels.;Les classes sont séparées car le terme de reconstruction force l’espace latent à être bien défini. Les données sont regroupées en classes sans utiliser réellement les étiquettes. Generative Adversarial Nets (GANs);Réseaux antagonistes génératifs (GANs pour Generative Adversarial Networks) GANs have the same feel as DAE with some tweaks. DAE involves generating corrupt samples using the input and a distribution followed by denoising them using a decoder. GANs instead directly sample the distribution (without the input) to produce output y^​ using the Generator (or decoder in DAE terms). The input y and y^​ are provided to the Cost network separately to measure incompatibility between them.;Les GANs ont le même aspect que les DAEs avec quelques modifications. Le DAE implique la génération d’échantillons corrompus à partir de l’entrée et d’une distribution, suivie d’un débruitage à l’aide d’un décodeur. Au lieu de cela, les GANs échantillonnent directement la distribution (sans l’entrée) pour produire une sortie y^​ en utilisant le générateur (ou décodeur en termes de DAE). Les entrées y et y^​ sont fournies au réseau Cost séparément pour mesurer l’incomptabilité entre elles. Similarly, we can extend the analogy with VAE. In contrast to VAE where the sampler is conditioned on the output of the encoder, in GANs there is an unconditioned sampler and again, decoder corresponds to Generator.;De la même manière, nous pouvons étendre l’analogie avec le VAE. Contrairement au VAE où l’échantillonneur est conditionné à la sortie de l’encodeur, dans les GANs, il y a un échantillonneur non conditionné. Là encore, le décodeur correspond au générateur. The Generator maps the latent space to data space:;Le générateur fait correspondre l’espace latent à l’espace des données : The observed y and y^​ are fed to a Cost network to measure incompatibility:;Les y et y^​ observés sont introduits dans un réseau de coût pour mesurer l’incompatibilité : Training GANs;Entraînement des GANs We define the loss functional for the Cost Network (Discriminator):;Nous définissons la fonctionnelle de perte pour le réseau de coût (discriminateur) : The aim is to push down sample of y and push up the energy of y^​ upto mm (if C≥m no gradient is received as ReLU(⋅) would result the output to 0).;Le but est de diminuer l’échantillon de y et d’augmenter l’énergie de y^​ jusqu’à mm (si C≥m aucun gradient n’est reçu car ReLU(⋅) entraînerait la sortie à 0). For training the generator, the aim is to simply minimize the cost:;Pour l’entraînement du générateur, l’objectif est simplement de minimiser le coût : A possible choice of C(y) can be;Un choix possible de C(y) peut être The cost network would push good samples to 0 and bad sample to energy level m. Using the above C(y), there would exist a quadratic distance between the points on manifold, vy and points generated by the generator y^​. During the training, generator is updated to try to produce samples that would gradually have low energy as y guided by C. Once trained, the generator should produce samples near to data manifold.;Le réseau de coût pousse les bons échantillons à 0 et les mauvais échantillons au niveau d’énergie m. En utilisant la formule ci-dessus C(y), il existerait une distance quadratique entre les points de la variété vy et les points générés par le générateur y^​. Au cours de l’apprentissage, le générateur est mis à jour pour essayer de produire des échantillons qui auraient progressivement une énergie faible à mesure que y est guidé par C. Une fois entraîné, le générateur devrait produire des échantillons proches de la variété de données. Adopting another analogy , the generative model can be thought as team of counterfeiters, trying to produce fake currency. Their aim to produce fake currency which is indistinguishable from real currency. The discriminator can be viewed as police, trying to detect among counterfeit and fake currency bills. Gradients from backprop can be seen as spies that give opposite direction to counterfeiters (generator) in order to fool the police (discriminator).;En adoptant une autre analogie, le modèle génératif peut être considéré comme une équipe de faussaires essayant de produire de la fausse monnaie. Leur objectif est de produire de la fausse monnaie qui ne se distingue pas de la vraie. Le disciminateur peut être considéré comme la police qui essaie de détecter les billets de banque contrefaits et faux. Les gradients de la rétropropagation peuvent être considérés comme des espions qui donnent une direction opposée aux contrefacteurs (générateur) afin de tromper la police (discriminateur). Implementating Deep Convolutional Generative Adversarial Nets (DCGANs);Implémentation de réseaux antagonistes génératifs convolutifs profonds (DCGANs) Follow this link for complete code.;Voir ici pour le code complet. The Generator upsamples the input using several nn.ConvTranspose2d modules to produce image from random vector nz (noise).;Le générateur suréchantillonne l’entrée en utilisant plusieurs modules nn.ConvTranspose2d pour produire une image à partir d’un vecteur aléatoire nz (bruit). Discriminator is essentially a image classifier that uses nn.Sigmoid() to classify the input as real/fake.;Le discriminateur est essentiellement un classifieur d’images qui utilise nn.Sigmoid() pour classer l’entrée comme vraie/fausse. We use Binary Cross Entropy to train the networks.;Nous utilisons l’entropie croisée binaire pour entraîner les réseaux. We have two optimizers for each network. (We want to push up the energy of bad (recognizable fake images) samples and push down energy of good samples (real looking images).;Nous avons deux optimiseurs pour chaque réseau. Nous voulons augmenter l’énergie des mauvais échantillons (images fausses reconnaissables) et diminuer l’énergie des bons échantillons (images réelles). For training, we first train the discriminator with real images and labels stating the images being real. Followed by generator generating fake images from noise. The discriminator is again trained but this time with fake images and labels stating them as fake.;Pour l’entraînement, nous entraînons d’abord le discriminateur avec des images réelles et des étiquettes indiquant que les images sont réelles. Ensuite, nous générons de fausses images à partir de bruit. Le discriminateur est à nouveau entraîné, mais cette fois avec des images fausses et des étiquettes indiquant qu’elles sont fausses. To train the generator, we compute the error by incompatibility between characteristics of real image and fake image as identified by the discriminator. Such that the generator can use this discrepancy measure to better fool the discriminator.;Pour entraîner le générateur, nous calculons l’erreur par incompatibilité entre les caractéristiques de l’image réelle et de l’image fausse telles qu’identifiées par le discriminateur. De sorte que le générateur puisse utiliser cette mesure d’incompatibilité pour mieux tromper le discriminateur. A brief introduction to self-supervised learning and pretext tasks and discussion of associated trivial solutions. Categorization of recent self-supervised methods: Introduction to Contrastive Learning and the loss function used. Brief overviews of PIRL, SimCLR and MoCo followed by SwAV which is a Clustering based method. Pretraining on Imagenet and non-Imagenet data is also discussed towards the end.;Une brève introduction à l’apprentissage autosupervisé et aux tâches de prétexte ainsi qu’une discussion à propos des solutions triviales associées. Puis une catégorisation des méthodes autosupervisées récentes avec une introduction à l’apprentissage contrastif et à la fonction de perte utilisée. Nous poursuivons avec de brèves présentations de PIRL, SimCLR et MoCo suivies de SwAV qui est une méthode basée sur du clustering. Le pré-entraînement sur les données ImageNet et non-ImageNet est également discuté à la fin. We introduce attention, focusing on self-attention and its hidden layer representations of the inputs. Then, we introduce the key-value store paradigm and discuss how to represent queries, keys, and values as rotations of an input. Finally, we use attention to interpret the transformer architecture taking a forward pass through a basic transformer through an EBM perspective,, and comparing the encoder-predictor-decoder paradigm to sequential architectures.;Nous présentons l’attention en nous concentrant sur l’auto-attention et ses représentations des entrées dans la couche cachée. Ensuite, nous introduisons le paradigme clé-valeur et discutons de la manière de représenter les requêtes, les clés et les valeurs comme des rotations d’une entrée. Enfin, nous utilisons l’attention pour interpréter l’architecture du transformer. Pour cela nous passons par le biais d’un transformer de base dans la perspective des EBMs et en comparant le paradigme encodeur-prédicteur-décodeur aux architectures séquentielles. Self Supervised Learning in Computer Vision;Apprentissage autosupervisé en vision par ordinateur The current focus in Computer Vision lies in learning of visual representation from supervised data and using these representations/model weights as initializations for other tasks which lack availability of labelled data. Labelling data can be expensive, for instance, the Imagenet dataset has ~14 million images and 22,000 categories taking ~22 human years to label.;La vision par ordinateur se concentre actuellement sur l’apprentissage de représentations visuelles à partir de données supervisées et sur l’utilisation de ces représentations/poids comme initialisations pour d’autres tâches qui ne disposent pas de données étiquetées. Cet étiquetage des données peut s’avérer coûteux. Par exemple, le jeu de données ImageNet compte environ 14 millions d’images et 22000 catégories et son étiquetage a nécessité environ 22 années de travail. Pretext Task;Tâche de prétexte The pretext task is a self-supervised learning task solved to learn visual representations, with the aim of using the learned representations or model weights obtained in the process, for other downstream tasks. The pretext task is usually performed on a property that is inherent in the dataset itself.;La tâche de prétexte est une tâche d’apprentissage autosupervisée effectuée dans le but d’apprendre des représentations visuelles afin de les utiliser pour d’autres tâches en aval (c’est-à-dire la classification, la détection d’objets, etc.). La tâche de prétexte est généralement effectuée sur une propriété inhérente au jeu de données lui-même. Popular pretext tasks for images:;Tâches de prétextes populaires pour les images : 1. Predicting relative position of patches within an image;1. Prédire la position relative des patchs dans une image. 2. Predicting permutation type of image patches (Jigsaw Puzzles);2. Prédire le type de permutation des patchs de l’image (puzzles). 3. Predicting the kind of rotation applied;3. Prédire le type de rotation appliquée What is missing from pretext tasks?;Qu’est-ce qui manque aux tâches de prétextes ? There is a fairly big mismatch between what is being solved in the pretext tasks and what needs to be achieved by the transfer tasks. Thus, the pre-training is not suitable for final tasks. Performance at each layer can be assessed (using linear classifiers) to figure out which layer’s features to use for the transfer tasks.;Il y a un décalage assez important entre ce qui est résolu avec les tâches de prétextes et ce qui doit être réalisé par les tâches de transfert. Ainsi, le pré-entraînement n’est pas adaptée aux tâches finales. Les performances de chaque couche peuvent être évaluées (à l’aide de classifieurs linéaires) afin de déterminer les caractéristiques de la couche à utiliser pour les tâches de transfert. Pre-trained features should satisfy two fundamental properties:;Les caractéristiques pré-entraînées doivent satisfaire deux propriétés fondamentales : 1. Must represent how images relate to one another;1. elles doivent représenter la façon dont les images sont liées les unes aux autres 2. Be robust to nuisance factors;2. être robuste aux facteurs de nuisance Popular method for self-supervised learning;Méthode populaire pour l’apprentissage autosupervisé A popular and common method for self supervised learning is to learn features that are robust to data augmentation. Learn features such that,;Une méthode populaire et commune en apprentissage autosupervisé consiste à apprendre des caractéristiques qui sont robustes à l’augmentation de données. C’est à dire apprendre des caractéristiques telles que : Features produced by the network for an image should be stable under different types of data augmentation techniques. This property is extremely useful because the features are going to be invariant to the nuisance factors.;Les caractéristiques produites par le réseau pour une image doivent être stables sous différents types de techniques d’augmentation de données. Cette propriété est extrêmement utile car les caractéristiques vont être invariantes aux facteurs de nuisance. Take an image, apply two different data augmentations to it, feed it through encoder, compute the similarity. Get the gradients and backpropagate. The network then learns to produce a constant representation for both augmentations.;Prenez une image, appliquez-lui deux augmentations de données différentes, faites-la passer par un encodeur, calculez la similarité. Puis faites une rétropropagation avec les gradients obtenus. Le réseau apprend alors à produire une représentation constante pour les deux augmentations. Categorization of recent self-supervised methods:;Catégorisation des méthodes autosupervisées récentes : 1. Maximize Similarity Objective;1. Objectif de maximisation de la similarité 2. Redundancy Reduction Objective;2. Objectif de réduction de la redondance For evaluation, a subset of the Imagenet dataset (1.3 million images over 1000 categories) without labels is used to pre-train a randomly initialized Resnet-50 model.;Pour l’évaluation, un sous-ensemble d’ImageNet (1,3 million d’images dans 1000 catégories) non étiqueté est utilisé pour pré-entraîner un modèle Resnet-50 initialisé de manière aléatoire. What are the different ways to perform transfer learning and evaluate its performance?;Quelles sont les différentes façons de réaliser l’apprentissage par transfert et d’évaluer ses performances? We can do one of 2 things:;Nous pouvons faire l’une des deux choses suivantes : 1. Linear classifier on top of fixed features output by the network (For classification tasks);1. Un classifieur linéaire sur les caractéristiques fixes produites par le réseau (pour les tâches de classification). 2. Finetune the entire pretrained network on the target task (For detection tasks);2. Finetuner l’ensemble du réseau pré-entraîné sur la tâche cible (pour les tâches de détection). Contrastive Learning;Apprentissage contrastif Loss function: Embeddings from related images should be closer than embeddings from unrelated images.;Fonction de perte : les enchâssements d’images liées doivent être plus proches que les enchâssements d’images non liées. Different Contrastive Learning methods include:;Les différentes méthodes d’apprentissage contrastif comprennent : 1. Pretext-Invariant Representation Learning (PIRL);1. PIRL (Pretext-Invariant Representation Learning) 2. SimCLR;2. SimCLR (Simple Framework for Contrastive Learning of Visual Representations) 3. MoCo;3. MoCo (Momentum Contrast) An image i and its augmentation ItIt is passed through the network and the contrastive learning loss is applied in such a way that the network becomes invariant to the pretext task. The aim is to achieve high similarity for image and patch features belonging to the same image. And low similarity for features from other random images. The pretext task of PIRL tries to achieve invariance over data augmentations rather than predicting the data augmentation.;Une image i et son augmentation ItIt sont passées à travers le réseau et la perte d’apprentissage contrastive est appliquée de manière à ce que le réseau devienne invariant à la tâche de prétexte. L’objectif est d’obtenir une similarité élevée pour les caractéristiques de l’image et du patch appartenant à la même image ainsi qu’une faible similarité pour les caractéristiques provenant d’autres images aléatoires. La tâche prétexte de PIRL essaie d’obtenir une invariance sur les augmentations de données plutôt que de prédire l’augmentation des données. Semantic Features;Caractéristiques sémantiques A linear classifier is used at each layer to probe and compute the accuracy. One is trained using PIRL and other using Jigsaw.;Un classifieur linéaire est utilisé à chaque couche pour sonder et calculer la précision. L’un est entraîné en utilisant PIRL et l’autre en utilisant Jigsaw (tâche consistant à résoudre un puzzle). Jigsaw is trying to predict the permutation, whereas PIRL is trying to be invariant to it.;Jigsaw essaie de prédire la permutation, tandis que PIRL essaie d’y être invariant. Performance for PIRL keeps increasing indicating that the feature is becoming increasingly aligned to the downstream classification tasks.;Les performances de PIRL ne cessent d’augmenter, ce qui indique que la fonction est de plus en plus alignée sur les tâches de classification en aval. Jigsaw is trying to retain pretext information, the performance plateaues and then drops down sharply and it ends up not performing well for the transfer tasks.;Jigsaw essaie de retenir les informations de la tâche de prétexte, les performances plafonnent puis chutent brusquement. Il finit par ne pas être performant pour les tâches de transfert. Sampling Positives and Negatives;Échantillonnage des positifs et des négatifs There are many ways to obtain samples that make up related (positive) and unrelated (negative) pairs:;Il existe plusieurs façons d’obtenir des échantillons qui constituent des paires apparentées (positives) et non apparentées (négatives) : 1. Crops of an image: Contrastive Predictive Coding (CPC) based models use patches from one image that are close-by as positives (related) and patches that are far-away from each other as negatives (unrelated).;1. Patchs d’une image : les modèles basés sur le codage prédictif contrastif (CPC, Contrastive Predictive Coding en anglais) utilisent les zones d’une image qui sont proches les unes des autres comme positives (liées) et les zones qui sont éloignées les unes des autres comme négatives (non liées). 2. Crops across images: Patches from within one image are considered related and patches from 2 different images are considered unrelated. Used in MoCo and SimCLR;2. Patchs d’images : les patchs d’une même image sont considérés comme apparentés et les patchs de 2 images différentes sont considérés comme non apparentés. Utilisé dans MoCo et SimCLR 3. Videos: Frames that are closeby in temporal space are related, and those far-away are unrelated;3. Vidéos : les images qui sont proches dans l’espace temporel sont liées et celles qui sont éloignées ne sont pas liées. 4. Multimodal - Video and Audio: Video sequences along with their corresponding audio are related. Video sequences from one video and audio from another are unrelated.;4. Multimodal - Vidéo et audio : les séquences vidéo et les séquences audio correspondantes sont liées. Les séquences vidéo d’une vidéo et les séquences audio d’une autre vidéo ne sont pas liées. 5. Video Object Tracking: An object is tracked through multiple frames in a video. Detection patches from the same video are related. Detection patches from different videos are unrelated.;5. Pistage (tracking) d’objets vidéo : un objet est suivi à travers plusieurs images d’une vidéo. Les zones de détection d’une même vidéo sont liées. Les patchs de détection de différentes vidéos ne sont pas liés. What is the fundamental property of Contrastive Learning that prevents trivial solutions?;Quelle est la propriété fondamentale de l’apprentissage contrastif qui empêche les solutions triviales ? The objective function of Contrastive Learning is designed to prevent trivial solutions. The aim of the function is to make sure the distance between positive embedding pairs are smaller than the distance between negative embedding pairs. Hence, a trivial solution, where a constant distance is assigned to all embedding pairs, is impossible to attain through a minimization process on the given objective function. However, research has shown that good negative pairs are crucial for Contrastive Learning to work well.;La fonction objectif de l’apprentissage contrastif est conçue pour éviter les solutions triviales. L’objectif de la fonction est de s’assurer que la distance entre les paires d’enchâssements positives est inférieure à la distance entre les paires d’enchâssements négatives. Par conséquent, une solution triviale où une distance constante est attribuée à toutes les paires d’enchâssements est impossible à atteindre par un processus de minimisation de la fonction objective donnée. Cependant, les recherches ont montré que de bonnes paires négatives sont cruciales pour que l’apprentissage contrastif fonctionne bien. SimCLR;SimCLR In SimCLR, Simple Framework for Contrastive Learning of Visual Representations, two correlated views of an image are created using augmentations like random cropping, resize, color distortions and Gaussian blur. A base encoder is used along with a projection head to obtain representations that are used to perform contrastive learning.;Dans SimCLR, deux vues corrélées d’une image sont créées en utilisant des augmentations telles que des patchs aléatoire, le redimensionnement, les distorsions de couleur et le flou gaussien. Un encodeur de base est utilisé avec une tête de projection pour obtenir des représentations qui sont utilisées pour effectuer un apprentissage contrastif. It utilizes a large batch size to generate negative samples. The batch can be spread across multiple GPUs independently. Images from one GPU could be considered as negatives for those from another GPU.;Il utilise une grande taille de batch pour générer des échantillons négatifs. Le batch peut être réparti sur plusieurs GPUs de manière indépendante. Les images d’un GPU peuvent être considérées comme négatives pour celles d’un autre GPU. Advantages of SimCLR:;Avantages de SimCLR : 1. Simple to implement;1. Simple à implémenter Disadvantages of SimCLR:;Désavantages de SimCLR : 1. Large batch size required;1. Une grande taille de batch est requise 2. Large number of GPUs required;2. Un grand nombre de GPU est requis How do we solve the compute problem in the SimcLR?;Comment résoudre le problème de calcul dans SimcLR ? A Memory bank can be used to maintain a momentum of activations across all features. With each forward pass of an image, the memory bank features are updated using the new embeddings. These memory bank features can then be used as negatives for contrastive loss.;Une banque mémoire peut être utilisée pour maintenir un momentum d’activations sur toutes les caractéristiques. À chaque passage en avant d’une image, les caractéristiques de la banque mémoire sont mises à jour en utilisant les nouveaux enchâssements. Les caractéristiques de la banque mémoire peuvent ensuite être utilisées comme négatives pour la perte contrastive. Advantages of Memory bank:;Avantages de la banque mémoire : Compute efficient. Requires one Forward Pass to compute the embeddings.;Efficace en termes de calcul. Nécessite une seule passe en avant pour calculer les enchâssements. Drawbacks of Memory bank:;Inconvénients de la banque mémoire : Not online. Features become stale very fast.;Pas en ligne. Les fonctionnalités deviennent très vite obsolètes. Requires large amount of GPU RAM.;Nécessite une grande quantité de mémoire vive du GPU. Hard to scale storage to millions of images.;Difficile de faire évoluer le stockage vers des millions d’images. MoCo;MoCo MoCo, or, Momentum Contrast, is a contrastive method that utilizes a memory bank to maintain a momentum of activations. It works by using 2 encoders. The fθ encoder is the encoder that needs to be learnt. fθEMA​​ encoder maintains an exponential moving average of fθ​.;MoCo est une méthode contrastive qui utilise une banque mémoire pour maintenir un momentum d’activations. Elle fonctionne en utilisant 2 encodeurs. L’encodeur fθ est l’encodeur qui doit être appris. L’encodeur fθEMA​​ maintient une moyenne mobile exponentielle de fθ​. During Forward Pass, each sample is forwarded through both encoders. Some of the embeddings from fθEMA​​ are kept aside for use as negative embeddings. For the algorithm, original embeddings comes from fθ​, positive embeddings from fθEMA​​ and negative embeddings come from the set of stored embeddings.;Pendant la passe avant, chaque échantillon est passé à travers les deux encodeurs. Certains des enchâssements de fθEMA​​ sont gardés de côté pour être utilisés comme enchâssements négatifs. Pour l’algorithme, les enchâssements originales proviennent de fθ​, les enchâssements positives de fθEMA​​ et les enchâssements négatives proviennent de l’ensemble des enchâssements stockées. Advantages of MoCo:;Avantages de MoCo : Can easily be scaled in terms of memory usage as the full dataset need not be stored.;Peut être facilement adapté en termes d’utilisation de la mémoire car il n’est pas nécessaire de stocker l’ensemble des données. Is an online solution, as the moving average is continuously updated.;C’est une solution en ligne, car la moyenne mobile est continuellement mise à jour. Drawbacks of MoCo:;Inconvénients de MoCo : Two Forward Passes are required, one through fθfθ​ and another through fθEMA​​.;Deux passes avant nécessaires, une par fθfθ​ et une autre par fθEMA​​. Extra memory required for parameters/stored features.;Mémoire supplémentaire requise pour les paramètres/caractéristiques stockés. Clustering methods;Méthodes de clustering How CL and clustering are related to one another?;Comment l’apprentissage contrastif et le clustering sont liés l’un à l’autre ? In Constrastive Learning, each sample has corresponding positives and negatives, and the aim of the learning task is to try and bring together positive embeddings, while pushing apart negative embeddings. Essentially we are creating groups within the feature space.;Dans l’apprentissage constrastif, chaque échantillon comporte des éléments positifs et négatifs correspondants. Le but de la tâche d’apprentissage est d’essayer de rassembler les enchâssemnts positifs tout en repoussant les enchâssemnts négatifs. Nous créons donc essentiellement des groupes dans l’espace des caractéristiques. Clustering, on the other hand, is a more direct way to achieve grouping, as it naturally creates groups in the feature space.;Le clustering est un moyen plus direct de réaliser le regroupement car il crée naturellement des groupes dans l’espace des caractéristiques. SwAV;SwAV The SwAV (Swapping Assignments between Views) algorithm is an online clustering method. The idea here is to maximize the similarity of a given image i and augmentation of that image augment(I) and, in doing so, ensure they belong to the same cluster.;L’algorithme SwAV (Swapping Assignments between Views) est une méthode de clustering en ligne. L’idée ici est de maximiser la similarité d’une image donnée i et de l’augmentation de cette image augment(I) et, ce faisant, de s’assurer qu’elles appartiennent au même cluster. Samples and their augmentations are represented by different shades of the same color. The similarity of each sample’s embedding with each of the prototypes (cluster-centers) is computed. The sample is then assigned to the prototype with the highest similarity. The aim of the network is to assign an image and its augmentation to the same prototype.;Les échantillons et leurs augmentations sont représentés par différentes nuances de la même couleur. La similarité de l’enchâssement de chaque échantillon avec chacun des prototypes (centres des clusters) est calculée. L’échantillon est alors assigné au prototype ayant la plus grande similarité. L’objectif du réseau est d’affecter une image et son augmentation au même prototype. Can it lead to any trivial solution?;Peut-il conduire à une solution triviale ? A trivial solution is possible where every sample is assigned to the same group/cluster/prototype. This would cause a collapsed representation for any given input.;Une solution triviale est possible lorsque chaque échantillon est affecté au même groupe/cluster/prototype. Cela entraîne une représentation effondrée pour toute entrée donnée. How to avoid trivial solution?;Comment éviter la solution triviale ? Equipartition constraint;Contrainte d’équipartition Given n samples and k partitions, each cluster is allowed to have a maximum of n/k samples. Embeddings are equally partitioned and this prevents the single cluster trivial solution. Optimal-transport based clustering methods such as the Sinkhorn-Knopp algorithm inherently guarantees the constraint.;Étant donné N échantillons et kk partitions, chaque cluster est autorisé à avoir un maximum de n/k échantillons. Les enchâssements sont partitionnés de manière égale ce qui empêche la solution triviale du cluster unique. Les méthodes de clustering basées sur le transport optimal, comme l’algorithme de Sinkhorn-Knopp, garantissent intrinsèquement la contrainte. Soft assignment;Affectation douce 1. In soft assignment, a sample belongs to all prototypes with some proportion of each, such that they all sum up to 1.0. The composition values can be treated as a code that indicates how each embedding is encoded in the ‘prototype’ space.;1. Dans l’affectation douce, un échantillon appartient à tous les prototypes avec une certaine proportion de chacun d’entre eux, de sorte que leur somme soit égale à 1. Les valeurs de composition peuvent être traitées comme un code qui indique comment chaque enchâssement est codé dans l’espace prototype. Consider the case where we have a high class imbalance. If we use the equipartition method, then won’t that give inacurate results?;Considérons le cas où nous avons un déséquilibre de classe élevé. Si nous utilisons la méthode d’équipartition, cela ne donnera-t-il pas des résultats inexacts ? Soft assignment solves this problem by representing a lot more classes (logically) than hard assignment. It gives a richer representation and is less sensitive to k (number of classes) and hence k/n. However, if hard assignment is used, the class imbalance and the fixed value of n/k will create inaccuracies.;L’affectation douce résout ce problème en représentant beaucoup plus de classes que l’affectation dure. Elle donne une représentation plus riche et est moins sensible à k (nombre de classes) et donc à k/n. Cependant, si l’affectation dure est utilisée, le déséquilibre des classes et la valeur fixe de n/k créeront des imprécisions. Training SwAV:;Entraînement de SwAV : 2 crops from an image are passed through the network to compute the corresponding codes. The 2nd2nd code is then predicted from the 1st embedding and vice versa. This task forces the network to become invariant to data augmentations. Gradients are backpropagated onto the prototypes as well. Hence this model is updated in an online manner.;Deux patchs d’une image sont passés par le réseau pour calculer les codes correspondants. Le code 22 est alors prédit à partir de l’enchâsement 1 et vice versa. Cette tâche force le réseau à devenir invariant aux augmentations de données. Les gradients sont également rétropropagés sur les prototypes. Ce modèle est donc mis à jour en ligne. Advantages of SwAV:;Avantages de SwAV : 1. No explicit negatives needed;1. Pas besoin de négations explicites 2. Optimal transport methods avoid trivial solutions.;2. Les méthodes de transport optimales évitent les solutions triviales 3. Faster convergence than contrastive learning.;3. Convergence plus rapide que l’apprentissage contrastif The code space imposes more constraints and the embeddings are not directly compared.;L’espace des codes impose plus de contraintes et les enchâsements ne sont pas directement comparés 4. Less compute requirements.;4. Moins d’exigences en matière de calcul 5. Smaller number (4-8) of GPUs required.;5. Un plus petit nombre (4-8) de GPUs est nécessaire Pretraining on ImageNet without labels:;Pré-entraînement sur ImageNet sans étiquettes : Even though ImageNet without labels can be used for self supervised learning, there is an inherent bias in the dataset due to the curation/hand-selection process involved.;Même si ImageNet sans étiquettes peut être utilisé pour l’apprentissage autosupervisé, il existe un biais inhérent dans le jeu de données en raison du processus de sélection impliqué. 1. Images belong to 1000 specific classes;1. Les images appartiennent à 1000 classes spécifiques 2. Images contain a prominent object;2. Les images contiennent un objet proéminent 3. Images have very limited clutter and very few background concepts;3. Les images ont un encombrement très limité et très peu de concepts de fond Pretraining on Non-ImageNet data;Pré-entraînement sur des données non-ImageNet Pretraining on Non-ImageNet data hurts performance.;Le pré-entraînement sur des données non-ImageNet nuit aux performances. Consider the above image. One crop has a refrigerator and the other crop could be that of a table/chair. The algorithm would try to create similar embeddings for both of them, because they belong to the same image. This is not what we expect from the training process.;Considérons l’image ci-dessus. Un patch présente un réfrigérateur et l’autre pourrait être celui d’une table/chaise. L’algorithme essaie de créer des enchâssements similaires pour les deux car ils appartiennent à la même image. Ce n’est pas ce que nous attendons du processus d’entraînement. Real world data has very different distributions. They may sometimes even be cartoon images or memes, and there is no guarantee that an image will contain a single (or sometimes, any) prominent object.;Les données du monde réel ont des distributions très différentes. Il peut même s’agir d’images de dessins animés ou de memes et rien ne garantit qu’une image contiendra un seul (ou parfois, n’importe quel) objet proéminent. SEER, AVID + CMA, Distillation, Barlow Twins;SEER, AVID + CMA, Distillation, Barlow Twins SEER: Learning from uncharted Images;SEER : Apprendre à partir d’images non répertoriées Compared to Imagenet dataset, real world images may have different distributions (cartoons, memes) and may or may not have a prominent object. In order to verify if the models work well on images outside of Imagenet dataset we decided to test Swav method on large scale data. SEER is Swav method tested on billions of unfiltered images.;Par rapport au jeu de données Imagenet, les images du monde réel peuvent avoir des distributions différentes (dessins animés, memes) et avoir ou non un objet proéminent. Afin de vérifier si les modèles fonctionnent bien sur des images en dehors de la base de données Imagenet, les auteurs de SEER ont décidé de tester la méthode SWAV sur des données à grande échelle. SEER (SElf-supERvised) est donc la méthode SWAV testée sur des milliards d’images non filtrées. Following graph compares the fine tune performance of the four models when transferred to Imagenet. Using SEER method, a model can be trained with more than a billion parameters which are going to transfer really well to Imagenet.;Le graphique suivant compare les performances des quatre modèles finetunés sur Imagenet. En utilisant la méthode SEER, un modèle peut être entraîné avec plus d’un milliard de paramètres qui vont se transférer très bien à Imagenet. As shown in the following table, the performance of SEER is comparable to the networks trained on curated data with weak supervision.;Comme le montre le tableau suivant, les performances de SEER sont comparables à celles des réseaux entraînés sur des données organisées avec une supervision faible. AVID + CMA;AVID + CMA Audio Visual Instance Discrimination with Cross Modal Agreement is a method that combines contrastive learning and clustering techniques.;Audio Visual Instance Discrimination with Cross Modal Agreement est une méthode qui combine l’apprentissage contrastif et les techniques de clustering. For contrastive leaning on an Audio-Video dataset, when the (audio-video) inputs are passed to the two encoders (fa,fv​) we will get two embeddings (audio and video). The embeddings from the same sample should be close in feature space compared to embeddings from different samples.;Pour l’apprentissage contrastif sur un jeu de données audio-vidéo, lorsque les entrées (audio-vidéo) sont transmises aux deux encodeurs (fa,fv), nous obtenons deux enchâssements (audio et vidéo). Les enchâssements d’un même échantillon doivent être proches dans l’espace des caractéristiques par rapport aux enchâssements de différents échantillons. To introduce the clustering, the notion of the positives and negatives is expanded as shown in the following image. Computing the similarities in the video and audio embeddings from a reference point to all the other samples results in Positive Set and Negative Set. A sample falls into positive set when both its audio and video embeddings are similar to the reference embeddings.;Pour introduire le clustering, la notion de positifs et négatifs est étendue comme le montre l’image suivante. Le calcul des similarités dans les enchâssements vidéo et audio à partir d’un point de référence vers tous les autres échantillons donne lieu à un ensemble positif et un ensemble négatif. Un échantillon tombe dans l’ensemble positif lorsque ses enchâssements audio et vidéo sont tous deux similaires aux enchâssements de référence. Distillation;Distillation Distillation methods are similarity maximization based methods. Like other SSL methods distillation tries to prevent trivial solutions. It does so by asymmetry in two different ways.;Les méthodes de distillation sont des méthodes basées sur la maximisation de la similarité. Comme les autres méthodes d’apprentissage autosupervisé, la distillation tente d’empêcher les solutions triviales. Elle le fait par l’asymétrie de deux manières différentes : Asymmetric learning rule between student teacher;1. Règle d’apprentissage asymétrique entre l’étudiant et l’enseignant. Asymmetric architecture between student teacher;2. L’architecture asymétrique entre l’étudiant et l’enseignant. BYOL;BYOL BYOL is a distillation technique whose architecture is shown below.;BYOL (Bootstrap Your Own Latent) est une technique de distillation dont l’architecture est présentée ci-dessous. There is an asymmetry in architecture between student teacher as student has an additional prediction head. The gradient backpropagation only happens through Student encoder clearly creating an asymmetry in learning rate. In BYOL there is an additional source of asymmetry which is in weights of student encoder and teacher encoder. Teacher encoder is created as moving average of student encoder. These asymmetries will prevent the model from trivial solutions.;Il y a une asymétrie dans l’architecture entre l’étudiant et l’enseignant car l’étudiant a une tête de prédiction supplémentaire. La rétropropagation du gradient ne se fait qu’à travers l’encodeur de l’étudiant créant clairement une asymétrie dans le taux d’apprentissage. Dans BYOL, il y a une source supplémentaire d’asymétrie qui se trouve dans les poids de l’encodeur de l’étudiant et de l’encodeur de l’enseignant avec l’encodeur de l’enseignant qui est créé comme une moyenne mobile de l’encodeur de l’étudiant. Ces trois asymétries vont empêcher le modèle d’avoir des solutions triviales. SimSiam;SimSiam Recent studies showed that all the three sources of asymmetry discussed in BYOL are not needed to prevent the trivial solutions. In SimSiam architecture the student and teacher share the same set of weights and there are two sources of asymmetry.;Des études récentes ont montré que les trois sources d’asymétrie présentes dans BYOL ne sont pas nécessaires pour empêcher les solutions triviales. Dans l’architecture SimSiam (Simple Siamese), l’étudiant et l’enseignant partagent le même ensemble de poids et il existe deux sources d’asymétrie : In architecture of student encoder with an additional predictor head.;1. Dans l’architecture de l’encodeur de l’étudiant avec une tête de prédiction supplémentaire. In learning rate, when backpropagating the gradients are passed only through student encoder but not the teacher encoder. After each epoch, the weights of student encoder are copied to the teacher encoder.;2. Dans le taux d’apprentissage, lors de la rétropropagation, où les gradients ne passent que par l’encodeur de l’étudiant mais pas par celui de l’enseignant. Après chaque époque, les poids de l’encodeur étudiant sont copiés dans l’encodeur de l’enseignant. Barlow Twins;Barlow Twins Hypothesis from information theory;Hypothèse issue de la théorie de l’information The efficient coding hypothesis was proposed by Horace Barlow in 1961 as a theoretical model of sensory coding in the brain. Within the brain, neurons communicate with each other by sending electrical impulses called spikes. Barlow hypothesised that the spikes in the sensory system form a neural code for efficiently representing sensory information. By efficient, Barlow meant that the code minimises the number of spikes needed to transmit a given signal.;L’hypothèse du codage efficace a été proposée par Horace Barlow en 1961 comme modèle théorique du codage sensoriel dans le cerveau. Barlow a émis l’hypothèse que les impulsions électriques dans le cerveau forment un code neuronal permettant de représenter efficacement les informations sensorielles. C’est-à-dire que ce code minimise le nombre d’impulsions nécessaires pour transmettre un signal donné notamment d’un point de vue énergétique notamment. Cette hypothèse est basée sur la théorie de l’information. Implementation;Mise en œuvre The Barlow Twins method proposes an objective function that naturally avoids such collapse by measuring the cross-correlation matrix between the outputs of two identical networks fed with distorted versions of a sample and making them as close as possible to the identity matrix.;La méthode des Barlow Twins propose une fonction objectif qui évite naturellement l’effondrement causé par les solutions triviales. Elle mesure la matrice de corrélation croisée entre les sorties des deux réseaux identiques (ayant préalablement eu en entrée des versions déformées d’un échantillon) et en les rendant aussi proches que possible de la matrice d’identité. Barlow’s redundancy-reduction principle applied to a pair of identical networks. The objective function measures the cross-correlation matrix between the output features of two identical networks fed with distorted versions of a batch of samples and attempts to bring this matrix close to the identity. This causes the representation vectors of distorted versions of a sample to be similar, while minimizing the redundancy between the components of these vectors (Figure 7).;Les vecteurs de représentation des versions déformées d’un échantillon sont ainsi similaires, tout en minimisant la redondance entre les composantes de ces vecteurs (figure 7). More formally, it produces two distorted views for all images of a batch X. The distorted views are obtained via a distribution of data augmentations T. The two batches of distorted views YA and YB are then fed to a function fθ​, typically a deep network with trainable parameters θ, producing batches of representations ZA and ZB respectively.;Plus formellement, cela produit deux vues déformées pour toutes les images d’un batch X. Les vues déformées sont obtenues via une distribution d’augmentations de données T. Les deux batchs de vues déformées YA et YB sont ensuite soumis à une fonction fθ​, typiquement un réseau profond avec des paramètres entraînables θ, produisant respectivement des batchs de représentations ZA et ZB. The loss function LBT​ contains a invariance and redundancy reduction:;La fonction de perte LBT​ contient un terme d’invariance et un terme de réduction de la redondance : where Λ is a constant controlling the importance of the first and second terms of the loss, and where c is the cross-correlation matrix computed between the outputs of the two identical networks along the batch dimension:;où Λ est une constante contrôlant l’importance des premier et deuxième termes de la perte. Et on a c la matrice de corrélation croisée calculée entre les sorties des deux réseaux identiques le long de la dimension du batch : where b indexes batch samples and i,j index the vector dimension of the networks’ outputs. c is a square matrix with size the dimensionality of the network’s output. In other words;où b indexe les échantillons de batch et i,j indexe la dimension vectorielle des sorties des réseaux. c est une matrice carrée dont la taille correspond à la dimension de la sortie du réseau. Intuitively, the invariance term of the objective, by trying to equate the diagonal elements of the cross-correlation matrix to 1, makes the representation invariant to the distortions applied. The redundancy reduction term, by trying to equate the off-diagonal elements of the cross-correlation matrix to 0, decorrelates the different vector components of the representation. This decorrelation reduces the redundancy between output units, so that the output units contain non-redundant information about the sample.;Intuitivement, en essayant d’égaliser les éléments diagonaux de la matrice de corrélation croisée à 1, le terme d’invariance de l’objectif rend la représentation invariante aux distorsions appliquées. En essayant d’égaliser les éléments hors diagonale de la matrice de corrélation croisée à 0, le terme de réduction de la redondance décorréle les différentes composantes vectorielles de la représentation. Cette décorrélation réduit la redondance entre les unités de sortie, de sorte que les unités de sortie contiennent des informations non redondantes sur l’échantillon. Transformer Encoder-predictor-decoder architecture;Architecture encodeur-predicteur-décodeur d'un transformer The Transformer;Le transformer Before elaborating the encoder-predictor-decoder architecture, we are going to review two models we’ve seen before.;Avant d’élaborer l’architecture encodeur-prédicteur-décodeur, nous allons passer en revue deux modèles que nous avons déjà vus. Conditional EBM latent variable architecture;Architecture d’un EBM conditionnel à variable latente We should be familiar with the terminology of these modules from the previous lectures. In the conditional EBM latent variable architecture, we have x the conditional variable which goes into a predictor. We have y which is the target value. The decoder modules will produce y~​ when fed with a latent variable z and the output of the predictor. EE is the energy function which minimizes the energy between y~​ and y~.;Dans l’architecture d’un EBM conditionnel à variable latente, nous avons x la variable conditionnelle qui va dans un prédicteur. Nous avons y qui est la valeur cible. Les modules de décodage produisent y~​ lorsqu’on leur donne une variable latente z et la sortie du prédicteur. E est la fonction d’énergie qui minimise l’énergie entre y~​ et y~. Autoencoder architecture;Architecture d’un auto-encodeur In Autoencoder architecture , we observed there is no conditional input but only a target variable. The entire architecture is trying to learn the structure in these target variables. The target value y is fed through an encoder module which transforms into a hidden representation space, forcing only the most important information through. And the decoder will make these variables come back to the original target space with a y~​. And the cost function will try to minimize the distance between y~​ and y~.;Dans l’architecture d’un auto-encodeur, nous avons observé qu’il n’y a pas d’entrée conditionnelle mais seulement une variable cible. L’architecture entière essaie d’apprendre la structure de ces variables cibles. La valeur cible y est introduite dans un module encodeur qui la transforme en un espace de représentation caché, ne laissant passer que les informations les plus importantes. Et le décodeur fera en sorte que ces variables reviennent à l’espace cible original avec une valeur y~​. La fonction de coût va essayer de minimiser la distance entre y~​ et y~. Encoder-predictor-decoder architecture;Architecture de l’encodeur-prédicteur-décodeur In a transformer, y (target sentence) is a discrete time signal. It has discrete representation in a time index. The y is fed into a unit delay module succeeded by an encoder. The unit delay here transforms y[j]↦y[j−1]. The only difference with the autoencoder here is this delayed variable. So we can use this structure in the language model to produce the future when given the past.;Dans un transformer, y (phrase cible) est un signal temporel discret. Il a une représentation discrète dans un index temporel. Le y est introduit dans un module de retard unitaire suivi d’un encodeur. Le retard unitaire transforme ici y[j]↦y[j−1] La seule différence avec l’auto-encodeur ici est cette variable retardée. Nous pouvons donc utiliser cette structure dans le modèle de langage pour produire le futur lorsqu’on nous donne le passé. The observed signal, x (source sentence) , is also fed through an encoder. The output of both encoder and delayed encoder are fed into the predictor, which gives a hidden representation h. This is very similar to denoising autoencoder as the delay module acts as noise in this case. And x here makes this entire architecture a conditional delayed denoising autoencoder.;Le signal observé, x (phrase source) passe également par un encodeur. La sortie de l’encodeur et de l’encodeur retardé est introduite dans le prédicteur qui donne une représentation cachée h. Ceci est très similaire à l’auto-encodeur débruiteur car le module de retard agit comme un bruit dans ce cas. x fait de cette architecture entière un auto-encodeur débruiteur conditionnel retardé. Encoder module;Module encodeur You can see the detailed explanation of these modules from last year’s slides here.;Vous pouvez voir l’explication détaillée de ce module dans les notes de l’année dernière disponibles ici. Predictor Module;Module prédicteur The transformer predictor module follows a similar procedure as the encoder. However, there is one additional sub-block (i.e. cross-attention) to take into account. Additionally, the output of the encoder modules acts as the inputs to this module.;Le module prédicteur du transformer suit une procédure similaire à celle de l’encodeur. Cependant, il y a un sous-bloc supplémentaire (c’est-à-dire l’attention croisée) à prendre en compte. De plus, la sortie des modules encodeurs agit comme les entrées de ce module. Cross attention;Attention croisée You can see the detailed explanation of cross attention from last year’s slides cross-attention.;Vous pouvez consulter l’explication détaillée de l’attention croisée dans les notes de l’année dernière disponibles ici. Decoder module;Module décodeur Contrary to what authors of the Transformer paper define, the decoder module consists of 1D-convolution and Add, Norm blocks. The output of the predictor module is fed to the decoder module and the output of the decoder module is the predicted sentence. We can train this by providing the delayed target sequence.;Contrairement à ce que les auteurs du papier du transformer définissent, le module décodeur est composé de blocs 1D-convolution et Add, Norm. La sortie du module prédicteur est introduite dans le module décodeur et la sortie du module décodeur est la phrase prédite. On peut l’entraîner en fournissant la séquence cible retardée. We provide an introduction to the problem of speech recognition using neural models, emphasizing the CTC loss for training and inference when input and output sequences are of different lengths.;Nous présentons une introduction au problème de la reconnaissance de la parole à l’aide de modèles neuronaux en mettant l’accent sur la perte CTC (Connectionist Temporal Classification) pour l’entraînement et l’inférence lorsque les séquences d’entrée et de sortie sont de longueurs différentes. We discuss beam search for use during inference, and how that procedure may be modeled at training time using a Graph Transformer Network. Graph transformers networks are basically weighted finite-state automata with automatic differentiation, that allows us to encode priors into a graph. There are different type of weighted finite-state and different operations including union, Kleene closure, intersection, compose, and forward score. The loss function is usually the difference between to functions. We can easily implement these networks using GTN library.;Nous discutons de l’utilisation de la recherche en faisceau pendant l’inférence ainsi que de la façon dont cette procédure peut être modélisée au moment de l’entraînement d’un Graph Transformer Network (GTN). Les GTNs sont essentiellement des « accepteur d’état fini pondéré » (WFSA pour « Weighted Finite State Acceptor ») avec différenciation automatique permettant d’encoder des a priori dans un graphe. Il existe différents types d’états finis pondérés et opérations, notamment l’union, l’étoile de Kleene, l’intersection, la composition et le score forward. La fonction de perte est généralement la différence entre deux fonctions. Nous pouvons facilement implémenter ces réseaux en utilisant la bibliothèque gtn. Speech Recognition and Graph Transformer Network I;Reconnaissance vocale et Graph Transformer Network I Modern Speech Recognition;Reconnaissance de la parole moderne Automatic speech recognition has greatly improved since 2012;La reconnaissance automatique de la parole s’est grandement améliorée depuis 2012 Machine performance can be as good or better than human level performance;La performance de la machine peut être aussi bonne ou meilleure que la performance humaine. Speech recognition still struggles in;La reconnaissance vocale a encore des difficultés dans le cadre : conversational speech;d’un discours conversationnel, multiple speakers;de plusieurs locuteurs, lots of background noise;de beaucoup de bruit de fond, the accent of the speakers;de l’accent des locuteurs, certain features not well represented in the training data;de certaines caractéristiques ne sont pas bien représentées dans les données d’entraînement. Pre 2012 speech recognition systems consisted of lots of many hand engineered components;Les systèmes de reconnaissance vocale d’avant 2012 étaient constitués d’un grand nombre de composants conçus à la main : larger dataset is not useful so datasets remain small;un grand ensemble de données n’est pas utile donc les jeux de données sont petits, combining modules only at inference time instead of learning them together allowed for errors to cascade;la combinaison des modules uniquement au moment de l’inférence (au lieu de les apprendre ensemble) a entraîné des erreurs en cascade, researchers hard to know how to improve complex systems;les chercheurs ont du mal à savoir comment améliorer les systèmes complexes. Post 2012 speech recognition systems improvements;Améliorations des systèmes de reconnaissance vocale après 2012 : replaced a lot of the traditional components;remplacement d’une grande partie des composants traditionnels, add more data;ajout de plus de données, above two together work in a virtuous cycle;les deux éléments ci-dessus fonctionnent ensemble dans un cycle vertueux. The CTC Loss;La perte Connectionist Temporal Classification Given some input speech utterance X, which consists of T frames of audio. We desire to produce a transcription y and we’ll think of our transcription as consisting of the letters of a sentence, so y1​ is the first letter yU​ is the last letter.;Étant donné un audio en entrée x composé de T trames d’audio, nous souhaitons produire une transcription y~. Nous considérerons que notre transcription est constituée de lettres donc y1​ est la première lettre yU​ est la dernière lettre. Compute conditional probability(the score) to evaluate transcription, we want to maximize the probability.;Nous voulons maximiser la probabilité conditionnelle (le score) pour évaluer la transcription : Example 1;Exemple 1 XX has three frames, y has three letters, the number of inputs matches the number of outputs, it’s easy to compute the probability by one to one mapping.;X a trois images, y a trois lettres. Le nombre d’entrées correspond au nombre de sorties, c’est donc facile de calculer la probabilité par correspondance un à un. Example 2;Exemple 2 Which alignment should we use to compute the score? All of them. We’re going to try to increase the score of all alignments and then hope the model sorts things out internally. The model can decide to optimize these different alignments and weight them accordingly and learn which one is the best.;Quel alignement devons-nous utiliser pour calculer le score ? Tous. Nous allons essayer d’augmenter le score de tous les alignements et espérer que le modèle fera le tri en interne. Le modèle peut décider d’optimiser ces différents alignements, les pondérer en conséquence et apprendre lequel est le meilleur. Reminder: use actual-softsoftmax to sum log probabilities.;Rappel : utilisez l’actual-softsoftmax pour additionner les probabilités logarithmiques. Alignment graph;Graphe d’alignement Alignment graph is a way to encode the set of possible alignments to an arbitrary length input.;Le graphe d’alignement est un moyen de coder l’ensemble des alignements possibles sur une entrée de longueur arbitraire. This graph is sometimes called weighted finite state acceptor (WFSA). The bold state marked 0 at the beginning is a start state, the concentric circle marked 3 is an accepting state. On each edge, there’re a label and a weight on both sides of a slash. Any path in this graph is an encoding of an alignment.;Ce graphe est parfois appelé « accepteur d’états finis pondérés » (ou WFSA pour weighted finite state acceptor). L’état gras 0 au début est un état de départ, le cercle concentrique 3 est un état d’acceptation. Sur chaque arête, il y a une étiquette et un poids de part et d’autre d’une barre oblique (tous les poids valant 0 dans l’image ci-dessus). Tout chemin dans ce graphe est un encodage d’un alignement. Problem: too many alignments;Problème : trop d’alignements There’s a problem when using all of the alignments. The x input audio can have lots of frames, in practice they can be as high as thousands. The y transcription can have lots of letters, in practice it can be hundreds or more. This is an astronomically large number of alignments, so we can’t compute individual score and sum all of them.;Il y a un problème lorsque l’on utilise tous les alignements. L’entrée audio x peut avoir beaucoup de trames (en pratique elles peuvent être des milliers). La transcription y peut contenir beaucoup de lettres (en pratique des centaines ou plus). Il s’agit donc d’un nombre astronomique d’alignements, nous ne pouvons donc pas calculer un score individuel et tous les additionner. Solution: the forward algorithm(dynamic programming);Solution : l’algorithme forward (programmation dynamique) Define forward variable αtu​, the subscript t is where we are in the input and the superscript u is where we are in the output. This represents the score for all alignments of length t which end in the output yu​.;Dans la variable forward αtu​, l’indice t est l’endroit où nous sommes dans l’entrée et l’exposant u est l’endroit où nous sommes dans la sortie. Elle représente le score pour tous les alignements de longueur t qui se terminent dans la sortie yu​. Suppose X=[x1,x2,x3,x4],Y=[c,a,t], the forward variable α2c​ represents the score of all possible alignments of length two up to the first two frames that ends in c in the first output of the transcription. There’s only one possible alignment for that x1→c, x2→c. This is simple to compute.;Supposons que X=[x1​,x2​,x3​,x4​], Y=[c,a,t], la variable forward α2c​ représente le score de tous les alignements possibles de longueur deux jusqu’aux deux premières trames qui se termine par c dans la première sortie de la transcription. Il n’y a qu’un seul alignement possible pour ce x1→c, x2→c. C’est donc simple à calculer : where P(at∣X) are the output logits of a system such as an RNN. That is, to compute the likelihood of the transcript y we must marginalize over an intractably large number of alignments. We may do this with a recursive decomposition of the forward variable.;où P(at∣X) sont les logits de sortie d’un système tel qu’un RNN. En d’autres termes, pour calculer la vraisemblance de la transcription y~, nous devons marginaliser sur un nombre irréductiblement grand d’alignements. Nous pouvons le faire avec une décomposition récursive de la variable directe. Now, suppose yi=yi+1​, so that z contains a subsequence yi,ϵ,yi+1​, and suppose yi+1​ occurs at psosition s in Z. Then the alignment for αst​ can be arrived at by one of two ways: either the prediction at time t−1 can be yi+1​ (in which case the repetition is collapsed) or else the prediction at time t−1 can be epsilon. So, we may decompose:;Supposons maintenant que yi​=yi+1​, de sorte que z contient une sous-séquence yi,ϵ,yi+1​, et supposons que yi+1 se trouve à la position s dans Z. Alors l’alignement pour αst peut être obtenu de deux manières : soit la prédiction au temps t−1 peut être yi+1​ (auquel cas la répétition est collapsée), soit la prédiction au temps t−1 peut être epsilon. On peut donc décomposer : where the elements of the sum represent the two possible prefixes to the alignment. If, on the other hand, we have yi≠yi+1​ then there is the additional third possibility that the prediction at time t−1 is equal to yi​. So, we have the decomposition;où les éléments de la somme représentent les deux préfixes possibles de l’alignement. Si, d’autre part, nous avons yi≠yi+1​ alors il y a la troisième possibilité supplémentaire que la prédiction au temps t−1 soit égale à yi​. Ainsi, nous avons la décomposition By computing α∣Z∣T​, we may effectively marginalize over all possible alignments between the transcript y and the audio X, allowing efficient training and inference. This is called Connectionist Temporal Classification, or CTC.;En calculant α∣Z∣T, nous pouvons effectivement marginaliser tous les alignements possibles entre la transcription y et l’audio X, ce qui permet un apprentissage et une inférence efficaces. C’est ce qu’on appelle la Connectionist Temporal Classification ou CTC. Speech Recognition and Graph Transformer Network II;Reconnaissance vocale et Graph Transformer Network II Inference Time;Temps d’inférence The inference of a transcription from a given audio signal can be formulated using 2 distributions:;L’inférence pour obtenir la transcription d’un signal audio donné peut être formulée en utilisant deux distributions : The acoustic model (audio to transcription), represented as P(Y∣X);Le modèle acoustique (de l’audio à la transcription), représenté par P(Y∣X). The language model, P(Y);Le modèle de langage, représenté par P(Y). The final inference is obtained by taking sum of the log probabilities of the above two, i.e.;L’inférence finale est obtenue en prenant la somme des probabilités logarithmiques de ces deux modèles, c’est-à-dire : We use the additional term to ensure the transcription is consistent with the rules of the language. Else we may get grammatically wrong transcription.;Nous utilisons le terme supplémentaire pour nous assurer que la transcription est conforme aux règles de la langue. Sinon, nous risquons d’obtenir une transcription grammaticalement incorrecte. Beam Search;Recherche en faisceau While returning an output sequence, we can follow the greedy approach, where we take the maximum value of P(yt∣yt−1…y1);Lors de la génération d’une séquence, nous pouvons suivre l’approche gloutonne où nous prenons la valeur maximale de P(yt∣yt−1…y1). However, we can end up missing out a good sequence, which may not have the maximum value of P(yt∣…), as illustrated by the example below.;Cependant, nous pouvons manquer une bonne séquence qui peut ne pas avoir la valeur maximale de P(yt∣…) comme l’illustre l’exemple ci-dessous. To remedy this, we employ beam search. Essentially, we consider maximum k tokens in terms of probability at each step t of the sequence. For each of these n-grams, we proceed further and find out the maximum.;Pour remédier à cela, nous employons la recherche en faisceau. Grossièrement, nous considérons les jetons maximum k en termes de probabilité à chaque étape t de la séquence. Pour chacun de ces n-grammes, nous poursuivons la recherche et trouvons le maximum. The illustration below shows how Beam Search can lead to a better sequence.;L’illustration ci-dessous montre comment la recherche en faisceau peut conduire à une meilleure séquence. This lecture introduces the topic of Neural Machine Translation with the help of an example. We then discuss language modelling, model architecture, NMT inference. Further, we discuss the issues faced because of the languages and the need for Low Resource Machine Translation. Also, we examine a case study and the challenges faced in Low Resource MT, different stages in the cycle of research, how they can be used for Machine Translation.;Cette conférence introduit le sujet de la traduction automatique neuronale à l’aide d’un exemple. Nous abordons la modélisation du langage, l’architecture du modèle et l’inférence de la traduction automatique neuronale. En outre, nous discutons des problèmes rencontrés en raison des langues et de la nécessité d’une traduction automatique à faibles ressources. Nous examinons également une étude de cas, les différentes étapes du cycle de recherche et la manière dont elles peuvent être utilisées pour la traduction automatique. The first part of Lecture B focuses on understanding low resource machine translation, and the second half discusses potential domain mismatches in machine learning and machine translation.;La première partie de cette partie B se concentre sur la compréhension de la traduction automatique à faibles ressources et la seconde partie discute des incompatibilités potentielles entre les domaines de l’apprentissage automatique et de la traduction automatique. We introduced the state transition function and the way to model a physical system with state and control. We discussed how to achieve optimal control by inference using Kelley-Bryson algorithm, which utilizes backprop through time and gradient descent. Finally, we explained the notebook of Optimization_Path_Planner, in which various cost functions are defined and path planning is implemented to guide a tri-cycle to reach the desired position with the specified speed.;Nous introduisons la fonction de transition d’état et la manière de modéliser un système physique avec état et contrôle. Nous avons discuté de la manière d’obtenir un contrôle optimal par inférence en utilisant l’algorithme de Kelley-Bryson qui utilise la rétropropagation dans le temps et la descente de gradient. Enfin, nous voyons dans un notebook diverses fonctions de coût et la planification d’une trajectoire pour guider un tricycle afin qu’il atteigne la position souhaitée avec la vitesse spécifiée. Low Resource Machine Translation I;Traduction automatique à faibles ressources I Neural Machine Translation (NMT);Traduction automatique neuronale Neural Machine Translation (NMT) is an end-to-end learning approach for automated translation, with the potential to overcome many of the weaknesses of conventional phrase-based translation systems. Its architecture typically consists of two parts, one to consume the input text sequence (encoder) and one to generate translated output text (decoder). NMT is often accompanied by an attention mechanism which helps it cope effectively with long input sequences. The decoder learns to (soft) align via attention. A translation example from Italian to English is shown in the figure below:;La traduction automatique neuronale (NMT pour Neural Machine Translation) est une approche d’apprentissage de bout en bout pour la tâche de traduction ayant le potentiel de surmonter bon nombre des faiblesses des systèmes de traduction conventionnels basés sur les phrases. Son architecture se compose généralement de deux parties, l’une prenant la séquence de texte d’entrée (encodeur) et l’autre pour générer le texte de sortie traduit (décodeur). La NMT est souvent accompagnée d’un mécanisme d’attention qui l’aide à faire face efficacement aux longues séquences d’entrée. Le décodeur apprend à s’aligner (en douceur) par le biais de l’attention. Un exemple de traduction de l’italien vers l’anglais est présenté dans la figure ci-dessous : Parallel Dataset;Jeux de données parallèles A parallel dataset contains a collection of original texts in language L1 and their translations into languages L2 (or consist of texts of more than two languages). As shown in the figure below, it can be used as labelled data to train NMT systems.;Un jeu de données parallèles contient une collection de textes originaux dans une langue L1 et leurs traductions dans une langue L2 (ou consiste en des textes de plus de deux langues). Comme le montre la figure ci-dessous, il peut être utilisé comme données étiquetées pour entraîner les systèmes de NMT. Train NMT;Entraîner la NMT The standard way of training NMT is by using maximum likelihood. Give a source sentence x and the model parameters θ, we will seek to maximize the log likelihood of the joint probability of all the ordered sequence of tokens in the target sentence y~, as illustrated by the equation below:;La méthode standard d’entraînement de la NMT consiste à utiliser le maximum de vraisemblance. Étant donné une phrase source x et les paramètres du modèle θ, nous chercherons à maximiser la vraisemblance logarithmique de la probabilité conjointe de toutes les séquences ordonnées de tokens dans la phrase cible y~. L’équation ci-dessous l’illustre : It is used as a score to indicate how likely the target sentence actually to be a translation from the source sentence. A minus sign is added in front of the equation to turn this into a minimization problem.;C’est utilisé comme un score pour indiquer la probabilité que la phrase cible soit réellement une traduction de la phrase source. Un signe moins est ajouté devant l’équation pour transformer celle-ci en un problème de minimisation. Language Model;Modèle de langage In language modelling, given a token xt​ at time t, we are trying to predict the next word yt​. As shown in the figure below, hidden state zt is generated by a RNN/CNN/Transformer block depending on the input vector xt​ and the previous hidden state zt−1​.;Dans la modélisation du langage, étant donné un token xt​ au temps t, nous essayons de prédire le mot suivant yt​. Comme le montre la figure ci-dessous, l’état caché zt est généré par un bloc RNN/ConvNet/Transformer en fonction du vecteur d’entrée xt​ et de l’état caché précédent zt−1​. Encoder-Decoder Architecture (Seq2Seq);Architecture encodeur-décodeur (Seq2Seq) Given a parallel dataset (with source sentences and target sentences), we can make use of the source sentences to train a seq2seq model.;Étant donné un jeu de données parallèles (avec des phrases sources et des phrases cibles), nous pouvons utiliser les phrases sources pour entraîner un modèle seq2seq. Step 1: Represent source Represent each word in the source sentence as embeddings via source encoder.;Étape 1 : Représentation de la source Représenter chaque mot de la phrase source en tant qu’enchâssement via l’encodeur source. Step 2: Score each source word (attention) Take the dot product between target hidden representation zt+1​ and all the embeddings from source sentence. Then use softmax to get a distribution over source tokens (attention).;Etape 2 : Attribuer un score à chaque mot source (attention) Prendre le produit scalaire entre la représentation cachée cible zt+1​ et tous les enchâssements de la phrase source. Puis utiliser la fonction SoftMax pour obtenir une distribution sur les tokens source (attention). Step 3: Combine target hidden with source vector Take weighted sum (weights are in the attention score vector) of the source embeddings and combine it with target hidden representation zt+1​. After final transformation G(z), we get a distribution yt+1​ over the next word.;Etape 3 : combiner la cible cachée avec le vecteur source. Prendre la somme pondérée (les poids sont dans le vecteur de score d’attention) des enchâssements source et la combiner avec la représentation cachée cible zt+1​. Après transformation finale G(z), on obtient une distribution yt+1​ sur le mot suivant. Alignment is learnt implicitly in seq2seq model. All tokens can be processed in parallel efficiently with CNNs or Transformers.;L’alignement est appris implicitement dans le modèle seq2seq. Tous les tokens peuvent être traités en parallèle efficacement avec des ConvNets ou des transformers. Test NMT;Tester notre NMT After we have the translation model, and know how good they are doing on the training set, we will want to test to see how the model will actually generate translations from the source sentences.;Une fois que nous disposons du modèle de traduction et que nous connaissons son efficacité sur l’ensemble d’apprentissage, nous souhaitons le tester pour voir comment le modèle va réellement générer des traductions à partir des phrases sources. Beam Decoding is used to search in the space of y according to;Le décodage en faisceau est utilisé pour rechercher dans l’espace des y selon la formule suivante : Each potential choice (the number of words in vocabulary) has a probability score. At every step, beam search selects the top k scoring among all the branches (maintain a queue with k top scoring paths), then expand each of them and retain the top k scoring paths. As illustrated by the example below:;Chaque choix potentiel (le nombre de mots dans le vocabulaire) a un score de probabilité. À chaque étape, la recherche en faisceau (beam search en anglais) sélectionne les k meilleurs scores parmi toutes les branches (maintient une file d’attente avec k chemins les mieux notés), puis développe chacun d’entre eux et conserve les k meilleurs scores. Comme l’illustre l’exemple ci-dessous : Let k=2;Soit k=2 1. Start from symbol /s, pick the top 2 scoring from all the possible choices (Life, Today);1. Partant du symbole /s, elle choisit les 2 meilleurs scores parmi tous les choix possibles (Vie, Aujourd’hui). 2. Continue from Life and Today, expand each of them and calculate the path score back to the start symbol, pick the top 2 scoring path (“Like was” and “Like is”);2. On continue à partir de Vie et Aujourd’hui et on développe chacun de ces deux mots. On calcule le score du chemin de retour au symbole de départ. On choisit les 2 chemins les mieux notés (Vie est et Vie était). 3. So on and so for, keep proceeding until hit the end of the sentence;3. Et ainsi de suite, jusqu’à atteindre la fin de la phrase. 4. At the very last step, select the highest scoring path;4. À la toute dernière étape, on sélectionne le chemin le plus performant. Beam search is a greedy procedure and it is very effective in practice. There is a trade-off between computational cost and approximation error (the larger the value of k, the better the approximation and the higher the computational cost).;La recherche en faisceau est une procédure avide et très efficace en pratique. Il existe un compromis entre le coût de calcul et l’erreur d’approximation (plus la valeur de k est grande, meilleure est l’approximation et plus élevé est le coût de calcul). Issues of Beam Search: Beam search will always select the highest scoring path. Thus, the solution will be biased because of such strategy. It doesn’t handle uncertainty well.;Problèmes de la recherche en faisceau : La recherche en faisceau sélectionnera toujours le chemin ayant le score le plus élevé. Ainsi, la solution sera biaisée à cause de cette stratégie. Elle ne gère pas bien l’incertitude. Other decoding methods: sampling, top-k sampling, generative and discriminative reranking;Autres méthodes de décodage : échantillonnage, échantillonnage top-k, reclassement génératif et discriminatif. NMT Training & Inference Summary;Résumé de l’entraînement et de l’inférence d’une NMT Training: predict one target token at the time and minimize cross-entropy loss;Apprentissage : prédire une phrase cible à la fois et minimiser la perte d’entropie croisée. Inference: find the most likely target sentence (approximately) using beam search;Inférence : trouver la phrase cible la plus probable (approximativement) en utilisant la recherche en faisceau. Evaluation: compute BLEU on hypothesis returned by the inference procedure;Évaluation : calcul du score BLEU sur les hypothèses retournées par la procédure d’inférence. We first compute the geometric average of the modified n-gram precisions, pn​;Nous calculons d’abord la moyenne géométrique des précisions modifiées des n-grammes, pn​. Candidate translations longer than their references are already penalized by the modified n-gram precision measure: there is no need to penalize them again. Consequently, we introduce a multiplicative brevity penalty factor, BP (denoted as fBP​ in the formula). With BP in place, a high-scoring candidate translation must now match the reference translations in length, in word choice, and in word order.;Les traductions candidates plus longues que leurs références sont déjà pénalisées par la mesure de précision n-gram modifiée Il n’est pas nécessaire de les pénaliser à nouveau. Par conséquent, nous introduisons un facteur multiplicatif de pénalité de brièveté, BP (désigné par fBP​ dans la formule). Avec BP en place, une traduction candidate bien notée doit maintenant correspondre aux traductions de référence en termes de longueur, de choix de mots et d’ordre des mots. In brief, BLEU score (denoted as sBLEU​ in the formula) measures the similarity between the translation generated by the model and a reference translation created by a human.;En bref, le score BLEU (désigné par sBLEU​ dans la formule) mesure la similarité entre la traduction générée par le modèle et une traduction de référence créée par un humain. Machine Translation in Other Languages;Traduction automatique dans d’autres langues The above theory has 2 assumptions:;La théorie ci-dessus repose sur deux hypothèses : 1. The languages that we considered are English and Italian, both of which are European languages with some commonality.;1. Les langues que nous avons considérées sont l’anglais et l’italien, qui sont toutes deux des langues européennes ayant des points communs. 2. We have a lot of data because, in general, we need three data points to estimate a parameter and these models have hundreds of millions of parameters.;2. Nous avons beaucoup de données car, en général, nous avons besoin de trois points de données pour estimer un paramètre et ces modèles ont des centaines de millions de paramètres. If we consider the statistics, there are more than 6000 languages in the world and not more than 5% of the world population speaks native English. There are a number of languages for which we don’t have much data available and Google Translate performs poorly. The other issue with these languages is that they are mostly spoken and not written.;Si l’on considère les statistiques, il y a plus de 6000 langues dans le monde et seuelement 5% de la population mondiale a l’anglais comme langue maternelle. Il y a un certain nombre de langues pour lesquelles nous n’avons pas beaucoup de données disponibles et les performances de Google Translate sont faibles. L’autre problème de ces langues est qu’elles sont surtout parlées et non écrites. Machine Translation in Practice;La traduction automatique en pratique Let’s consider an English to Nepali Machine Translation system where we translate English news to Nepali. Nepali is a low resource language and the amount of parallel data for training is very small.;Prenons l’exemple d’un système de traduction automatique dans lequel nous traduisons des actualités de l’anglais vers le népalais. Le népalais est une langue à faible ressource et la quantité de données parallèles pour l’entraînement est très faible. The open parallel corpus is a place where we can get these datasets. There are 2 issues here:;L’Open Parallel Corpu est un endroit où nous pouvons obtenir ces jeux de données. Il y a 2 problèmes ici : 1. Now, if we look for Nepali dataset, we see that either there is very less amount of quality data set or huge dataset with no useful content.;1. si nous cherchons un jeu de données de données en népalais, nous voyons que soit il y en a très peu de qualité, soit un grand sans contenu utile. 2. There are possibilities that the source and target data are not parallel. We might have more data in English in some categories, more data in Nepali in other categories. There are cases these two don’t match.;2. il est possible que les données source et cible ne soient pas parallèles. Nous pouvons avoir plus de données en anglais dans certaines catégories, plus de données en népalais dans d’autres catégories. Il y a des cas où ces deux ne correspondent pas. One way to solve these issues is to make use of other languages related to Nepali. For example, Hindi is a much higher resource language and belongs to the same family as Nepali. We can extend this to other languages also.;Une façon de résoudre ces problèmes est de faire appel à d’autres langues liées au népalais. Par exemple, l’hindi est une langue aux ressources beaucoup plus élevées et appartient à la même famille que le népalais. Nous pouvons étendre cela à d’autres langues également. Low Resource Machine Translation;Traduction automatique à faibles ressources In practice, whenever a model is being trained, there is a lot of effort that goes in analyzing the model and the properties of the data. This whole thing is an iterative process and the machine learning practitioner needs to view this with a complete picture. Secondly, if there is less data, we can downscale the model, which isn’t desirable. We need to come up with ways to enlarge the dataset somehow or use unsupervised techniques.;En pratique, chaque fois qu’un modèle est entraîné, de nombreux efforts sont déployés pour analyser le modèle et les propriétés des données. Il s’agit d’un processus itératif nécessitant d’avoir une vue d’ensemble de la situation. Deuxièmement, s’il y a moins de données, nous pouvons réduire l’échelle du modèle, ce qui n’est pas souhaitable. Nous devons trouver des moyens d’élargir le jeu de données d’une manière ou d’une autre ou utiliser des techniques non supervisées. Challenges;Défis Loose definition of Low Resource MT: A language pair can be considered low resource when the number of parallel sentences is in the order of 10,000 or less.;Définition approximative de la traduction automatique à faibles ressources : une paire de langues peut être considérée comme à faibles ressources lorsque le nombre de phrases parallèles est de l’ordre de 10 000 ou moins. Challenges encountered in Low Resource Machine Translation tasks:;Défis rencontrés dans les tâches de traduction automatique à faibles ressources : Datasets;Jeux de données : Sourcing data to train on;Trouver des données pour l’entraînement High quality evaluation datasets;Trouver des données d’évaluation de haute qualité Metrics;Métrique : Human evaluation;Évaluation humaine Automatic evaluation;Évaluation automatique Modeling;Modélisation : Learning paradigm;Paradigme d’apprentissage Domain adaption;Adaptation au domaine Generalization;Généralisation Scaling;Mise à l’échelle Additionally, there will be challenges that are encountered in general Machine Translation tasks:;En outre, il y a des défis qui sont rencontrés dans les tâches générales de traduction automatique : Exposure bias (training for generation);Biais d’exposition (entraînement pour la génération) Modeling uncertainty;Modélisation de l’incertitude Automatic evaluation;Évaluation automatique Budget computation;Calcul du budget Modeling the tails;Modélisation des queues Efficiency;Efficacité MAD Cycle of Research;Cycle de recherche MAD There are 3 pillars in the cycle of research:;Le cycle de recherche repose sur 3 piliers : 1. Data: We collect data that we want to explore.;1. Données : nous collectons les données que nous voulons explorer. 2. Model: We feed the collected data and use the data distribution, develop algorithms and build models.;2. Modèle : nous fournissons les données collectées et utilisons la distribution des données, nous développons des algorithmes et construisons des modèles. 3. Analysis: After we get the model, we test the model by checking how well it fits with the data distribution or how well it performs using different metrics.;3. Analyse : après avoir obtenu le modèle, nous le testons en vérifiant son adéquation avec la distribution des données ou ses performances à l’aide de différentes métriques. This process is iterated several times to get a good a performance.;Ce processus est itéré plusieurs fois pour obtenir une bonne a performance. The highlighted examples in the Figure 14 will be discussed more in detail in the following sections.;Les exemples mis en évidence dans la figure 14 seront discutés plus en détail dans les sections suivantes. Data;Données Going back to the same example of English-Nepali news translation, we collect data belonging to different domains. Here, dataset of Bible and GNOME, Ubuntu won’t be of much help for news translation.;Pour revenir à l’exemple de traduction d’actualités en anglais-népalais, nous collectons des données appartenant à différents domaines. Ici, le jeu de données de la Bible, de GNOME/Ubuntu ne seront pas d’une grande aide pour la traduction d’actualités. The question here is how can we evaluate the part of dataset that is not there on the right side (Nepali)? This lead to creation of FLoRes Evaluation Benchmark. It contains texts (taken from Wikipedia documents) from Nepali, Sinhala, Khmer, Pashto.;La question ici est : comment pouvons-nous évaluer la partie de l’ensemble de données absente sur le côté droit (népalais) ? Note: These are not parallel dataset;Cette question a conduit à la création du FLoRes Evaluation Benchmark. Il contient des textes (tirés d’articles de Wikipédia) en népalais, singhalais, khmer et pachto. Il ne s’agit pas de jeux de données parallèles. These sentences are translated and the quality of the translations are determined using the automatic checks and human evaluation. There are several techniques in automatic checks, a model was trained on each language and perplexity was measured. If the perplexity is too high, then we go back to translation stage as shown above. Other checks are transliteration, using Google Translate, etc. There is no criteria or conditions for when this loop is stopped, essentially it depends on the perplexity and any outliers.;Ces phrases sont traduites et la qualité des traductions est déterminée à l’aide de contrôles automatiques et d’évaluations humaines. Il existe plusieurs techniques dans les vérifications automatiques. Un modèle a été entraîné sur chaque langue et la perplexité a été mesurée. Si la perplexité est trop élevée, nous revenons à l’étape de traduction comme indiqué ci-dessus. D’autres vérifications sont la translittération, l’utilisation de Google Translate, etc. Il n’y a pas de critères ou de conditions pour savoir quand cette boucle doit s’arrêter, cela dépend essentiellement de la perplexité et des éventuelles valeurs aberrantes. Figure 17 shows some examples. As we can see, they are not really fluent. One more issue with these is that the wikipedia articles of Sinhala language mostly contain topics of very limited number of domains (like their religion, country, etc.);La figure 17 montre quelques exemples. Comme on peut le constater, elles ne sont pas vraiment fluides. Un autre problème est que les articles Wikipedia de la langue singhalaise contiennent surtout des sujets d’un nombre très limité de domaines (comme la religion, l’histoire du pays, etc.). Low Resource Machine Translation II;Traduction automatique à faibles ressources II We start with standard machine learning algorithms can be applied in the realm of machine translation translation. Then, we take a deeper look into understanding different perspectives on this application. Our setting consists of multiple languages and multiple domains, but eventually we want to maximize translation accuracy of a certain domain in a language class.;Nous commençons par les algorithmes d’apprentissage automatique standard qui peuvent être appliqués dans le domaine de la traduction automatique. Ensuite, nous approfondissons la compréhension des différentes perspectives de cette application. Notre cadre porte en plusieurs langues et plusieurs domaines, mais finalement nous voulons maximiser la précision de la traduction d’un certain domaine dans une classe de langue. NLP/MT Data;Données pour la traduction automatique Parallel dataset;Jeu de données parallèles monolingual Data;Données monolingues Multiple language pairs;Paires de langues multiples Multiple Domains;Domaines multiples ML Techniques;Techniques d’apprentissage automatique Supervised learning;Apprentissage supervisé Semi-supervised Learning;Apprentissage semi-supervisé Multi-task/multi-modal learning;Apprentissage multi-tâches/multimodal Domain adaptation;Adaptation au domaine Taking a deeper look at the type of data we are presented with in machine translation, we can better understand how these applications can be mapped to machine learning techniques. For example, if we have a parallel dataset in the space of machine translation, then we have its equivalent in supervised learning. Second, we could have monolingual data in machine translation–this translates to semi-supervised learning within the machine learning framework. Third, if we have multiple language paris in machine translation, we can closely compare this to multi-task learning within the ML space. And lastly, if we have multiple domains in machine translation, we can compare this to domain adaptation in machine learning. When you have many domains, you naturally also want to use different domain adaptation techniques;En examinant de plus près le type de données qui nous sont présentées dans le domaine de la traduction automatique, nous pouvons mieux comprendre comment ces applications peuvent être mises en correspondance avec les techniques d’apprentissage automatique. Par exemple, si nous avons un jeu de données parallèles dans l’espace de la traduction automatique, nous avons son équivalent dans l’apprentissage supervisé. Deuxièmement, nous pourrions avoir des données monolingues en traduction automatique, ce qui se traduit par un apprentissage semi-supervisé dans le cadre de l’apprentissage automatique. Troisièmement, si nous avons des paires multilingues dans la traduction automatique, nous pouvons comparer cela à l’apprentissage multi-tâches. Et enfin, si nous avons plusieurs domaines en traduction automatique, nous pouvons comparer cela à l’adaptation de domaine dans l’apprentissage automatique. Lorsque vous avez plusieurs domaines, vous souhaitez naturellement utiliser différentes techniques d’adaptation. Case Studies;Études de cas : traduction de l’anglais au népalais Let’s start with a simple case study within the realm of supervised learning. For example, let’s say that we have a sentence in English and we want to translate it to Nepali. This is similar to multitask learning in the sense that you have one task, and then you add another task you’re interested in. Since we have multiple domains we can start thinking about domain adaptation techniques and analyzing which domain adaptation techniques are applicable to machine translation.;Commençons par une étude de cas simple dans le domaine de l’apprentissage supervisé. Par exemple, disons que nous avons une phrase en anglais et que nous voulons la traduire en népalais. Ceci est similaire à l’apprentissage multitâche dans le sens où nous avons une tâche, puis nous ajoutons une autre tâche qui vous intéresse. Puisque nous avons plusieurs domaines, nous pouvons commencer à réfléchir aux techniques d’adaptation au domaine et analyser quelles techniques d’adaptation au domaine sont applicables à la traduction automatique. We can define our supervised learning method as the following when translating from English to Nepali:;Nous pouvons définir notre méthode d’apprentissage supervisé comme suit lors de la traduction de l’anglais au népalais : Our per-sample loss using the usual attention-based transformer is defined as the following:;Notre perte par échantillon, en utilisant le transformer habituel basé sur l’attention, est définie comme suit : We can regularize the model using:;Nous pouvons régulariser le modèle en utilisant : Dropout;le dropout Label Smoothing;le lissage d’étiquette Beginning with a supervised learning setting, we can use the aforementioned example of translation. Our dataset is;En commençant par le cadre d’apprentissage supervisé, nous pouvons utiliser l’exemple de traduction mentionné plus haut. Notre jeu de données est : We can train this model using maximum likelihood, where we want to maximize y∣x.;Nous pouvons entraîner ce modèle en utilisant le maximum de vraisemblance où nous voulons maximiser y∣x. One way to represent this methodology is by the diagram, where you have a blue encoder that processes English sentences, and a red decoder that processes Nepali. From here, we want to compute our cross-entropy loss and update our model parameters. We may also want to regularize the model using either dropout or label smoothing. Additionally, we may need to regularize using the log loss;Une façon de représenter cette méthodologie est via un diagramme où nous avons un encodeur bleu qui traite les phrases anglaises et un décodeur rouge qui traite le népalais. À partir de là, nous voulons calculer notre perte d’entropie croisée et mettre à jour les paramètres de notre modèle. Nous pouvons également vouloir régulariser le modèle en utilisant le dropout ou le lissage d’étiquettes. En outre, nous pouvons avoir besoin de régulariser en utilisant la perte logarithmique : Note: Transliteration is not word per word translation. It means that you’re using the characters from one language to make a logical translation of the word in a different language.;Remarque : la translittération n’est pas une traduction mot à mot. Cela signifie que vous utilisez les caractères d’une langue pour traduire logiquement le mot dans une autre langue. How can we improve generalization?;Comment améliorer la généralisation ? We can get additional source side monolingual data with this approach as well.;Nous pouvons également obtenir des données monolingues supplémentaires côté source avec cette approche. When using the DAE learning framework, we an either pre-train or add a DAE loss to the supervised cross entropy term:;Lorsque nous utilisons le cadre d’apprentissage semi-supervisé, nous pouvons soit pré-entraîner, soit ajouter une perte au terme d’entropie croisée supervisé : One way to leverage an additional dataset is by trying to model p(x) with a semi-supervised approach. One way to model p(x) is via the denoising of an auto-encoder. This is particularly useful because the encoder and decoder share a similar machine translation methodology. In the semi-supervised learning approach, going from English to Nepali, we have:;Une façon d’exploiter un jeu de données supplémentaire est d’essayer de modéliser p(x) avec une approche semi-supervisée. Une façon de modéliser p(x) est via un auto-encodeur débruiteur (DAE pour denoising auto-encoder). Cette méthode est particulièrement utile car l’encodeur et le décodeur partagent une méthodologie de traduction automatique similaire. Dans l’approche d’apprentissage semi-supervisé, en passant de l’anglais au népalais, nous avons : And when we want to predict missing labels using decoding and training noise, we can use cross-entropy loss as such:;Lorsque nous voulons prédire les étiquettes manquantes à l’aide du bruit de décodage et d’entraînement, nous pouvons utiliser la perte d’entropie croisée comme suit : Another approach would be via self-training or pseudolearning. This is an algorithm from the 90s and the idea is that you take your sentence from the monolingual dataset and then you inject noise to it, you encode the poor translation you made and then make a prediction to produce the desired outcome. You can tune the parameters by minimizing the standard cross entropy loss on the labeled data. In other words, we are minimizing Lsup(θ)+λLSTθ. We are basically using a stale version of our model to produce the desired output y.;Une autre approche serait via l’auto-entraînement ou le pseudo-apprentissage. Il s’agit d’un algorithme des années 90. L’idée est de prendre la phrase du jeu de données monolingue, d’y injecter du bruit, puis d’encoder la mauvaise traduction effectuée. On effectue une prédiction pour produire le résultat souhaité. Il est possible de régler les paramètres en minimisant la perte d’entropie croisée standard sur les données étiquetées. En d’autres termes, nous minimisons Lsup(θ)+λLSTθ. En fait, nous utilisons une version périmée de notre modèle pour produire le résultat souhaité, à savoir y. This method works because: (1) when we produce y, we typically trying to learn the search procedure (2) we insert noise which creates smoothing for the output space;Cette méthode fonctionne car : (1) lorsque nous produisons y, nous essayons typiquement d’apprendre la procédure de recherche (2) nous insérons du bruit qui crée un lissage de l’espace de sortie If we are working on the other hand with monolingual data, first we would need to train a reverse machine learning translation system of backward machines.;Si nous travaillons d’autre part avec des données monolingues, nous devons d’abord entraîner un système de rétrotraduction automatique. Two benefits from adding target-side monolingual data;L’ajout de données monolingues côté cible présente deux avantages : Decoder learns a good language model;le décodeur apprend un bon modèle de langage Better generalization via data augmentation;il y a une meilleure généralisation grâce à l’augmentation de données The algorithm would stay the same as above, where we have smaller systems of encoders and decoders.;L’algorithme reste le même que ci-dessus, avec des systèmes d’encodeurs et de décodeurs plus petits : This is the learning framework for multilingual training, which shares encoder and decoder across all the language pairs, prepends a target language identifier to the source sentence to inform decoder of desired language and concatenates all the datasets together.;Voici le cadre d’apprentissage pour l’entraînement multilingue qui partage l’encodeur et le décodeur à travers toutes les paires de langues. On prépointe un identifiant de la langue cible à la phrase source pour informer le décodeur de la langue désirée et qui concatène tous les ensembles de données ensemble. Mathematically, the train uses standard cross-entropy loss:;Mathématiquement, l’entraînement utilise la perte standard d’entropie croisée : How do we deal with domain adaptation?;Comment traiter l’adaptation de domaine ? If you have small data in domain validation, what you can do is fine-tuning, which is super effective. Basically train on domain A and finetune on domain B by continuing training for a little bit on the validation set.;Si nous avons de petites données dans la validation de domaine, nous pouvons finetuner. En gros, on entraîne sur le domaine A et on finetune sur le domaine B en poursuivant l’entraînement pendant un petit moment sur l’ensemble de validation. Unsupervised MT;Traduction non supervisée Let’s consider English and French.;Considérons l’anglais et le français. Iterative BT;Rétrotraduction itérative The following architecture first translate French to some random unknown English words. Since there is no ground truth reference, what could do is feeding this translation to another machine translation system goes from English to French.;L’architecture suivante traduit d’abord le français en quelques mots anglais inconnus et aléatoires. Puisqu’il n’y a pas de référence de base, ce qui peut être fait est de donner cette traduction à un autre système de traduction automatique allant de l’anglais au français. DAE;Auto-encodeur débruiteur (DAE) DAE adds a constraint on the xˉ to make sure that decoder outputs fluently in the desired language. One way is adding denoising of the encoding turn to the loss function. This may not work since decoder may behave differently when fed with representations from French encoder vs English encoder (lack of modularity);Le DAE ajoute une contrainte sur xˉ pour s’assurer que le décodeur produit couramment dans la langue désirée. Une façon de faire est d’ajouter le débruitage d’encodage à la fonction de perte. Cela peut ne pas fonctionner car le décodeur peut se comporter différemment lorsqu’on lui donne des représentations provenant d’un encodeur français par rapport à un encodeur anglais (manque de modularité). Multi-Lingual;Approche multilingue One way to fix is by sharing all parameters of encoder and decoder so that the feature space share no matter whether you feed the French or English sentence (only one encoder and decoder now);Une façon de résoudre le problème est de partager tous les paramètres de l’encodeur et du décodeur afin que l’espace des caractéristiques soit partagé, peu importe si on donne une phrase en français ou en anglais (un seul encodeur et décodeur maintenant). BLEU score;Score BLEU This graph tells why machine translation is very large scale learning, because you need to compensate for the lack of direct supervision by adding more and more data.;Ce graphique explique pourquoi la traduction automatique est un apprentissage à très grande échelle. Il faut compenser le manque de supervision directe en ajoutant de plus en plus de données. FLoRes Ne-En;FLoRes Ne-En The unsupervised learning doesn’t work at all in this case because two monolingual for the stats are from different domains and there is no way to find correspondences.;L’apprentissage non supervisé ne fonctionne pas du tout dans ce cas car deux monolingues sont issus de domaines différents et il n’y a aucun moyen de trouver des corresponances. If adding English-Hindi data since Hindi and Nepali are similar, all four models dramatically improve (Red).;Si l’on ajoute des données en anglais et en hindi, puisque l’hindi et le népalais sont similaires, les quatre modèles s’améliorent considérablement (en rouge). If you want to add language that is less related, you need to add so much. Since low-resource MT requires big data and big compute!;Si nous voulons ajouter une langue qui est moins apparentée, nous devons en ajouter autant. La traduction automatique à faibles ressources nécessite de grandes données et de grands calculs ! In conclusion, the less labeled data you have, the more data you need to use:;En conclusion, moins vous avez de données étiquetées, plus vous devez utiliser de données : Supervised Learning;L’apprentissage supervisé : Each datum yields X bits of information useful to solve the task;Chaque donnée fournit x bits d’information utiles pour résoudre la tâche Need N samples;Besoin de N échantillons Need model of size YB.;Besoin d’un modèle de taille YB Unsupervised Learning;Apprentissage non supervisé : Each datum yields X/1000 bits;Chaque donnée fournit X/1000 bits Need N*1000 samples;Besoin de N×1000 échantillons Need model of size Y*f(1000) MB.;Besoin d’un modèle de taille Y×f(1000) MB Perspectives;Perspectives Typically, in machine learning and machine translation, we always consider a domain mismatch between the training and the test distribution. When we have a slightly different domain, we need to do domain adaptation (e.g. domain tagging and finetuning). Here we will talk about a different domain mismatch which is:;En général, dans le domaine de l’apprentissage automatique et de la traduction automatique, nous considérons un décalage de domaine entre la distribution d’entraînement et la distribution de test. Lorsque nous avons un domaine légèrement différent, nous devons procéder à une adaptation au domaine (par exemple, l’étiquetage du dommaine ou le finetuning). MPC (EBM version);Commande à modèle prédictif (version EBM) Action plan;Plan d’action Model predictive control [Here we are today];Commande à modèle prédictif [Nous sommes ici dans cette section]. Backprop through kinematic equation;Rétropropagation par l’équation cinématique Minimisation of the latent;Minimisation de la latence Truck backer-upper;Truck backer-upper Learning an emulator of the kinematics from observations;Apprentissage d’un émulateur de la cinématique à partir d’observations Training a policy;Entraînement d’une politique PPUU;Prédiction ét apprentissage d’une politique sous incertitude (PPUU de l’anglais « Prediction and Policy learning Under Uncertainty ») Stochastic environment;Environnement stochastique Uncertainty minimisation;Minimisation des incertitudes Latent decoupling;Découplage latent State transition equations – Evolution of the state;Equations de transition d’état - Evolution de l’état Here we discuss a state transition equation where x represents the state, u represents control. We can formulate the state transition function in a continuous-time system where x(t) is a function of continuous variable t.;Nous abordons ici une équation de transition d’état où x représente l’état et u représente la commande. Nous pouvons formuler la fonction de transition d’état dans un système à temps continu où x(t) est une fonction de la variable continue t. We use a tri-cycle as the example to study it. The orange wheel is the control u, (xc,yc) is the instantaneous center of rotation. You can also have two wheels in the front. For simplicity, we use one wheel as the example.;Nous utilisons un tricycle comme exemple pour l’étudier. La roue orange est la commande u, (xc,yc) est le centre de rotation instantané. On peut aussi avoir deux roues à l’avant. Pour simplifier, nous utilisons une roue comme exemple. In this example x=(x,y,θ,s) is the state, u=(ϕ,α) is the control.;Dans cet exemple, x=(x,y,θ,s) est l’état, u=(ϕ,α) est la commande. We can reformulate the differential equation from continuous-time system to discrete-time system;Nous pouvons reformuler l’équation différentielle du système à temps continu en système à temps discret : To be clear, we show the units of x,u.;Pour être clair, nous montrons les unités de x,u. Let’s take a look at different examples. We use different color for variables we care about.;Jetons un coup d’oeil à différents exemples. Nous utilisons une couleur différente pour les variables qui nous intéressent. Kelley-Bryson algorithm;Algorithme de Kelley-Bryson What if we want the tri-cycle to reach a specified destination with a specified speed?;Que faire si l’on veut que le tricycle atteigne une destination donnée à une vitesse donnée ? This can be achieved by inference using Kelley-Bryson algorithm, which utilizes backprop through time and gradient descent.;Cela peut être réalisé par inférence à l’aide de l’algorithme de Kelley-Bryson, qui utilise la rétropropation à travers le temps et la descente de gradient. Recap of RNN;Récapitulation des réseaux de neurones récurrents (RNNs) We can compare the inference process here with the training process of RNN.;Nous pouvons comparer le processus d’inférence ici avec le processus d’entraînements des RNNs. Below is an RNN schematic chart. We feed variable x[t] and the previous state h[t−1] into the predictor, while h[0] is set to be zero. The predictor outputs the hidden representation h[t].;Voici le schéma d’un RNN. Nous introduisons la variable x[t] et l’état précédent h[t−1] dans le prédicteur, tandis que h[0] est fixé à zéro. Le prédicteur sort la représentation cachée h[t]. Optimal control (inference);Contrôle optimal (inférence) Backprop is implemented in both RNN and Optimal Control. However, gradient descent is implemented with respect to predictor’s parameters in RNN, and is implemented wrt latent variable z in optimal control.;La rétropropagation est implémentée à la fois dans le RNN et dans le contrôle optimal. Cependant, la descente de gradient est implémentée par rapport aux paramètres du prédicteur dans le RNN et est implémentée par rapport à la variable latente z dans le contrôle optimal. Unfolded version of optimal control;Version dépliée du contrôle optimal In unfolded version of optimal control, cost can be set to either the final step of the tri-cycle or every step of the tri-cycle. Besides, cost functions can take many forms, such as Average Distance, Softmin, etc.;Dans la version dépliée du contrôle optimal, le coût peut être fixé soit à l’étape finale du tricycle, soit à chaque étape du tricycle. En outre, les fonctions de coût peuvent prendre de nombreuses formes, telles que la distance moyenne, la softmin, etc. Set the cost to the final step;Fixer le coût à l’étape finale From the figure below, we can see there is only one cost c set in the final step (step 5), which measures the distance of our target y and state x[5]x[5] with control z[5]z[5];Sur la figure ci-dessous, nous pouvons voir qu’il n’y a qu’un seul coût c fixé à l’étape finale (étape 5) mesurant la distance de notre cible y et de l’état x[5] avec le contrôle z[5]. (1) If the cost function only involves the final position with no restrictions on the final speed, we can obtain the results after inference shown as below.;(1) Si la fonction de coût ne fait intervenir que la position finale sans restriction sur la vitesse finale, nous pouvons obtenir les résultats après inférence présentés comme ci-dessous. From the figure above, it is seen that when T=5 or T=6, the final position meets the target position, but when T is above 6 the final position does not.;D’après la figure ci-dessus, on constate que lorsque T=5 ou T=6, la position finale respecte la position cible. Mais lorsque T est supérieur à 6, la position finale ne le fait pas. (2) If the cost function involves the final position and zero final speed, we can obtain the results after inference shown as below.;(2) Si la fonction de coût fait intervenir la position finale et la vitesse finale nulle, on peut obtenir les résultats après inférence présentés ci-dessous. From the figure above, it is seen that when T=5 or T=6, the final position roughly meets the target position, but when T is above 6 the final position does not.;D’après la figure ci-dessus, on constate que lorsque T=5 ou T=6, la position finale correspond à peu près à la position cible. Mais que lorsque T est supérieur à 6, la position finale ne correspond pas. Set the cost to every step;Définir le coût à chaque étape From the figure below, we can see there is a cost c set in every step.;D’après la figure ci-dessous, nous pouvons voir qu’il y a un coût c fixé à chaque étape. In this section, we discussed Visual Representation Learning, focused on self-supervised visual representation learning. This can be classified into Generative models, Pretext Tasks and Joint Embedding methods. In generative models, you train the model to reconstruct the original image from the noisy image. In pretext tasks, you train the model to figure out a smart way to generate pseudo labels. Joint Embedding methods try to make their backbone network robust to certain distortions and are invariant to data augmentation. JEM training methods can be classified into four types: contrastive methods, non-contrastive methods, clustering methods and Other methods. He concluded the lecture by discussing contrastive methods which push positive pairs closer and negative pairs away.;Dans cette section, nous abordons l’apprentissage de représentations visuelles en nous concentrant sur l’apprentissage autosupervisé. Les méthodes applicables peuvent être classées en modèles génératifs, tâches de prétexte et méthodes d’enchâssements joints. Dans les modèles génératifs, on entraîne le modèle à reconstruire l’image originale à partir de l’image bruitée. Dans les tâches de prétextes, on entraîne le modèle à trouver un moyen intelligent de générer des pseudo-étiquettes. Les méthodes d’enchâssements joints tentent de rendre leur backbone robuste à certaines distorsions et invariant à l’augmentation des données. Les méthodes d’entraînement des JEMs peuvent être classées en quatre types : méthodes contrastives, méthodes non-contrastives, méthodes de clustering et les « autres méthodes ». Nous concluons en discutant des méthodes contrastives qui rapprochent les paires positives et éloignent les paires négatives. In this section, we discussed non-contrastive methods which are based on information theory and don’t require special architectures or engineering techniques. Then, he went on to discuss clustering methods which prevent trivial solution by quantizing the embedding space. Finally, he discussed “Other” methods which are local and don’t create problem with distributed training unlike previous methods. He concluded the lecture by suggesting various improvisations for JEMs w.r.t Data augmentation and network architecture.;Dans cette section, nous abordons les méthodes non-contrastives qui sont basées sur la théorie de l’information et ne nécessitent pas d’architectures ou de techniques d’ingénierie particulières. Ensuite, nous voyons les méthodes de clustering qui empêchent une solution triviale en quantifiant l’espace d’enchâssement. Enfin, nous parlons d’« autres méthodes » qui sont locales et ne créent pas de problème pour l’entraînement distribué contrairement aux méthodes précédentes. Nous concluons en suggérant diverses améliorations pour les JEMs par rapport à l’augmentation de données et l’architecture des réseaux. Joint Embedding Methods - Contrastive;Méthodes d'enchâssements joints contrastives Visual Representation Learning;Apprentissage de représentations visuelles Representation learning trains a system to produce the representations required for feature detection or classification from raw data. Visual representation learning is about the representations of images or videos in particular.;L’apprentissage de représentation consiste à entraîner un système à produire des représentations, pour la détection de caractéristiques ou pour la classification, à partir de données brutes. L’apprentissage de représentations visuelles concerne les représentations d’images ou de vidéos en particulier. This can be broadly classified as shown above and the focus of the lecture would be on self-supervised visual representation learning.;On peut les classer comme indiqué ci-dessus et ce qui suit portera essentiellement sur l’apprentissage autosupervisé de représentation visuelle. Self-supervised Visual Representation Learning;Apprentissage autosupervisé de représentations visuelles It is a two stage process comprising pretraining and evaluation;Il s’agit d’un processus en deux étapes comprenant un pré-entraînement et une évaluation. Step1: Pretraining;Etape 1 : pré-entraînement Uses a large amount of unlabeled data to train a backbone network. Different methods will produce the backbone network differently;Utilisation d’une grande quantité de données non étiquetées pour entraîner un réseau backbone. Différentes méthodes produiront le backbone différemment. Step2: Evaluation;Etape 2 : évaluation It can be performed in two ways: feature extraction and finetuning. Both these methods generate representation from ​​the image and then use it to train DsTH ( Downstream Task Head ). The learning of the downstream task would thus be in the representation space instead of the image space. The only difference between the two methods is the stop gradient before the encoder. In finetuning, we can change the encoder unlike in feature extraction.;Elle peut être réalisée de deux manières : l’extraction de caractéristiques et le finetuning. Ces deux méthodes génèrent une représentation à partir de l’image et l’utilisent ensuite pour entraîner la tête de tâche en aval (DsTH pour Downstream Task Head). L’apprentissage de la tâche en aval se fait donc dans l’espace de représentation au lieu de l’espace d’image. La seule différence entre ces deux méthodes est l’arrêt du gradient avant l’encodeur. Dans le finetuning, nous pouvons changer l’encodeur, contrairement à l’extraction de caractéristiques. Generative Models;Modèles génératifs The popular one is the denoising autoencoder. You train the model to reconstruct the original image from the noisy image. After the training, we retain the encoder for the downstream task.;Le plus Populaire est l’auto-encodeur débruiteur. On entraîne le modèle à reconstruire l’image originale à partir de l’image bruitée. Après l’entraînement, on réentraîne l’encodeur pour la tâche en aval. Issues:;Problèmes The model tries to solve a problem that is too hard. For example: For a lot of downstream tasks, you don’t have to reconstruct the image, which is a tougher problem than the downstream task itself. Also, sometimes the loss function is not good enough. For example: the Euclidean distance used as a reconstruction loss metric isn’t a good metric for comparing the similarity between two images.;Le modèle tente de résoudre un problème qui est trop difficile. Par exemple, pour beaucoup de tâches en aval, il ne faut pas reconstruire l’image qui est un problème plus complexe que la tâche en aval elle-même. De même, il arrive que la fonction de perte ne soit pas assez bonne. Par exemple, la distance euclidienne utilisée comme métrique de perte de reconstruction n’est pas une bonne métrique pour comparer la similarité entre deux images. Pretext Tasks;Tâches de prétexte It’s almost the same as above but you train the model to figure out a smart way to generate pseudo labels. For example: Given the image of a tiger, the shuffled image is the input x, and the output y would be the correct way of labeling the patches. The network successfully reinventing the patches indicates that it understands the image.;C’est presque la même chose que ci-dessus mais on entraîne le modèle à trouver un moyen intelligent de générer des pseudo-étiquettes. Par exemple, étant donné l’image d’un tigre, l’image mélangée est l’entrée x et la sortie y serait la bonne manière d’étiqueter les patchs. Le fait que le réseau réussisse à réinventer les patchs indique qu’il comprend l’image. Issues:;Problèmes Designing the pretext task is tricky. if you design the task too easy, the network won’t learn good representation. But if you design the task hard, it can become harder than the downstream task and the network wouldn’t be trained well. Also, the representations generated via this method will be tailored to the specific downstream task.;La conception de la tâche de prétexte est délicate. Si vous la concevez trop facile, le réseau n’apprendra pas une bonne représentation. Mais si vous la concevez trop difficile, elle peut devenir plus difficile que la tâche en aval et le réseau ne sera pas bien entraîné. En outre, les représentations générées par cette méthode seront adaptées à la tâche spécifique en aval. Joint Embedding Methods;Les méthodes d’enchâssements joints Joint Embedding methods try to make their backbone network robust to certain distortions and are invariant to data augmentation.;Les méthodes d’enchâssements joints tentent de rendre leur backbone robuste à certaines distorsions et invariant à l’augmentation des données. As an example, as shown in the image below, for an image of a dog, you take two distorted versions of the image, then encode them with your backbone network to generate representations and you make them to be close to each other. Thus, ensuring the two images share some semantic information.;Par exemple, comme le montre l’image ci-dessous, pour l’image d’un chien, vous prenez deux versions déformées de l’image, puis vous les passez dans les backbones pour générer des représentations et vous faites en sorte qu’elles soient proches les unes des autres. Ainsi, vous vous assurez que les deux images partagent certaines informations sémantiques. They also prevent trivial solutions. The network could collapse with just the above condition, as the network can become invariant not only to distortions but to the input altogether i.e., irrespective of the input, it could generate the same output. JEMs try to prevent this trivial solution in different ways.;Le réseau pourrait s’effondrer avec la seule condition ci-dessus car il peut devenir invariant non seulement aux distorsions mais aussi à l’entrée dans son ensemble, c’est-à-dire que, quelle que soit l’entrée, il pourrait générer la même sortie. Les JEMs essaient d’empêcher cette solution triviale de différentes manières. Instead of considering only local energy ( between two pairs of distorted images ), these methods get a batch of the images and ensure that the collection of the representation, HxHx​, doesn’t have the same rows or columns. ( which is the trivial solution );Au lieu de considérer uniquement l’énergie locale (entre deux paires d’images déformées), ces méthodes ont un batch d’images et s’assurent que la collection de la représentation, HxHx​, n’a pas les mêmes lignes ou colonnes (ce qui correspond à la solution triviale). Components:;Composants : Every Joint Embedding Method has the following components:;Chaque méthode d’enchâssements joints a les composantes suivantes : 1. Data augmentation ( x and y ): The way you generate the two distorted versions of the image.;1. Augmentation des données (x et y) : la façon dont vous générez les deux versions déformées de l’image. 2. Backbone Network ( BB ) - The definition of the backbone;2. Le backbone (BB) : la définition du backbone. 3. Energy function ( D ) - The definition of the distance between the two representations.;3. La fonction d’énergie (D) : la définition de la distance entre les deux représentations. 4. Loss functionals ( A and B ) - The definition of the loss functionals calculated per batch of size N.;4. Les fonctions de perte (A et B) : la définition des fonctions de perte calculées par batch de taille N. Joint Embedding Loss Functions:;Fonctions de perte des méthodes d’enchâssements joints : Joint Embedding Loss Functions contain two components:;Les fonctions de perte des méthodes d’enchâssements joints contiennent deux composantes : 1. A term that pushes the positive pair closer;1. Un terme qui rapproche la paire positive 2. An (implicit) term that prevents the trivial solution (constant output) - implicit because a lot of “other methods” do not have an explicit term to prevent the trivial solution.;2. Un terme (implicite) qui empêche la solution triviale (sortie constante). Le terme est implicite car beaucoup d’« autres méthodes » n’ont pas de terme explicite pour empêcher la solution triviale. To make the training stable, people usually normalize the embeddings or put a hinge on the loss function to prevent the norm of embeddings from becoming too large or too small;Pour rendre l’entraînement stable, les gens normalisent généralement les enchâssements ou mettent un seuil sur la fonction de perte pour empêcher la norme des enchâssements de devenir trop grande ou trop petite. Training Methods;Méthodes d’entraînement The training methods can be further classified into the following four types:;Les méthodes d’entraînement peuvent être classées en quatre types différents : 1. Contrastive methods;1. Les méthodes contrastives 2. Non-Contrastive methods;2. Les méthodes non-contrastives 3. Clustering methods;3. Les méthodes de regroupement (clustering) 4. Other methods;4. Les « autres méthodes » Contrastive methods;Méthodes contrastives Contrastive methods push positive pairs closer and negative pairs away. More details about the contrastive methods including MoCo, PIRL, and SimCLR have been discussed here.;Les méthodes contrastives rapprochent les paires positives et éloignent les paires négatives. Plus de détails sur les méthodes contrastives, y compris MoCo, PIRL et SimCLR, sont disponibles dans l’édition 2020 du cours. The InfoNCE loss function:;La fonction de perte InfoNCE : Both SimCLR and MoCO use the InfoNCE loss function.;SimCLR et MoCo utilisent tous deux la fonction de perte InfoNCE. The first term indicates the similarity between positive pairs and the second term is the softmax between all the negative pairs. We would like to minimize this whole function.;Le premier terme indique la similarité entre les paires positives. Le second terme est la fonction softmax entre toutes les paires négatives. Nous voulons minimiser cette fonction entière. Notice that it gives different weights to different negative samples. The negative pair that has high similarity is pushed much harder than the negative pair with low similarity because there’s a softmax. Also, the similarity measurement here is the inner product between the two representations, and to prevent the gradient explosion, the norm is normalized. Thus, even if the vector grew long, the term ensures that it is a unit vector.;Remarquons qu’elle donne des poids différents aux différents échantillons négatifs. La paire négative qui a une forte similarité est poussée beaucoup plus fort que la paire négative avec une faible similarité parce qu’il y a la softmax. De plus, la mesure de similarité est ici le produit scalaire hermitien entre les deux représentations que l’on normalise pour éviter l’explosion du gradient. Ainsi, même si le vecteur est devenu long, le terme garantit qu’il s’agit d’un vecteur unitaire. Memory Bank:;Banque mémoire As already mentioned, these models require negative samples. However, finding negative pairs becomes difficult as the embedding spaces become large.;Comme déjà mentionné, ces modèles nécessitent des échantillons négatifs. Cependant, trouver des paires négatives devient difficile lorsque les espaces d’enchâssements deviennent grands. To handle this, SimCLR and MoCO use large batch sizes to find the samples. The difference between SimCLR and MoCO is the way they deal with the large batch size. SimCLR uses 8192 as the batch size. However, MoCO tries to solve the requirement of a large batch size without actually using a large batch size by using a memory bank. It uses a small batch size but instead of using negative samples from only the current batch, it collects them even from previous batches. For example: with a 256 batch size, aggregating the previous 32 batches of negative samples results essentially in a batch size of 8192. This method saves memory and avoids the effort to generate the negative samples again and again.;Pour résoudre ce problème, SimCLR et MoCo utilisent des batchs de grande taille pour trouver les échantillons. La différence entre SimCLR et MoCo est la façon dont ils traitent la grande taille des batchs. SimCLR utilise une taille de batchs de 8192. Cependant, MoCo essaie de résoudre l’exigence d’une grande taille de batch sans en utiliser réellement une grâce à une banque mémoire. Au lieu d’utiliser des échantillons négatifs provenant uniquement du batch actuel, on en collecte dans les batchs précédents. Par exemple : pour un batch de taille 256, l’agrégation des 32 batchs précédents d’échantillons négatifs donne une taille de 8192. Cette méthode permet d’économiser de la mémoire et évite d’avoir à générer les échantillons négatifs encore et encore. Issue: Because B is updated every step, the backbone is updated every step, and thus, after a while, the old negative samples are not valid anymore and can lead to a decrease in performance. To avoid this, MoCO uses a momentum backbone that slows down the training of the right backbone. In that case, the difference between the older momentum backbone and the new momentum backbone is not that different, retaining the validitiy of the negative sample even after a while.;Problème : Parce que B est mis à jour à chaque pas de temps, le backbone est mis à jour à chaque pas de temps, alors après un certain temps, les vieux échantillons négatifs ne sont plus encore valides ce qui peut mener à une baisse des performances. Pour éviter cela, MoCo utilise un backbone avec momentum qui ralentit l’entraînement du backbone de droite. Dans ce cas, la différence entre le vieux backbone avec momentum et le nouveau backbone avec momentum n’est pas grande, conservant la validité des échantillons négatifs même après un certain temps. Disadvantages of Contrastive methods:;Désavantages des méthodes contrastifs In practice, people found out that contrastive methods need a lot of setup to make them work. They require techniques such as weight sharing between the branches, batch normalization, feature-wise normalization, output quantization, stop gradient, memory banks etc.,.This makes it hard to analyze. Also, they are not stable without the use of those techniques.;En pratique, les méthodes contrastives nécessitent une énorme configuration pour fonctionner. Elles requièrent des techniques comme le partage de poids entre les branches, de la normalisation par batch, normalisation par caractéristiques, quantification de sortie, arrêt du gradient, banque mémoire, etc. Ces méthodes sont difficiles à analyser et sont instables sans toutes ces techniques. Joint Embedding Methods - Regularised;Méthodes d'enchâssements joints régularisées Non-Contrastive methods;Méthodes non contrastives Non-Contrastive methods and information theory:;Méthodes non contrastives et théorie de l’information Most of the non-contrastive methods are based on information theory. For example: Redundancy reduction ( Barlow Twins ) and Information. They don’t require special architectures or engineering techniques.;La plupart des méthodes non contrastives sont basées sur la théorie de l’information. Par exemple la réduction de la redondance (Barlow Twins) et de l’information. Elles ne nécessitent pas d’architectures spéciales ou de techniques d’ingénierie. VicReg:;VicReg It tries to maximize the information content of the embeddings by producing embedding variables that are decorrelated to each other. If the variables are correlated to each other, they covariate together and the information content is reduced. Thus, it prevents an informational collapse in which the variables carry redundant information. Also, this method requires a comparatively small batch size.;La méthode essaie de maximiser le contenu informationnel des enchâssements en produisant des variables d’enchâssement qui sont décorrélées les unes des autres. Si les variables sont corrélées les unes aux autres, elles covarient ensemble et le contenu informationnel est réduit. Ainsi, cette méthode empêche un effondrement informationnel dans lequel les variables portent des informations redondantes. De plus, cette méthode nécessite une taille de batch relativement faible. Two types of collapse can occur in these architectures:;Deux types d’effondrement peuvent se produire dans ces architectures : Type 1: Irrespective of the input, the network generates the same representation;Type 1: Indépendamment de l’entrée, le réseau génère la même représentation. Type 2: Special collapse - Although different images have different representations, the information content is really low in each representation.;Type 2: Effondrement spécial où bien que des images différentes aient des représentations différentes, le contenu en information est vraiment faible dans chaque représentation. Loss function:;Fonction de perte The loss function is pushing:;La fonction de perte : 1. Positive pairs closer - to be invariant to data augmentation;1. rapproche les paires positives afin d’être invariant à l’augmentation de données 2. The variance of the embeddings large by pushing all of the diagonal terms of the covariance matrix large - to prevent the first kind of collapse;2. rend la variance des enchâssements grande en poussant tous les termes diagonaux de la matrice de covariance afin d’empêcher le premier type d’effondrement. 3. The covariance of the embeddings small by pushing all off the diagonal terms of the covariance matrix small- to prevent the second kind of collapse.;3. rend la covariance des enchâssements faible en poussant tous les termes diagonaux de la matrice de covariance afin d’éviter le second type d’effondrement. Clustering methods;Méthodes de clustering SwAV;SwAV This method prevents trivial solution by quantizing the embedding space. SwAV does the following:;Cette méthode empêche la solution triviale en quantifiant l’espace d’incorporation et fonctionne de la façon suivante : 1. Generates representations and stack the generated representations ( into Hx​ and Hy​ ).;1. On génère des représentations et on les empile (pour former Hx​ et Hy​). 2. Applies sinkhorn clustering method to each of the stacked representation to generate corresponding clustered Q matrices where each row ( qx​ ) represents a one hot vector indicating the cluster the corresponding representation belongs to;2. On applique la méthode de clustering de l’algorithme de Sinkhorn à chacune des représentations empilées afin de générer les matrices Q correspondantes. Chaque ligne (qx) de ces matrices représente un vecteur one-hot indiquant le cluster auquel appartient la représentation correspondante. 4. Minimizes the loss function which is the sum of two crossentropy functions between qxqx​ and qx​~​ and qy​ and qy​~​.;4. on minimise la fonction de perte qui est la somme de deux fonctions d’entropie croisée entre qxqx​ et qx~​ et qy et qy​~​. The Loss function:;La fonction de perte Sinkhorn algorithm: Sinkhorn algorithm can distribute samples to not just one cluster but to every cluster. Thus, it can help us prevent all the data clustering into a single centroid or any such nonuniform distribution. It takes in hyperparameters that allow us to deploy different levels of uniform distribution across clusters degenerating to K-means algorithm on one extreme and to the perfectly uniform distribution on the other extreme;L’algorithme de Sinkhorn : L’algorithme de Sinkhorn permet de distribuer les échantillons non pas à un seul cluster mais à tous les clusters. Ainsi, il peut nous aider à éviter que toutes les données se regroupent en un seul centroïde ou toute autre distribution non uniforme. Il prend en compte des hyperparamètres qui nous permettent de déployer différents niveaux de distribution uniforme entre les clusters, revenant à équivaloir à l’algorithme K-means à un extrême et à la distribution uniforme à l’autre extrême. Softargmax clustering: Each hy​ is normalized. Why​ indicates similarity between hy and all other centroids. Softargmax turns the cosine similarly ( positive or negative ) into a probability.;Clustering softargmax : Chaque hy​ est normalisé. L’indice Why indique la similarité entre hy​ et tous les autres centroïdes. La fonction softargmax transforme la similarité cosinus (positif ou négatif) en une probabilité. Interpretation of clusters:;Interprétation des clusters This method partitions latent space into a few clusters automatically without labels and the hope is that these clusters will be related to the actual classes. Thus, later, we would just need a few labeled data samples to assign each cluster to the corresponding label under supervised learning.;Cette méthode partitionne automatiquement l’espace latent en quelques clusters sans étiquettes et notre espoir est que ces clusters seront liés aux classes réelles. Ainsi, plus tard, nous n’aurons besoin que de quelques échantillons de données étiquetées pour affecter chaque cluster à l’étiquette correspondante dans le cadre de l’apprentissage supervisé. Invariance to data augmentation:;Invariance à l’augmentation de données Instead of pushing the pairs closer to each other, you push both the representations to be inside the same cluster.;Au lieu de rapprocher les paires l’une de l’autre, on pousse les deux représentations à se trouver dans le même cluster. Preventing trivial solution;Empêcher les solutions triviales In a trivial solution, all the representations will be the same and thus belong to the same centroid. However, with sinkhorn, different clusters have an equal number of samples, thus the representations can’t be put into one centroid, preventing a trivial solution.;Dans une solution triviale, toutes les représentations sont identiques et appartiennent donc au même centroïde. Cependant, avec Sinkhorn, les différents clusters ont un nombre égal d’échantillons, de ce fait les représentations ne peuvent pas être placées dans un seul centroïde. Cela empêche ainsi une solution triviale. Other methods;« Autres méthodes » The loss function for all the previous methods including contrasting methods needs a batch or pool of negative samples, thus creating problems with distributed training. However, the loss functions of these methods are local. These methods perform well but an understanding of why they don’t collapse is not yet available. Probably there’s some implicit regularization happening in these networks to prevent them from converging to a trivial solution.;La fonction de perte de toutes les méthodes précédentes, y compris les méthodes contrastives, nécessite un batch ou un pool d’échantillons négatifs, ce qui pose des problèmes pour l’entraînement distribué. Cependant, les fonctions de perte de ces méthodes sont locales. Ces méthodes sont performantes mais on ne comprend pas encore pourquoi elles ne s’effondrent pas. Il y a probablement une régularisation implicite dans ces réseaux qui les empêche de converger vers une solution triviale. BYOL:;BYOL BYOL adds a predictor, predicting hy from hx​. The energy function (D) is a cosine similarity between hy and predicted hy​. There is no term for negative samples i.e., this method only pushes positive pairs closer and has no enforcement on negative pairs. It is thought that asymmetrical architecture with extra layers makes this method work.;BYOL ajoute un prédicteur, prédisant hy à partir de hx​. La fonction d’énergie (D) est une similarité cosinus entre hy​ et le hy prédit. Il n’y a pas de terme pour les échantillons négatifs, c’est-à-dire que cette méthode ne fait que rapprocher les paires positives et n’a aucune action sur les paires négatives. On pense que l’architecture asymétrique avec des couches supplémentaires permet à cette méthode de fonctionner. SimSiam is a followup version that uses a regular backbone instead of the momentum backbone;SimSiam est une version postérieure qui utilise un backbone normal au lieu d’un backbone avec momentum. Dino:;Dino The two softargmax components used have different coldness or temperature. The energy function is the cross entropy between these two, pushing them together. Even this method doesn’t enforce anything on negative samples.;Les deux composants softargmax utilisés ont une froideur/température différente. La fonction d’énergie est l’entropie croisée entre ces deux, rapprochant ces composants. Cette méthode n’impose rien sur les échantillons négatifs. Data2Vec:;Data2Vec Adds a layer norm at the end of the representation.;Ajoute une couche de norme à la fin de la représentation. Initialization of the network:;Initialisation du réseau If you initialize the network with a trivial solution, then that network will never work. This is because if the trivial solution is already achieved, the loss function will produce a zero gradient and thus, can never escape from the trivial solution. However, in other cases, the training dynamic is adjusted in a way that they never converge in these methods.;Si vous initialisez le réseau avec une solution triviale, alors ce réseau ne fonctionnera jamais. En effet, si la solution triviale est déjà atteinte, la fonction de perte produira un gradient nul et ne pourra donc jamais s’échapper de la solution triviale. Cependant, dans d’autres cas, la dynamique d’entraînement est ajustée de telle sorte qu’ils ne convergent jamais dans ces méthodes. Improvements for JEMs;Améliorations pour les JEMs We can further improve these models by experimenting with data augmentation and network architecture. We don’t have a good understanding of these but they are very important. In fact, finding good augmentation may boost more performance than changing the loss function.;Nous pouvons encore améliorer ces modèles en faisant des expériences sur l’augmentation des données et l’architecture du réseau. Nous n’avons pas une bonne compréhension de ces éléments, mais ils sont très importants. En fait, trouver une bonne augmentation peut améliorer les performances plus que la modification de la fonction de perte. Data Augmentation;Augmentation de données Most dominant augmentations were proposed by simCLR and improved a little bit by BYOL:;La plupart des augmentations dominantes ont été proposées par SimCLR et améliorées un peu par BYOL : 1. Random Crop (the most critical one);1. Recadrage aléatoire (le plus critique) 2. Flip;2. Retournement 3. Color Jitter;3. Variation de couleur 4. Gaussian Blur;4. Flou gaussien It has been found empirically that random crop is the most critical one. It might be because the random crop is the only we can change the spatial information about the images. Flip does the same partly but is weak. Color jitter and gaussian blur change channels.;Il a été constaté empiriquement que le recadrage aléatoire est le plus critique. Cela pourrait être dû au fait que le recadrage aléatoire est le seul moyen de modifier l’information spatiale des images. Le retournement fait la même chose en partie, mais il est faible. La variation de couleur et le flou gaussien changent les canaux. Masking augmentation:;Augmentation masquée Recently people are moving towards masking augmentation instead of traditional augmentation in which we mask out most ( ~75% in the below image ) of the patches. It can replace random crop since it’s another way to remove the redundancy of the spatial information;Récemment, les chercheurs se sont tournés vers l’augmentation par masquage au lieu de l’augmentation traditionnelle dans laquelle nous masquons la plupart (~75% dans l’image ci-dessous) des patchs. Elle peut remplacer le recadrage aléatoire car c’est une autre façon de supprimer la redondance de l’information spatiale. Issues: This works well only with transformer type of architecture and not with convnet. This is because masking introduces too many random artificial edges. For any transformer, the first layer is the conv layer, with kernel size equal to the patch size and thus, this never experiences artificial edges. For convnets which have sliding windows, the artificial edges can’t be ignored and will result in noise.;Problèmes : Cela ne fonctionne bien qu’avec une architecture de type transformer et non avec de type ConvNet. En effet, le masquage introduit trop de bords artificiels aléatoires. Pour n’importe quel transformer, la première couche est la couche ConvNet, avec une taille de noyau égale à la taille du patch, ce qui fait qu’il n’y a jamais de bords artificiels. Pour les ConvNets qui ont des fenêtres glissantes, les bords artificiels ne peuvent pas être ignorés et se traduiront par du bruit. Projector/Expander:;Projecteur/Expandeur It is a two/three-layer feed-forward neural network and empirical results show that it is always better to add this in the network architecture.;Il s’agit d’un réseau neuronal feed-forward à deux/trois couches et les résultats empiriques montrent qu’il est toujours préférable de l’ajouter dans l’architecture du réseau. The projector is used to project into a lower dimension and the expander is used to project into a higher dimension. A projector is used only during the pretraining and removed while performing the downstream task. This is because the projector removes a lot of information even if the output dimension of the projector and the backbone are the same.;Le projecteur est utilisé pour projeter dans une dimension inférieure et l’extenseur est utilisé pour projeter dans une dimension supérieure. Le projecteur n’est utilisé que pendant le pré-entraînement et est supprimé pendant l’exécution de la tâche en aval. En effet, le projecteur supprime beaucoup d’informations même si la dimension de sortie du projecteur et du backbone est la même. Momentum Encoder;Encodeur avec momentum Even without a memory bank, a momentum encoder usually helps the performance of the downstream tasks, especially with weak data augmentation.;Même sans banque mémoire, un encodeur avec momentum aide généralement à la performance des tâches en aval, surtout avec une faible augmentation de données.