English
stringlengths
2
2.26k
French
stringlengths
2
1.87k
Example: dynamic input length
Exemple : longueur d’entrée dynamique
We can build a CNN with 2 convolution layers with stride 1 and 2 pooling layers with stride 2 such that the overall stride is 4. Thus, if we want to get a new output, we need to shift our input window by 4. To be more explicit, we can see the figure below (green units). First, we have an input of size 10, and we perform convolution of size 3 to get 8 units. After that, we perform pooling of size 2 to get 4 units. Similarly, we repeat the convolution and pooling again and eventually we get 1 output.
Nous pouvons construire un ConvNet avec 2 couches de convolution avec un pas de 1 et deux couches de pooling avec un pas de 2 de telle sorte que le pas global soit de 4. Ainsi, si nous voulons obtenir une nouvelle sortie, nous devons décaler notre fenêtre d’entrée de 4. Pour être plus explicite, nous pouvons voir la figure ci-dessous (unités vertes). Tout d’abord, nous avons une entrée de taille 10, et nous effectuons une convolution de taille 3 pour obtenir 8 unités. Ensuite, nous effectuons un pooling de taille 2 pour obtenir 4 unités. De même, nous répétons la convolution et le pooling et nous obtenons finalement une sortie de taille 1.
Let’s assume we add 4 units at the input layer (pink units above), so that we can get 4 more units after the first convolution layer, 2 more units after the first pooling layer, 2 more units after the second convolution layer, and 1 more output. Therefore, window size to generate a new output is 4 (2 stride ×2). Moreover, this is a demonstration of the fact that if we increase the size of the input, we will increase the size of every layer, proving CNNs’ capability in handling dynamic length inputs.
Supposons que nous ajoutions 4 unités à la couche d’entrée (unités roses au-dessus), de sorte que nous puissions obtenir 4 unités supplémentaires après la première couche de convolution, 2 unités supplémentaires après la première couche de pooling, 2 unités supplémentaires après la deuxième couche de convolution et 1 unité supplémentaire en sortie. Par conséquent, la taille de la fenêtre pour générer une nouvelle sortie est de 4 (deux fois 2 pas) . De plus, cela démontre que si nous augmentons la taille de l’entrée, nous augmenterons la taille de chaque couche, ce qui prouve la capacité des ConvNets à gérer les entrées de longueur dynamique.
What are CNN good for
Pour quelles taches les ConvNets sont performants ?
CNNs are good for natural signals that come in the form of multidimensional arrays and have three major properties:
Les ConvNets sont performants pour les signaux naturels qui se présentent sous la forme de réseaux multidimensionnels et ont trois propriétés principales :
1. Locality: The first one is that there is a strong local correlation between values. If we take two nearby pixels of a natural image, those pixels are very likely to have the same colour. As two pixels become further apart, the similarity between them will decrease. The local correlations can help us detect local features, which is what the CNNs are doing. If we feed the CNN with permuted pixels, it will not perform well at recognizing the input images, while FC will not be affected. The local correlation justifies local connections.
1. La localisation : la première est qu’il existe une forte corrélation locale entre les valeurs. Si nous prenons deux pixels proches d’une image naturelle, il est très probable que ces pixels aient la même couleur. Plus deux pixels sont éloignés l’un de l’autre, plus la similitude entre eux diminue. Les corrélations locales peuvent nous aider à détecter des caractéristiques locales, ce que font les ConvNets. Si nous alimentons le ConvNet avec des pixels permutés, il ne sera pas performant dans la reconnaissance des images d’entrée, tandis que le FC ne sera pas affecté. La corrélation locale justifie les connexions locales.
2. Stationarity: Second character is that the features are essential and can appear anywhere on the image, justifying the shared weights and pooling. Moreover, statistical signals are uniformly distributed, which means we need to repeat the feature detection for every location on the input image.
2. La stationnarité : le deuxième caractère est que les caractéristiques sont essentielles et peuvent apparaître n’importe où sur l’image, justifiant les partages des poids et le pooling. De plus, les signaux statistiques sont uniformément distribués, ce qui signifie que nous devons répéter la détection des caractéristiques pour chaque emplacement sur l’image d’entrée.
3. Compositionality: Third character is that the natural images are compositional, meaning the features compose an image in a hierarhical manner. This justifies the use of multiple layers of neurons, which also corresponds closely with Hubel and Weisel’s research on simple and complex cells.
3. La compostionnalité : le troisième caractère est que les images naturelles sont compositionnelles, ce qui signifie que les caractéristiques composent une image de manière hiératique. Cela justifie l’utilisation de plusieurs couches de neurones, ce qui correspond aussi étroitement aux recherches de Hubel et Weisel sur les cellules simples et complexes.
Furthermore, people make good use of CNNs on videos, images, texts, and speech recognition.
En outre, les ConvNets sont utilisés sur les vidéos, les images, les textes et la reconnaissance vocale.
Properties of natural signals
Propriétés des signaux naturels
All signals can be thought of as vectors. As an example, an audio signal is a 1D signal x=[x1​,x2​,⋯,xT​] where each value xt represents the amplitude of the waveform at time t. To make sense of what someone is speaking, your cochlea first converts the air pressure vibrations to signals and then your brain uses a language model to convert this signal to a language i.e. it needs to pick the most probable utterance given the signal. For music, the signal is stereophonic which has 2 or more channels to give you an illusion that the sound is coming from multiple directions. Even though it has 2 channels, it’s still a 1D signal because time is the only variable along which the signal is changing.
Tous les signaux peuvent être considérés comme des vecteurs. Par exemple, un signal audio est un signal 1D x=[x1​,x2​,⋯,xT​] où chaque valeur xt​ représente l’amplitude de la forme d’onde au moment tt. Pour comprendre ce que dit une personne, votre cochlée convertit d’abord les vibrations de la pression atmosphérique en signaux, puis votre cerveau utilise un modèle linguistique pour convertir ce signal en une langue, c’est-à-dire qu’il doit choisir l’énoncé le plus probable compte tenu du signal. Pour la musique, le signal est stéréophonique et possède 2 canaux ou plus pour vous donner l’illusion que le son provient de plusieurs directions. Même s’il a 2 canaux, c’est toujours un signal 1D car le temps est la seule variable le long de laquelle le signal change.
An image is a 2D signal because the information is spatially depicted. Note that each point can be a vector in itself. This means that if we have d channels in an image, each spatial point in the image is a vector of dimension d. A color image has RGB planes, which means d=3. For any point xi,j this corresponds to the intensity of red, green and blue colors respectively.
Une image est un signal 2D parce que l’information est représentée dans l’espace. Notez que chaque point peut être un vecteur en soi. Cela signifie que si nous avons des canaux d dans une image, chaque point spatial dans l’image est un vecteur de dimension d. Une image couleur a des plans RVB, ce qui signifie d=3. Pour tout point xi,j, cela correspond à l’intensité des couleurs rouge, verte et bleue respectivement.
We can even represent language with the above logic. Each word corresponds to a one-hot vector with one at the position it occurs in our vocabulary and zeroes everywhere else. This means that each word is a vector of the size of the vocabulary.
Nous pouvons même représenter le langage avec la logique ci-dessus. Chaque mot correspond à un vecteur one-hot avec un à la position où il se trouve dans notre vocabulaire et des zéros partout ailleurs. Cela signifie que chaque mot est un vecteur de la taille du vocabulaire.
Natural data signals follow these properties:
Les signaux de données naturels suivent ces propriétés :
1. Stationarity: Certain motifs repeat throughout a signal. In audio signals, we observe the same type of patterns over and over again across the temporal domain. In images, this means that we can expect similar visual patterns repeat across the dimensionality.
1. Stationnarité : certains motifs se répètent tout au long d’un signal. Dans les signaux audio, nous observons le même type de motifs encore et encore dans le domaine temporel. Dans les images, cela signifie que nous pouvons nous attendre à ce que des motifs visuels similaires se répètent dans toute la dimensionnalité.
2. Locality: Nearby points are more correlated than points far away. For 1D signal, this means that if we observe a peak at some point ti​, we expect the points in a small window around ti to have similar values as titi​ but for a point tj​ far away from ti​, xti​​ has very less bearing on xtj​​. More formally, the convolution between a signal and its flipped counterpart has a peak when the signal is perfectly overlapping with it’s flipped version. A convolution between two 1D signals (cross-correlation) is nothing but their dot product which is a measure of how similar or close the two vectors are. Thus, information is contained in specific portions and parts of the signal. For images, this means that the correlation between two points in an image decreases as we move the points away. If x0,0​ pixel is blue, the probability that the next pixel (x1,0) is also blue is pretty high but as you move to the opposite end of the image (x−1,−1​), the value of this pixel is independent of the pixel value at x0,0​.
2. Localité : les points proches sont plus corrélés que les points éloignés. Pour un signal 1D, cela signifie que si nous observons un pic à un certain point ti​, nous nous attendons à ce que les points dans une petite fenêtre autour de ti​ aient des valeurs similaires à ti​ mais pour un point tj éloigné de ti​, xti​​ a très peu d’influence sur xtj​​. Plus formellement, la convolution entre un signal et son homologue inversé a un pic lorsque le signal chevauche parfaitement sa version inversée. Une convolution entre deux signaux 1D (corrélation croisée) n’est rien d’autre que leur produit scalaire, qui est une mesure de la similarité ou de la proximité des deux vecteurs. Ainsi, l’information est contenue dans des portions et des parties spécifiques du signal. Pour les images, cela signifie que la corrélation entre deux points dans une image diminue à mesure que l’on s’éloigne des points. Si le pixel x0,0​ est bleu, la probabilité que le pixel suivant (x1,0,x0,1​) soit également bleu est assez élevée, mais lorsque l’on se déplace vers l’extrémité opposée de l’image (x−1,−1​), la valeur de ce pixel est indépendante de la valeur du pixel à x0,0​.
3. Compositionality: Everything in nature is composed of parts that are composed of sub-parts and so on. As an example, characters form strings that form words, which further form sentences. Sentences can be combined to form documents. Compositionality allows the world to be explainable.
3. Compositionnalité : tout dans la nature est composé de parties qui sont composées de sous-parties et ainsi de suite. Par exemple, les caractères forment des chaînes de caractères qui forment des mots, qui forment ensuite des phrases. Les phrases peuvent être combinées pour former des documents. La compositionnalité permet d’expliquer le monde.
If our data exhibits stationarity, locality, and compositionality, we can exploit them with networks that use sparsity, weight sharing and stacking of layers.
Si nos données sont stationnaires, locales et composées, nous pouvons les exploiter grâce à des réseaux qui utilisent l’ éparsité, le partage des poids et l’empilement des couches.
Exploiting properties of natural signals to build invariance and equivariance
Exploitation des propriétés des signaux naturels pour construire l’invariance et l’équivariance
Locality ⇒ sparsity
Localité ⇒ éparsité
Fig.1 shows a 5-layer fully connected network. Each arrow represents a weight to be multiplied by the inputs. As we can see, this network is very computationally expensive.
La figure 1 montre un réseau à 5 couches entièrement connecté. Chaque flèche représente un poids à multiplier par les entrées. Comme on peut le voir, ce réseau est très coûteux en termes de calcul.
If our data exhibits locality, each neuron needs to be connected to only a few local neurons of the previous layer. Thus, some connections can be dropped as shown in Fig.2. Fig.2(a) represents an FC network. Taking advantage of the locality property of our data, we drop connections between far away neurons in Fig.2(b). Although the hidden layer neurons (green) in Fig.2(b) don’t span the whole input, the overall architecture will be able to account for all input neurons. The receptive field (RF) is the number of neurons of previous layers, that each neuron of a particular layer can see or has taken into account. Therefore, the RF of the output layer w.r.t the hidden layer is 3, RF of the hidden layer w.r.t the input layer is 3, but the RF of the output layer w.r.t the input layer is 5.
Si nos données montrent une localité, chaque neurone doit être connecté à seulement quelques neurones locaux de la couche précédente. Ainsi, certaines connexions peuvent être supprimées comme le montre la figure 2. La figure 2(a) représente un réseau entièrement connecté. En profitant de la propriété de localisation de nos données, nous supprimons les connexions entre les neurones éloignés dans la figure 2(b). Bien que les neurones de la couche cachée (vert) de la figure 2(b) ne couvrent pas la totalité de l’entrée, l’architecture globale pourra prendre en compte tous les neurones d’entrée. Le champ réceptif (abrégé RF pour receptive field en anglais) est le nombre de neurones des couches précédentes, que chaque neurone d’une couche particulière peut voir ou a pris en compte. Par conséquent, le RF de la couche de sortie est de 3 pour la couche cachée, le RF de la couche cachée est de 3 pour la couche d’entrée, mais le RF de la couche de sortie est de 5 pour la couche d’entrée.
Stationarity ⇒ parameters sharing
Stationnarité ⇒ partage des paramètres
If our data exhibits stationarity, we could use a small set of parameters multiple times across the network architecture. For example in our sparse network, Fig.3(a), we can use a set of 3 shared parameters (yellow, orange and red). The number of parameters will then drop from 9 to 3! The new architecture might even work better because we have more data for training those specific weights. The weights after applying sparsity and parameter sharing is called a convolution kernel.
Si nos données sont stationnaires, nous pourrions utiliser un petit ensemble de paramètres plusieurs fois dans l’architecture du réseau. Par exemple, dans notre réseau épars, figure 3(a), nous pouvons utiliser un ensemble de 3 paramètres partagés (jaune, orange et rouge). Le nombre de paramètres passera alors de 9 à 3 ! La nouvelle architecture pourrait même fonctionner mieux car nous disposons de plus de données pour l’entraînement de ces poids spécifiques. Les poids après avoir appliqué l’éparsité et le partage des paramètres sont appelés noyau de convolution.
Following are some advantages of using sparsity and parameter sharing:
Voici quelques avantages de l’utilisation du partage des paramètres et de l’éparsité :
Parameter sharing
Partage des paramètres :
faster convergence
une convergence plus rapide
better generalisation
une meilleure généralisation
not constained to input size
ne concerne pas la taille de l’entrée
kernel indepence ⇒ high parallelisation
Indépendance du noyau ⇒ forte parallélisation
Connection sparsity
L’éparsité de connexion :
reduced amount of computation
montant de calcul nécessaire réduit
Fig.4 shows an example of kernels on 1D data, where the kernel size is: 2(number of kernels) * 7(thickness of the previous layer) * 3(number of unique connections/weights).
La figure 4 montre un exemple de noyaux sur des données 1D, où la taille du noyau est : 2 (nombre de noyaux) × 7 (épaisseur de la couche précédente) × 3 (nombre de connexions/poids uniques).
The choice of kernel size is empirical. 3 * 3 convolution seems to be the minimal size for spatial data. Convolution of size 1 can be used to obtain a final layer that can be applied to a larger input image. Kernel size of even number might lower the quality of the data, thus we always have kernel size of odd numbers, usually 3 or 5.
Le choix de la taille du noyau est empirique. Une convolution 3 × 3 semble être la taille minimale pour les données spatiales. La convolution de taille 1 peut être utilisée pour obtenir une couche finale qui peut être appliquée à une image d’entrée plus grande. Une taille de noyau de nombre pair peut réduire la qualité des données, c’est pourquoi nous avons toujours une taille de noyau de nombre impair, généralement 3 ou 5.
Padding
Rembourrage (padding)
Padding generally hurts the final results, but it is convenient programmatically. We usually use zero-padding: size = (kernel size - 1)/2.
Le rembourrage nuit généralement aux résultats finaux, mais il est pratique du point de vue programmatique. Nous utilisons généralement le zero-padding : size = (taille du noyau - 1)/2.
Standard spatial CNN
ConvNet spatial standard
A standard spatial CNN has the following properties:
Un ConvNet spatial standard a les propriétés suivantes :
Multiple layers
Couches multiples
Convolution
Convolution
Non-linearity (ReLU and Leaky)
Non-linéarité (ReLU et Leaky)
Pooling
Pooling
Batch normalisation
Normalisation par batch
Residual bypass connection
Connexion résiduelle
Batch normalization and residual bypass connections are very helpful to get the network to train well. Parts of a signal can get lost if too many layers have been stacked so, additional connections via residual bypass, guarantee a path from bottom to top and also for a path for gradients coming from top to bottom.
La normalisation par batch et les connexions résiduelles sont très utiles pour que le réseau s’entraîne bien. Des parties d’un signal peuvent être perdues si trop de couches ont été empilées, de sorte que des connexions résiduelles garantissent un chemin de bas en haut et aussi un chemin pour les gradients venant de haut en bas.
In Fig.5, while the input image contains mostly spatial information across two dimensions (apart from characteristic information, which is the color of each pixel), the output layer is thick. Midway, there is a tradeoff between the spatial information and the characteristic information and the representation becomes denser. Therefore, as we move up the hierarchy, we get denser representation as we lose the spatial information.
Dans la figure 5, alors que l’image d’entrée contient principalement des informations spatiales en deux dimensions (à part les informations caractéristiques, qui sont la couleur de chaque pixel), la couche de sortie est épaisse. À mi-chemin, il y a un compromis entre les informations spatiales et les informations caractéristiques, et la représentation devient plus dense. Par conséquent, à mesure que nous montons dans la hiérarchie, nous obtenons une représentation plus dense car nous perdons les informations spatiales.
Pooling
Pooling
A specific operator, Lp-norm, is applied to different regions (refer to Fig.6). Such an operator gives only one value per region (1 value for 4 pixels in our example). We then iterate over the whole data region-by-region, taking steps based on the stride. If we start with m×n data with c channels, we will end up with m/2×n/2 d data still with c channels (refer to Fig.7). Pooling is not parametrized; nevertheless, we can choose different polling types like max pooling, average pooling and so on. The main purpose of pooling reduces the amount of data so that we can compute in a reasonable amount of time.
Un opérateur spécifique, Lp​-norm, est appliqué aux différentes régions (voir figure 6). Un tel opérateur ne donne qu’une seule valeur par région (1 valeur pour 4 pixels dans notre exemple). Nous itérons ensuite sur l’ensemble des données région par région, en prenant des mesures basées sur le pas. Si nous commençons avec m×n données avec c canaux, nous finirons avec m/2×n/2 données toujours avec des canaux c (voir figure 7). Le pooling n’est pas paramétré néanmoins, nous pouvons choisir différents types comme le max-pooling, l’average-pooling, etc. Le but principal du pooling est de réduire la quantité de données afin que nous puissions faire les calculs dans un délai raisonnable.
CNN - Jupyter Notebook
ConvNet - Notebook Jupyter
In this notebook, we train a multilayer perceptron (FC network) and a convolution neural network (CNN) for the classification task on the MNIST dataset. Note that both networks have an equal number of parameters. (Fig.8)
Dans ce notebook Jupyter, nous entraînons un perceptron multicouche (réseau entièrement connecté) et un ConvNet pour la tâche de classification sur le jeu de données MNIST. Notez que les deux réseaux ont un nombre égal de paramètres (figure 8).
Before training, we normalize our data so that the initialization of the network will match our data distribution (very important!). Also, make sure that the following five operations/steps are present in your training:
Avant l’entraînement, nous normalisons nos données afin que l’initialisation du réseau corresponde à notre distribution de données (très important !). De plus, on s’assure que les cinq opérations / étapes suivantes sont présentes dans notre entraînement :
1. Feeding data to the model
1. Alimentation du modèle en données
2. Computing the loss
2. Calcul de la perte
3. Cleaning the cache of accumulated gradients with zero_grad()
3. Nettoyage le cache des gradients accumulés avec zero_grad()
4. Computing the gradients
4. Calcul des gradients
5. Performing a step in the optimizer method
5. Exécution d’une étape dans l’optimiseur
First, we train both the networks on the normalized MNIST data. The accuracy of the FC network turned out to be 87% while the accuracy of the CNN turned out to be 95%. Given the same number of parameters, the CNN managed to train many more filters. In the FC network, filters that try to get some dependencies between things that are further away with things that are close by, are trained. They are completely wasted. Instead, in the convolutional network, all these parameters concentrate on the relationship between neighbor pixels.
Tout d’abord, nous entraînons les deux réseaux aux données normalisées du MNIST. La précision du réseau entièrement connecté s’est avérée être de 87 %, tandis que celle du réseau ConvNet s’est révélée être de 95 %. Avec le même nombre de paramètres, le ConvNet a réussi à entraîner beaucoup plus de filtres. Dans le réseau entièrement connecté, les filtres qui essaient d’obtenir des dépendances entre des choses qui sont plus éloignées et des choses qui sont proches, sont entraînés et sont complètement gaspillés. Au lieu de cela, dans le ConvNet, tous ces paramètres se concentrent sur la relation entre les pixels voisins.
Next, we perform a random permutation of all the pixels in all the images of our MNIST dataset. This transforms our Fig.8 to Fig.9. We then train both the networks on this modified dataset.
Ensuite, nous effectuons une permutation aléatoire de tous les pixels dans toutes les images de notre jeu de données MNIST. Cela transforme notre figure 8 en figure 9. Nous entraînons ensuite les deux réseaux sur ce jeu de données modifié.
The performance of the FC network almost stayed unchanged (85%), but the accuracy of CNN dropped to 83%. This is because, after a random permutation, the images no longer hold the three properties of locality, stationarity, and compositionality, that are exploitable by a CNN.
Les performances du réseau entièrement connecté sont restées pratiquement inchangées à 85 %, mais la précision du ConvNet est tombée à 83 %. En effet, après une permutation aléatoire, les images ne possèdent plus les trois propriétés de localité, de stationnarité et de composition, exploitables par un ConvNet.
Week 4
Semaine 4
We start with a brief review of linear algebra and then extend the topic to convolutions using audio data as an example. Key concepts like locality, stationarity and Toeplitz matrix are reiterated. Then we give a live demo of convolution performance in pitch analysis. Finally, there is a short digression about the dimensionality of different data.
Nous commençons par un bref examen d’algèbre linéaire, puis nous étendons le sujet aux convolutions en utilisant comme exemple des données audio. Des concepts clés comme la localité, la stationnarité et les matrices de Toeplitz sont rappelés. Ensuite, nous faisons une démonstration des performances des convolutions dans l’analyse de la hauteur de son. Nous terminons par une courte digression sur la dimensionnalité des différentes données.
Linear Algebra and Convolutions
Algebre linéaire et convolutions
Linear Algebra review
Rappel d’algèbre linéaire
This part is a recap of basic linear algebra in the context of neural networks. We start with a simple hidden layer h:
Cette partie est une récapitulation de l’algèbre linéaire de base dans le contexte des réseaux de neurones. Nous commençons par une simple couche cachée h :
The output is a non-linear function f applied to a vector z.
La sortie est une fonction non linéaire f appliquée à un vecteur z.
For simplicity biases are ignored. The linear equation can be expanded as:
Par souci de simplicité, les biais sont ignorés. L’équation linéaire peut être développée comme suit :
To understand the meaning of this transformation, let us analyse one component of z such as a(1)x
Pour comprendre la signification de cette transformation, analysons une composante de z telle que a(1)x
a and x can be drawn as vectors in the 2D coordinate axis. Now, if the angle between a and ı^ is α and the angle between x and ı^ is ξ, then with trigonometric formulae a⊤x can be expanded as:
a et x peuvent être dessinés comme des vecteurs dans l’axe des coordonnées 2D. Maintenant, si l’angle entre a et ı^ est α et l’angle entre x et ı^ est ξ, alors avec les formules trigonométriques a⊤x (la traduction impose d’utiliser la notation anglo-saxonne de la transposée) peut être étendu comme :
The output measures the alignment of the input to a specific row of the matrix A. This can be understood by observing the angle between the two vectors, ξ−α. Whenξ=α, the two vectors are perfectly aligned and maximum is attained. If ξ−α=π, then a⊤x attains its minimum and the two vectors are pointing at opposite directions. In essence, the linear transformation allows one to see the projection of an input to various orientations as defined by A. This intuition is expandable to higher dimensions as well.
La sortie mesure l’alignement de l’entrée sur une ligne spécifique de la matrice A. Cela peut être compris en observant l’angle entre les deux vecteurs, ξ−α. Lorsque ξ=α, les deux vecteurs sont parfaitement alignés et le maximum est atteint. Si ξ−α=π, alors a⊤x atteint son minimum et les deux vecteurs sont orientés dans des directions opposées. En substance, la transformation linéaire permet de voir la projection d’une entrée vers différentes orientations définies par A. Cette intuition est également extensible à des dimensions plus élevées.
Another way to understand the linear transformation is by understanding that z can also be expanded as:
Une autre façon de comprendre la transformation linéaire est de comprendre que z peut aussi être étendu comme :
The output is the weighted sum of the columns of matrix A. Therefore, the signal is nothing but a composition of the input.
La sortie est la somme pondérée des colonnes de la matrice A. Par conséquent, le signal n’est rien d’autre qu’une composition de l’entrée.
Extend Linear Algebra to convolutions
Extension de l’algèbre linéaire aux convolutions
Now we extend linear algebra to convolutions, by using the example of audio data analysis. We start with representing a fully connected layer as a form of matrix multiplication: -
Nous étendons maintenant l’algèbre linéaire aux convolutions en utilisant l’exemple de l’analyse des données audio. Nous commençons par représenter une couche entièrement connectée comme une forme de multiplication matricielle :
In this example, the weight matrix has a size of 4×3, the input vector has a size of 3×1 and the output vector has a of size 4×1.
Dans cet exemple, la matrice de poids a une taille de 4×3, le vecteur d’entrée a une taille de 3×1 et le vecteur de sortie a une taille de 4×1.
However, for audio data, the data is much longer (not 3-sample long). The number of samples in the audio data is equal to the duration of the audio (e.g. 3 seconds) times the sampling rate (e.g. 22.05 kHz). As shown below, the input vector x will be quite long. Correspondingly, the weight matrix will become “fat”.
Cependant, pour les données audio, les données sont beaucoup plus longues (pas de 3 échantillons). Le nombre d’échantillons dans les données audio est égal à la durée de l’audio (par exemple 3 secondes) multipliée par le taux d’échantillonnage (par exemple 22,05 kHz). Comme indiqué ci-dessous, le vecteur d’entrée x est assez long. En conséquence, la matrice de poids devient « grosse ».
The above formulation will be difficult to train. Fortunately there are ways to simplify the same.
La formulation ci-dessus sera difficile à entraîner. Heureusement, il existe des moyens de la simplifier.
Property: locality
Propriété : localité
Due to locality (i.e. we do not care for data points that are far away) of data, w1k​ from the weight matrix above, can be filled with 0 when k is relatively large. Therefore, the first row of the matrix becomes a kernel of size 3.
En raison de la localité (c’est-à-dire que nous ne nous soucions pas des points de données qui sont éloignés) des données, w1k​ de la matrice de pondération ci-dessus, peut être rempli par des 0 lorsque k est relativement important. Par conséquent, la première ligne de la matrice devient un noyau de taille 3.
Property: stationarity
Propriété : stationnarité
Natural data signals have the property of stationarity (i.e. certain patterns/motifs will repeat). This helps us reuse kernel a(1) that we defined previously. We use this kernel by placing it one step further each time (i.e. stride is 1), resulting in the following:
Les signaux de données naturelles ont la propriété d’être stationnaires (c’est-à-dire que certains modèles/motifs se répètent). Cela nous permet de réutiliser le noyau a(1) que nous avons défini précédemment. Nous utilisons ce noyau en le plaçant chaque fois un pas plus loin (c’est-à-dire que le pas est de 1), ce qui donne le résultat suivant :
Both the upper right part and lower left part of the matrix are filled with 0s thanks to locality, leading to sparsity. The reuse of a certain kernel again and again is called weight sharing.
La partie supérieure droite et la partie inférieure gauche de la matrice sont toutes deux remplies de 0 grâce à la localité, ce qui entraîne une certaine éparsité. La réutilisation d’un certain noyau encore et encore est appelée partage du poids.
Multiple layers of Toeplitz matrix
Plusieurs couches de la matrice de Toeplitz
After these changes, the number of parameters we are left with is 3 (i.e. a1,a2,a3​). In comparison to the previous weight matrix, which had 12 parameters (i.e. w11,w12,⋯ ,w43), the current number of parameters is too restrictive and we would like to expand the same.
Après ces changements, le nombre de paramètres qui nous reste est de 3 (c’est-à-dire a1​,a2​,a3​). Par rapport à la matrice de pondération précédente, qui comportait 12 paramètres (c’est-à-dire w11,w12,⋯ ,w4​), le nombre actuel de paramètres est trop restrictif et nous souhaitons le développer.
The previous matrix can be considered to be a layer (i.e. a convolutional layer) with the kernel a(1). Then we can construct multiple layers with different kernels a(2), a(3), etc, thereby increasing the parameters.
La matrice précédente peut être considérée comme une couche (c’est-à-dire une couche convolutive) avec le noyau a(1). Nous pouvons alors construire plusieurs couches avec différents noyaux a(2), a(3), etc.
Each layer has a matrix containing just one kernel that is replicated multiple times. This type of matrix is called a Toeplitz matrix. In every Toeplitz matrix, each descending diagonal from left to right is constant. The Toeplitz matrices that we use here are sparse matrices as well.
Chaque couche a une matrice contenant un seul noyau qui est répliqué plusieurs fois. Ce type de matrice est appelé matrice de Toeplitz. Dans chaque matrice de Toeplitz, chaque diagonale descendante de gauche à droite est constante. Les matrices de Toeplitz que nous utilisons ici sont également des matrices sparses.
The same matrix multiplication method can be applied on following convolutional layers with other kernels (e.g. a(2) and a(3)) to get similar results.
La même méthode de multiplication matricielle peut être appliquée sur les couches convolutionnelles suivantes avec d’autres noyaux (par exemple a(2) et a(3)) pour obtenir des résultats similaires.
The library librosa enables us to load the audio clip x and its sampling rate. In this case, there are 70641 samples, sampling rate is 22.05kHz and total length of the clip is 3.2s. The imported audio signal is wavy (refer to Fig 1) and we can guess what it sounds like from the amplitude of y axis. The audio signal x(t) is actually the sound played when turning off the Windows system (refer to Fig 2).
La bibliothèque librosa nous permet de charger le clip audio x et son taux d’échantillonnage. Dans ce cas, il y a 70641 échantillons, le taux d’échantillonnage est de 22,05kHz et la durée totale du clip est de 3.2s. Le signal audio importé est ondulé (voir la figure 1) et nous pouvons deviner à quoi il ressemble d’après l’amplitude de l’axe y. Le signal audio x(t) est en fait le son joué lorsque le système Windows s’éteint (voir la figure 2).
We need to seperate the notes from the waveform. To achieve this, if we use Fourier transform (FT) all the notes would come out together and it will be hard to figure out the exact time and location of each pitch. Therefore, a localized FT is needed (also known as spectrogram). As is observed in the spectrogram (refer to Fig 3), different pitches peak at different frequencies (e.g. first pitch peaks at 1600). Concatenating the four pitches at their frequencies gives us a pitched version of the original signal.
Nous devons séparer les notes de la forme de l’onde. Pour y parvenir, si nous utilisons la transformée de Fourier (FT), toutes les notes sortiront ensemble et il sera difficile de déterminer le moment et l’emplacement exacts de chaque hauteur. C’est pourquoi il est nécessaire d’utiliser une transformée de Fourier localisée (également appelée spectrogramme). Comme on peut l’observer dans le spectrogramme (voir la figure 3), les différentes hauteurs de son culminent à des fréquences différentes (par exemple, la première hauteur de son culmine à 1600). En concaténant les quatre hauteurs à leurs fréquences, on obtient une version à hauteur du signal original.
Convolution of the input signal with all the pitches (all the keys of the piano for example) can help extract all notes in the input piece (i.e. the hits when the audio matches the specific kernels). The spectrograms of the original signal and the signal of the concatenated pitches is shown in Fig 4 while the frequencies of the original signal and the four pitches is shown in Fig 5. The plot of the convolutions of the four kernels with the input signal (original signal) is shown in Fig 6. Fig 6 along with the audio clips of the convolutions prove the effectiveness of the convolutions in extracting the notes.
La convolution du signal d’entrée avec toutes les hauteurs (toutes les touches du piano par exemple) peut aider à extraire toutes les notes du morceau d’entrée (c’est-à-dire les coups lorsque l’audio correspond aux noyaux spécifiques). Les spectrogrammes du signal original et du signal des hauteurs concaténées sont illustrés à la figure 4, tandis que les fréquences du signal original et des quatre hauteurs sont illustrées à la figure 5. Le tracé des convolutions des quatre noyaux avec le signal d’entrée (signal original) est illustré à la figure 6. La figure 6 ainsi que les clips audios des convolutions prouvent l’efficacité des convolutions dans l’extraction des notes.
Dimensionality of different datasets
Dimensionnalité des différents jeux de données
The last part is a short digression on the different representations of dimensionality and examples for the same. Here we consider input set X is made of functions mapping from domains Ω to channels c.
La dernière partie est une courte digression sur les différentes représentations de la dimensionnalité et des exemples pour celle-ci. Nous considérons ici que l’ensemble d’entrée X est constitué de fonctions de cartographie des domaines Ω aux canaux c.
Week 5
Semaine 5
We begin by introducing Gradient Descent. We discuss the intuition and also talk about how step sizes play an important role in reaching the solution. Then we move on to SGD and its performance in comparison to Full Batch GD. Finally we talk about Momentum Updates, specifically the two update rules, the intuition behind momentum and its effect on convergence.
Nous commençons par introduire la méthode de descente de gradient (GD pour Gradient Descent). Nous discutons de l’intuition et expliquons également comment la taille des pas joue un rôle important dans l’obtention de la solution. Nous passons ensuite à la descente de gradient stochastique (SGD) et à ses performances par rapport à la descente de gradient « Full Batch ». Enfin, nous parlons des mises à jour dans le momentum, en particulier des deux règles de mise à jour, de l’intuition derrière le momentum et de son effet sur la convergence.
We discuss adaptive methods for SGD such as RMSprop and ADAM. We also talk about normalization layers and their effects on the neural network training process. Finally, we discuss a real-world example of neural nets being used in industry to make MRI scans faster and more efficient.
Nous discutons des méthodes adaptatives pour la SGD telles que RMSprop et ADAM. Nous parlons également des couches de normalisation et de leurs effets sur le processus d’entraînement des réseaux neuronaux. Enfin, nous discutons d’un exemple concret de réseaux de neurones utilisés dans l’industrie pour rendre les IRMs plus rapides et plus efficaces.
We briefly review the matrix-multiplications and then discuss the convolutions. Key point is we use kernels by stacking and shifting. We first understand the 1D convolution by hand, and then use PyTorch to learn the dimension of kernels and output width in 1D and 2D convolutions examples. Furthermore, we use PyTorch to learn about how automatic gradient works and custom-grads.
Nous passons brièvement en revue les multiplications matricielles et discutons ensuite des convolutions. Le point essentiel est que nous utilisons les noyaux en les empilant et en les déplaçant. Nous commençons par comprendre la convolution 1D à la main, puis nous utilisons PyTorch pour apprendre la dimension des noyaux et la largeur de sortie dans des exemples de convolutions 1D et 2D. De plus, nous utilisons PyTorch pour apprendre comment fonctionne le gradient automatique et les gradations personnalisées.
Optimisation Techniques I
Techniques d’optimisation I
Gradient descent
Descente de gradient
We start our study of Optimization Methods with the most basic and the worst (reasoning to follow) method of the lot, Gradient Descent
Nous commençons notre étude des méthodes d’optimisation par la méthode la plus élémentaire et la pire du lot (raisonnement à suivre) : la méthode de la descente de gradient.
The assumption here is that the function f is continuous and differentiable. Our aim is to find the lowest point (valley) of the optimization function. However, the actual direction to this valley is not known. We can only look locally, and therefore the direction of the negative gradient is the best information that we have. Taking a small step in that direction can only take us closer to the minimum. Once we have taken the small step, we again compute the new gradient and again move a small amount in that direction, till we reach the valley. Therefore, essentially all that the gradient descent is doing is following the direction of steepest descent (negative gradient).
On suppose ici que la fonction f est continue et différenciable. Notre objectif est de trouver le point le plus bas (vallée) de la fonction d’optimisation. Cependant, la direction réelle de cette vallée n’est pas connue. Nous ne pouvons regarder que localement et de ce fait la direction du gradient négatif est la meilleure information dont nous disposons. Faire un petit pas dans cette direction ne peut que nous rapprocher du minimum. Une fois que nous avons fait ce petit pas, nous calculons à nouveau le gradient et nous nous déplaçons un peu dans cette direction. Nous répétons le processus jusqu’à ce que nous atteignions la vallée. Par conséquent, la descente de de gradient ne fait essentiellement que suivre la direction de la descente la plus raide (pente négative).
The γ parameter in the iterative update equation is called the step size. Generally we don’t know the value of the optimal step-size; so we have to try different values. Standard practice is to try a bunch of values on a log-scale and then use the best one. There are a few different scenarios that can occur. The image above depicts these scenarios for a 1D quadratic. If the learning rate is too low, then we would make steady progress towards the minimum. However, this might take more time than what is ideal. It is generally very difficult (or impossible) to get a step-size that would directly take us to the minimum. What we would ideally want is to have a step-size a little larger than the optimal. In practice, this gives the quickest convergence. However, if we use too large a learning rate, then the iterates get further and further away from the minima and we get divergence. In practice, we would want to use a learning rate that is just a little less than diverging.
Le paramètre γ dans l’équation de mise à jour itérative est appelé la taille du pas. En général, nous ne connaissons pas la valeur optimale de la taille de pas. Nous devons donc essayer différentes valeurs. La pratique courante consiste à essayer un ensemble de valeurs sur une échelle logarithmique et à sélectionner la meilleure. Quelques scénarios différents peuvent se produire. L’image ci-desosus représente ces scénarios pour une fonction quadratique 1D. Si le taux d’apprentissage est trop faible, alors nous progresserons régulièrement vers le minimum. Cependant, cela prend plus de temps que ce qui est idéal. Il est généralement très difficile (ou impossible) d’obtenir une échelle qui nous mène directement au minimum. L’idéal serait d’avoir une taille de pas un peu plus grande que l’optimale. En pratique, cela permet d’obtenir la convergence la plus rapide. Cependant, si nous utilisons un taux d’apprentissage trop élevé, les itérations s’éloignent de plus en plus des minima et nous obtenons une divergence. Dans la pratique, nous voudrions utiliser un taux d’apprentissage qui est juste un peu plus petit que celui qui va diverger.