summary
stringlengths 0
59.7k
| text
stringlengths 0
949k
|
---|---|
C’est ainsi que, des avancées récentes en traitement automatique du langage naturel ont prouvé que le traitement du texte par l’ordinateur peut être raffiné autant qu’on veut, dans les limites du possible.
Il est souvent inintéressant de passer du temps à lire des textes très longs, surtout quand on veut juste avoir une compréhension suffisante en peu de temps de ce qui est écrit, ou quand le sujet traité ne fait pas partie de notre domaine de prédilection.
L’inclusion des traitements basés sur l’intelligence artificielle dans les modules de synthèse est-elle obligatoire pour atteindre des bonnes performances ?
Étant donné que, par définition, le langage naturel est difficile à formaliser complètement, on ne pourrait pas se passer de l’intelligence artificielle pour parvenir à réaliser un système performant;
Cette recherche a pour objectif principal de concevoir et réaliser un système (une application web) qui facilitera la génération automatique des synthèses de niveau humain.
Dans ce chapitre, nous allons présenter brièvement le traitement automatique du langage naturel, ainsi que les techniques de traitement qui seront utiles pour la réalisation de l’objectif principal de ce travail.
Nous allons donc y présenter une vue d’ensemble des architectures généralement utilisées, en nous focalisant essentiellement sur l’aspect intelligence artificielle du NLP (Natural Language Processing).
C’est ainsi que des tâches comme la traduction automatique, la génération automatique des textes ou aussi la synthèse automatique qui va nous intéresser dans ce travail, produisent directement du texte en sortie.
On peut donc comprendre directement que le mot "naturel" est ici utilisé pour faire une distinction avec les langages formels.
C’est donc dans ce sens que toutes les langues parlées peuvent être vues comme des langages naturels.
Ainsi, les développements, récents d’ailleurs, des réseaux de neurone et du deep learning ont donné des nouveaux outils, pour approcher dans une large mesure les performances humaines en terme de traitement de langage.
A notre avis, ces techniques sont les plus adaptées car, tout d’abord elles se rapprochent beaucoup plus des méthodes de traitement d’information par le cerveau humain, et ensuite, il serait autrement très couteux, voir impossible, d’élaborer des modèles capables d’embrasser toute la complexité du langage humain.
Les stopwords sont, pour une langue donnée, des mots qui permettent de réaliser des phrases correctes mais qui n’apportent pas directement d’information significative sur l’ensemble (du point de vu traitement).
Elle réalise en fait ce qui n’est pas réalisé par le stemming en ce sens que lemmatiser un token consiste à la transformer en sa racine, et cette dernière doit être présente dans le dictionnaire.
Elle est fortement facilitée par des approches basées sur le deep learning comme c’est le cas aussi pour la reconnaissance d’entités nommées.
Nous allons passer sous silence certains autres concepts du NLP comme le sacs de mots et le word embeddings dont nous parlerons dans la partie qui va suivre et qui présentera le résumé automatique, en tant que tâche du NLP.
D’ailleurs, concernant ces dernières techniques, les modèles de l’état de l’art les plus adaptés sont les transformers et leur présentation exige une revue chronologique car en effet, pour y arriver, des modèles classiques basés sur des réseaux de neurones récurrents (RNN) ont été utilisés car plus adaptés aux données séquentielles que sont les textes.
Les réseaux de neurones artificiels (Artificial Neural Network ou ANN) sont un ensemble de neurones (artificiels) assemblés pour résoudre des tâches considérées comme requérant une certaine intelligence.
Il s’agit essentiellement d’une fonction d’agrégation ayant pour rôle de réaliser une somme pondérée des entrées qui lui sont présentées et d’une fonction d’activation qui formate la sortie de la fonction d’agrégation selon les valeurs attendues en sortie [12].
On n’entrera pas dans le détail, vu que ce n’est pas exactement le sujet du travail mais, pour entamer la partie qui suit, il nous faut préciser que, comme pour les réseaux de neurones simples, l’entraînement exige d’appliquer une fonction de différentiation sur l’erreur produite par le système.
Mais on doit aussi remarquer que, l’état est défini par deux paramètres au lieu d’un seul comme pour les RNN simples.
On sait aussi que, si on veut une mémoire à long terme contrôlée, la valeur finale de ct doit être mise à jour en repérant ce qui doit être oublié parmi les éléments qui étaient précédemment dans la mémoire, pour y ajouter ensuite ce qui est sélectionné comme pertinent à l’entrée.
Et de cela on peut conclure que c’est plus intéressant d’avoir Ft et It qui prennent des valeurs entre 0 et 1 (pour modéliser la sélection) et ct devra dépendre de ces deux éléments, avec aussi l’état précédent de la mémoire à long terme.
Les mécanismes d’attention sont en bref des techniques permettant de lutter contre la perte de mémoire qu’on constate par exemple dans les cellules récurrentes ci-haut décrites, en se focalisant sur des éléments les plus importants à chaque traitement.
Ainsi, si par exemple on est entrain de vouloir traduire une longue phrase, on peut finir par transmettre un vecteur de contexte qui a perdu toute information sur les premiers éléments de la séquence passée en entrée.
C’est pour cela qu’au lieu de passer un vecteur de contexte général, les mécanismes d’attention permettraient ici de ne se focaliser que sur certaines informations lors du traitement d’un élément particulier de la séquence (en ayant évidemment passé tous les états internes passés au décodeur).
Considérons que Ω, dont les termes sont représentés par wij, est la matrice des poids d’attention normalisés par une fonction softmax pour chaque ligne.
Et que Π, dont les termes sont représentés par αij, est la matrice des poids d’attention générée par le mécanismes avant normalisation.Si les éléments ci représentent à chaque fois le vecteur contexte final à l’étape i de décodage et les hj sont les vecteurs d’état interne de l’encodeur, l’attention globale revient à réaliser la manipulation suivante, pour formater le vecteur de contexte à prendre en compte pour l’élément en cours de traitement [30] :
Les transformers sont des modèles du type encodeur-décodeur comme on peut le constater sur la figure ci-dessus (bien que certaines implémentations n’en utilisent qu’une partie selon la tâche).
Un choix intuitif, et qui s’avère être performant, est de tout faire pour que si deux termes ont des sens proches, ils aient aussi des représentations vectorielles proches.
Cela est réalisé par différentes techniques que nous présenterons dans le chapitre suivant, mais c’est là le rôle de la couche d’enchâssement (embedding).
L’opération est réalisée pour permettre au modèle d’avoir une représentation de l’importance des termes dans la séquence d’entrée, les uns par rapport aux autres.
Il est important que ce lien soit implicitement présent dans les représentations, pour que le traitement soit efficace comme on l’a mentionné lors de la présentation des mécanismes d’attention.
En effet, très brièvement, l’idée du scaled dot-product attention consiste à opérer une recherche des termes sur lesquels focaliser l’attention de la même façon qu’on réalise la recherche de la signification d’un mot dans un dictionnaire.
Si on supposait qu’il existe plusieurs termes du dictionnaire qui s’orthographient presque de la même façon que le mot qu’on cherche, on devra passer par une mesure de similarité avant de se décider sur le sens le plus probable.
7°) Module linéaire final : Il s’agit d’un réseau de neurones classique pour réaliser la déduction finale, le tout étant passé à la fin à travers une opération softmax qui permet de transformer les résultats en probabilité d’éléments générés (cela permet de choisir le terme le plus vraisemblable à générer comme sortie).
Les transformers constituent un type de modèle qui s’avère être le plus adapté (pour le moment) au résumé automatique du texte et, dans le chapitre suivant, nous commencerons par présenter les diverses spécificités du résumé automatique comme tâche du NLP, pour finir par présenter l’architecture globale du système que nous comptons élaborer.
Nous allons ici présenter les théories sur la synthèse automatique des textes, en classifiant les diverses méthodes utilisées pour pouvoir situer notre système dans l’ensemble des travaux jusque-là menés sur ce sujet.
Ensuite, nous présenterons les diverses approches utilisées pour le résumé automatique, sans oublier d’approfondir notre présentation des modèles de type transformer adaptés à cette tâche, pour finalement mentionner le modèle que nous estimons le plus adapté concernant l’approche basée sur le deep-learning pour la synthèse automatique.
Une définition assez valable est celle de TORRES-MORENO Juan-Manuel qui dit qu’un résumé automatique est un texte généré par un logiciel, cohérent et contenant une partie importante des informations pertinentes de la source, et dont le taux de compression est inférieur au tiers de la taille du(des) document(s) source(s) [48].
L’intuition derrière cette approche est basée sur le constat que dans un texte, les éléments ne sont pas présentés de façon arbitraire.
Comme nous venons de l’introduire dans la section précédente, le résumé automatique est abordé essentiellement selon deux approches qui sont [31] :
L’approche qui se base naïvement sur la fréquence d’apparition des mots dans les textes pour juger de leur importance relative, accorde à chaque mot un poids égal à T F(i,j).
Après tout, on définit un seuil qui permet de soutirer les phrases selon leur pertinence ainsi évaluée (en considérant évidemment plus pertinente une phrase dont le résultat de la sommation des poids est élevé).
Même si, ces traitements peuvent être mélangés avec les techniques de résolution d’anaphores et les paraphrases pour obtenir des synthèses qui tendent vers la synthèse abstractive, nous devons souligner que les techniques jusque là les plus performantes pour la synthèse abstractive sont essentiellement basées sur le deep learning [36].
Une autre approche, plus classique, consiste à représenter chaque mot par un vecteur de dimension égale à la taille du dictionnaire et dont tous les termes sont nuls, sauf à la position, dans le dictionnaire, du mot qu’on est entrain de vouloir représenter (on parle du one-hot encoding).
Ainsi, tout mot est représenté en réalisant une statistique (implicitement bien sûr) sur les divers mots qui l’accompagnent souvent, de telle sorte que les mots aux sens proches aient aussi des vecteurs très proches.
Comme nous l’avons déjà bien mentionné au précédent chapitre, nous n’allons parler que des modèles Seq2Seq de type transformer car actuellement, ils sont les plus adaptés à la tâche que nous voulons réaliser (celle de synthèse automatique).
Les transformers (voir la figure I.7) sont un modèle très avantageux car en fait, au-delà de leurs performances et autres avantages, ils facilitent encore plus la recherche en NLP en rendant effectif le transfer learning (apprentissage par transfert) dans ce domaine.
Ces modèles sont très bons pour les tâches de compréhension du langage comme la classification par exemple.
Dans ce second chapitre, nous ne présenterons que les spécifications du système ainsi qu’une ébauche de conception avec une présentation de l’architecture globale.
Comme nous pouvons le voir, un traitement sera fait pour adapter les données reçues à ce qui peut être traité par le système.
Le chapitre suivant nous permettra donc finalement de préciser, réaliser et tester les méthodes que nous avons jusque-là adoptées pour la mise au point de notre système de synthèse automatique des documents.
Barry Schiffman, Ani Nenkova, and Kathleen McKeown. | UNIVERSITELIBREDESPAYSDESGRANDSLACS
FACULTE DES SCIENCES ET DES TECHNOLOGIES
APPLIQUEES
DEPARTEMENT DE GENIE ELECTRIQUE ET INFORMATIQUE
B.P 368 GOMA
www.ulpgl.net
CONCEPTION ET REALISATION D’UN
SYSTEME BASE SUR L’INTELLIGENCE
ARTIFICIELLE POUR RESUMER
AUTOMATIQUEMENT LES TEXTES
Par : KRAME KADURHA David
Travail présenté en vue de l’obtention du Diplôme d’ingénieur civil en génie électrique et informatique
Option : Génie informatique
Directeur : Prof BARAKA MUSHAGE Olivier
Encadreur : Ir MUHINDO WAMUHINDO Abdenego
ANNEE ACADEMIQUE 2021−2022
Dédicaces
Remerciements
Résumé
Sigles et abréviations
Table des matières
Dédicaces i
Remerciements ii
Résumé iii
Sigles et abréviations iv
Introduction générale 1
0.1 Contexte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
0.2 Identification et formulation du problème . . . . . . . . . . . . . . . . . . . 1
0.3 Questions de recherche . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
0.4 Hypothèses de travail . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
0.5 Justification du choix du sujet et motivations . . . . . . . . . . . . . . . . . 3
0.6 Objectifs de la recherche . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
0.6.1 Objectif général . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
0.6.2 Objectifs spécifiques . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
0.7 Méthodologie de recherche et délimitation du travail . . . . . . . . . . . . . 5
0.8 Subdivision du travail . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
Généralités sur le NLP 6
Introduction partielle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
Présentation et définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
Nécessité de l’approche par deep learning . . . . . . . . . . . . . . . . . . . 8
Quelques techniques courantes de traitement des textes . . . . . . . . . . . 9
La tokenisation (tokenization) . . . . . . . . . . . . . . . . . . . . . . 9
Les stopwords[44] . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
La racinisation (stemming) . . . . . . . . . . . . . . . . . . . . . . . . 10
La lemmatisation (lemmatization) . . . . . . . . . . . . . . . . . . . . 10
SYNTHESE AUTOMATIQUE DES TEXTES
Reconnaissance d’entités nommées (NER)[44] . . . . . . . . . . . . . 11
L’étiquetage morpho-syntaxique (POS tagging) . . . . . . . . . . . . 11
Approches du NLP . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
Les réseaux de neurones artificiels (ANN) . . . . . . . . . . . . . . . 12
Les réseaux de neurones récurrents (RNN) . . . . . . . . . . . . . . . 13
Mécanismes d’attention . . . . . . . . . . . . . . . . . . . . . . . . . 20
Les transformers . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
Conclusion partielle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
Résumé automatique et conception 29
Introduction partielle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
Présentation et définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
Catégorisation des résumés . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
Selon la fonction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
Selon le nombre de documents source . . . . . . . . . . . . . . . . . 32
Selon le genre des documents . . . . . . . . . . . . . . . . . . . . . . 32
Selon le type de sortie (résumé obtenu) . . . . . . . . . . . . . . . . . 33
Selon le type de résumeur . . . . . . . . . . . . . . . . . . . . . . . . 34
Selon le contexte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
Selon le destinataire du résumé . . . . . . . . . . . . . . . . . . . . . 35
Approches de résumé automatique . . . . . . . . . . . . . . . . . . . . . . . 35
Techniques intuitives de résumé [36] . . . . . . . . . . . . . . . . . . 35
Algorithmes classiques de résumé automatique . . . . . . . . . . . . 38
Modèles Seq2Seq . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
Methodes du Word-Embedding . . . . . . . . . . . . . . . . . . . . . 45
Modèles séquence-à-séquence proprement dits . . . . . . . . . . . . 46
Modèle BART pour la synthèse abstractive . . . . . . . . . . . . . . . 50
Conception de l’architecture globale du système . . . . . . . . . . . . . . . . 51
Spécifications du système . . . . . . . . . . . . . . . . . . . . . . . . 52
Présentation des éléments du système . . . . . . . . . . . . . . . . . 52
vi sur 68
TABLE DES MATIÈRES
Architecture du module de synthèse extractive . . . . . . . . . . . . 54
Architecture du module de synthèse abstractive . . . . . . . . . . . 56
Présentation des interfaces . . . . . . . . . . . . . . . . . . . . . . . . 58
Conclusion partielle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
Conception finale, réalisation et tests 60
Conclusion générale 61
Annexes 68
vii sur 68
Liste des figures
I.1 Réseau de neurones à une couche cachée et sans boucle [47] 13
I.2 Illustration de ce qu’est un RNN [22] 14
I.3 Comparaison entre cellules RNN classique et LSTM [18] 15
I.4 Vue fonctionnelle d’une cellule LSTM [18] 16
I.5 Cellule GRU [18] 19
I.6 Réseaux série-vers-série (en haut à gauche), série-vers-vecteur (en haut à
droite), vecteur-vers-série (en bas à gauche) et encodeur-décodeur (en bas àdroite) [16] 21
I.7 Architecture générique des transformers [50] 23
I.8 Vue éclatée d’un transformer [51] 27
II.1 Diagramme des fréquences des mots et le choix de Luhn [29] 40
II.2 Comparaison simplifiée entre BERT, GPT et BART [25] 50
II.3 Transformations de bruitage expérimentées pour BART [25] 50
II.4 Architecture globale de notre système 52
II.5 Architecture globale du système de synthèse abstractive 57
II.6 Architecture interne du modèle mentionné sur la figure II.5 57
II.7 Ébauche d’interface 58
viii
Introduction générale
0.1 Contexte
A l’ère du numérique, comme depuis l’invention de l’écriture, le texte est l’un des principaux moyens de communication et surtout, de transmission des connaissances.
Des livres aux SMS, en passant par diverses pages web, les données textuelles sont partout. En 2018, il s’agissait d’environs 80% de l’information qui circulait sur le web [23]. L’évolution de l’informatique continue à démontrer la possibilité de simplifier toujours grandement la vie de l’homme en automatisant de plus en plus l’accomplissement des tâches rébarbatives.
Certaines tâches comme celles liées explicitement à l’arithmétique semblent mieux se prêter à cette vague d’automatisation, les données numériques étant par essence celles prises en compte par les plateformes numériques.
Néanmoins, des transformations adéquates permettent de prendre en compte tout type de donnée, et le texte n’est pas exclu. C’est ainsi que, des avancées récentes en traitement automatique du langage naturel ont prouvé que le traitement du texte par l’ordinateur peut être raffiné autant qu’on veut, dans les limites du possible.
Cela est en fait une bonne nouvelle car, il s’avère que des nombreux sujets restent fermés à la majorité des gens suite au manque de temps, au regard de la quantité d’informations à consulter pour espérer avoir ne fusse qu’une lueur d’idée du domaine ou du sujet qu’on veut rapidement explorer.
C’est en ce sens que la mise au point des technologies pouvant faciliter l’exploration des connaissances présentées sous forme textuelle est salvatrice.
0.2 Identification et formulation du problème
Comme présenté dans la section précédente, la voie la plus privilégiée pour transmettre les connaissances est l’écriture. Mais, admettons que souvent, dans un long texte, la
1
SYNTHESE AUTOMATIQUE DES TEXTES
quantité d’information pertinente est moindre par rapport à la longueur du texte entier.
Comment faire donc pour identifier cette partie utile et gagner ainsi en temps ?
Il est souvent inintéressant de passer du temps à lire des textes très longs, surtout quand on veut juste avoir une compréhension suffisante en peu de temps de ce qui est écrit, ou quand le sujet traité ne fait pas partie de notre domaine de prédilection. Il est donc intéressant de mettre au point un système qui pourra assister l’homme dans la tâche de synthèse des connaissances afin de promouvoir par là-même un échange entre disciplines, ce qui est souvent très enrichissant.
0.3 Questions de recherche
Vu le problème que nous venons de présenter, une question se pose :
Est-il possible de mettre au point un système informatique capable de synthétiser les textes avec une performance de niveau humain ?
La précédente question nous amène aussi à nous demander ceci :
Un traitement purement linguistique ne pourrait-il pas nous permettre de générer des synthèses suffisamment bons pour atteindre notre objectif ?
L’inclusion des traitements basés sur l’intelligence artificielle dans les modules de synthèse est-elle obligatoire pour atteindre des bonnes performances ?
Quelle est l’architecture globale la plus adaptée pour réaliser un système de synthèse automatique performant ?
0.4 Hypothèses de travail
A la suite des questions que nous venons de soulever, nous postulons que :
Vu la complexité du langage naturel, un traitement purement linguistique ne nous permettrait pas de mettre au point un système de niveau humain en synthèse des textes;
0.5. JUSTIFICATION DU CHOIX DU SUJET ET MOTIVATIONS
Étant donné que, par définition, le langage naturel est difficile à formaliser complètement, on ne pourrait pas se passer de l’intelligence artificielle pour parvenir à réaliser un système performant;
Une architecture basé essentiellement sur des modèles du type transformer, joint à l’utilisation de quelques règles inspirées de la linguistique permettrait d’avoir un système de synthèse performant.
0.5 Justification du choix du sujet et motivations
Pour synthétiser un texte, il faut l’avoir aumoins lu! Et pourtant, pour lire un texte, il faut du temps, une denrée souvent rare.
Certains textes sont souvent fournis, accompagnés des synthèses qui sont parfois très bonnes, parfois incomplètes et parfois même très polarisées ou tout simplement mauvaises. Toutefois, avoir une synthèse à la demande serait mieux que de ne trouver que des synthèses de certains textes, sans d’ailleurs en avoir le plus souvent besoin. Nombreux sont des textes (livres, articles, pages web et autres documents) dont on voudrait avoir des bonnes synthèses, qu’on ne trouve que très rarement si on ne s’est pas découragé avant. C’est la raison pour laquelle, nous nous sommes fixé comme objectif de répondre à ce besoin précis en mettant au point une application web de synthèse des textes. Beaucoup de chercheurs en linguistique et en traitement automatique du langage naturel principalement se sont penché sur ce sujet [23, 48, 1, 21, 2].
Des solutions ont été proposées mais ne sont pas toujours à la hauteur de nos attentes (mettre au point un système de performance presqu’humaine en synthèse automatique des textes). Les plus prometteuses de ces solutions se limitent à des tailles bien réduites de texte, ce qui est déjà un grand pas mais pas suffisant évidemment. C’est pour cette raison qu’il nous semble pertinent d’étudier cette question en profondeur et de mettre au point un système complet et utilisable en dehors du monde de la recherche.
Socialement, la mise au point de ce système sera d’une très grande importance. Cela dans plusieurs axes dont principalement :
Pour les chercheurs, car il pourra faciliter le survol rapide des connaissances provenant SYNTHESE AUTOMATIQUE DES TEXTES
des filières liées à leurs domaines, sans être obligés de consulter à l’avance un tas de documents issus de ces domaines connexes;
Pour tout le monde alors, le système pourra permettre un gain de temps considérable chaque fois qu’il donnera la possibilité d’avoir accès à une synthèse de bonne qualité à la demande, en très peu de temps.
0.6 Objectifs de la recherche
Objectif général
Cette recherche a pour objectif principal de concevoir et réaliser un système (une application web) qui facilitera la génération automatique des synthèses de niveau humain.
Objectifs spécifiques
Pour arriver à bout de notre projet nous comptons :
Évaluer les failles et limites des techniques de synthèse automatique existantes;
Corriger les failles ou compléter les techniques de synthèse automatique existantes; • Établir des architectures logiques optimales pour obtenir des synthèses de qualité;
Élaborer une interface de programmation d’applications devant faciliter l’accès au service de synthèse automatique;
Mettre au point une base de données pour stocker les synthèses les mieux cotées par les usagers, en prévision d’une amélioration future du système;
Réaliser une interface web de qualité pour permettre l’accès au service par divers utilisateurs.
0.7. MÉTHODOLOGIE DE RECHERCHE ET DÉLIMITATION DU TRAVAIL
Méthodologie de recherche et délimitation du travail
Pour la mise au point du système, nous comptons utiliser les méthodes d’analyse moyennant les techniques expérimentale (pour vérifier l’adéquation du fonctionnement de l’application mise sur pied avec le problème posé), et documentaire (pour une vision approfondie des techniques couramment utilisées et d’éventuelles améliorations nécessaires).
Ce travail se focalisera sur la synthèse des documents du type informationnel (livres historiques, discours, articles de presse, lettres, nouvelles, romans et tout autre type de document ayant une faible densité d’expressions mathématiques) et il s’agira d’une synthèse mono-document.
Subdivision du travail
Excepté l’introduction et la conclusion générales, ce travail sera ainsi constitué :
Au premier chapitre, Généralités sur le traitement automatique du langage naturel, nous passerons en revu toute la théorie nécessaire à la compréhension de notre travail.
Au second chapitre, Présentation du résumé automatique et conception de l’architecture du système, nous y présenterons les aspects du résumé automatique essentiels à notre travail et y concevrons pas à pas le système de synthèse automatique des textes dans tous ses aspects (pas uniquement le côté synthèse).
Au troisième chapitre : Conception finale, réalisation et tests, nous y finaliserons la conception et expliquerons les points importants de l’implémentation en nous basant sur la conception faite, puis nous présenterons les résultats des tests que nous aurons effectué.
Chapitre I
Généralitéssurletraitementautomatique du langage naturel
Introduction partielle
Dans ce chapitre, nous allons présenter brièvement le traitement automatique du langage naturel, ainsi que les techniques de traitement qui seront utiles pour la réalisation de l’objectif principal de ce travail. Nous allons donc y présenter une vue d’ensemble des architectures généralement utilisées, en nous focalisant essentiellement sur l’aspect intelligence artificielle du NLP (Natural Language Processing).
Dans un premier temps, nous y présentons quelques techniques, souvent incontournables lorsqu’on veut réaliser une tâche de traitement du langage. Après cela, nous parcourons divers modèles qui nous permettrons d’aborder le modèle le plus adapté à la tâche de synthèse automatique des textes, qui est l’objectif de ce travail.
Présentation et définitions
Le NLP est une discipline rattachée à l’intelligence artificielle et ayant pour principal objectif, l’étude des possibilités du traitement du langage humain par des machines. La raison pour laquelle la discipline s’inscrit comme faisant partie du domaine d’intelligence artificielle est que le langage est considéré comme étant une aptitude centrale de l’intelligence humaine, étant donné que l’usage d’un langage si complexe est l’un des éléments distinctifs principaux entre humains et autres animaux.
Le NLP inclut l’ensemble d’algorithmes, des tâches et des problèmes prenant en entrée
6
I.2. PRÉSENTATION ET DÉFINITIONS
des textes produits par des humains, pour finalement ressortir des informations pertinentes à propos de ces derniers ou alors du texte modifié de façon approprié selon l’objectif poursuivi. C’est ainsi que des tâches comme la traduction automatique, la génération automatique des textes ou aussi la synthèse automatique qui va nous intéresser dans ce travail, produisent directement du texte en sortie.
Mais, dans tous les cas, la sortie est soit immédiatement utilisable, soit alors elle est prise comme entrée d’un autre système dans la chaîne de traitement du texte.
On peut toutefois se demander la raison pour laquelle on parle de traitement automatique du "langage naturel" (quitte à se demander ce qui distinguerait un langage naturel des autres langages).
Pour établir clairement cette différence, il est nécessaire de donner une définition de ce qu’est un langage formel. Pour caricaturer, un langage formel est celui pour lequel il existe un mécanisme fini, et explicite, permettant d’en faire une analyse, quand bien même il serait constitué d’un nombre infini de mots. Donc, c’est un ensemble de mots analysable par un automate (au sens mathématique du terme) [9].
On peut donc comprendre directement que le mot "naturel" est ici utilisé pour faire une distinction avec les langages formels. C’est donc dans ce sens que toutes les langues parlées peuvent être vues comme des langages naturels. Les langages formels ont une syntaxe précise et sont spécifiquement conçus pour des objectifs bien cernés (penser à tous les langages de programmation par exemple). Ils sont donc très précis tant au point de vu grammatical que sémantique.
Concernant les langues humaines usuellement utilisées, on ne peut pas dire, sans être démenti, qu’elles sont dénuées d’imprécisions. Elles regorgent en générale une grande richesse, ce qui a pour conséquence d’introduire très souvent une grande ambiguïté. Pour s’en convaincre, il suffirait par exemple de considérer la phrase suivante :
Je le vois avec mes jumelles.
Très vite on remarque que cette phrase peut s’interpréter selon le contexte. On ne sait pas, en effet, si le sujet affirme voir quelqu’un avec ses jumelles d’observation, se promenant avec ses enfants jumelles, ou si le sujet voit quelque chose en utilisant ses jumelles en tant qu’instrument.
Ceci n’est qu’un exemple particulier pour illustrer cette dichotomie inhérente à l’emploi de la langue quelle qu’elle soit, mais cela suffit pour qu’on s’aperçoive que le problème est bel et bien réel.
Ce n’est d’ailleurs pas juste au niveau des interprétations qu’on peut identifier ce problème. Il s’observe même quand on considère les règles de grammaire. Certaines règles sont ainsi admises par certains linguistes mais rejetées ou trouvées superflues par d’autres [20].
C’est tout ce qui précède qui rend le langage humain à la fois riche et challengeant quand il s’agit de doter les machines de cette aptitude. D’où la raison d’être d’une discipline à part entière dédiée à la mise au point des règles de traitement du langage naturel, le NLP
[17].
I.3 Nécessité de l’approche par deep learning
Avant l’avènement du deep learning, des techniques traditionnelles du NLP étaient utilisées pour des tâches comme la détection des spams, l’analyse des sentiments et le POS (Part Of Speech tagging). Ces approches utilisaient essentiellement des caractéristiques statistiques des séquences comme, la fréquence des mots et les co-occurences par exemple. Néanmoins, le principal désavantage de ces techniques était qu’elles ne parvenaient pas à capturer une grande partie de la complexité linguistique du langage humain, comme par exemple le contexte.
Ainsi, les développements, récents d’ailleurs, des réseaux de neurone et du deep learning ont donné des nouveaux outils, pour approcher dans une large mesure les performances humaines en terme de traitement de langage. A notre avis, ces techniques sont les plus adaptées car, tout d’abord elles se rapprochent beaucoup plus des méthodes de traitement d’information par le cerveau humain, et ensuite, il serait autrement très couteux, voir impossible, d’élaborer des modèles capables d’embrasser toute la complexité du langage humain.
Le deep learning pour le NLP est axé grosso-modo sur la représentation d’entités textu-
I.4. QUELQUES TECHNIQUES COURANTES DE TRAITEMENT DES TEXTES
elles et le traitement élaboré sur ces représentations, de manière à en tirer des informations pertinentes ou à réaliser des transformations appropriées. Cette représentation constitue d’ailleurs un problème fondamental car c’est d’elle que dépend toute la chaîne de traitement des systèmes de NLP [46].
I.4 Quelquestechniquescourantesdetraitementdestextes
Dans cette partie, nous allons présenter diverses techniques intervenant dans le traitement des données de langage naturel. Ces traitements seront présentés de manière à dégager un pattern presque récurrent en terme de structure de traitement pour divers systèmes de NLP. Pour cela, nous allons d’abord présenter certaines manipulations réalisées sur les données en guise de pré-traitement. Puis, nous évoquerons deux techniques utiles aux tâches relevant du NLU (Natural Language Understanding).
I.4.1 La tokenisation (tokenization)
Manipuler des longues chaînes de caractères ne serait pas envisageable. Mais en informatique on est habitué à traiter des structures en terme de listes, de tableaux, de vecteurs,... Le tout étant représenté numériquement. C’est pour cela que l’opération consistant à réduire un corpus de texte en ses tokens est centrale.
Dans notre contexte, la tokenisation est une opération qui consiste à décomposer un texte
(une suite de phrases) en ses phrases constitutives ou une phrase en ses mots constitutifs. Cela est une première étape pour diminuer la difficulté inhérente au traitement des textes. En considérant la décomposition en mots, pour diminuer au maximum les difficultés de traitement et l’ambiguïté, on ajoute à la tokenisation d’autres traitements qui sont en général : la désaccentuation, le passage aux minuscules, la suppression des stopwords, la racinisation et la lemmatisation appliqués aux tokens obtenus [22].
I.4.2 Les stopwords[44]
Les stopwords sont, pour une langue donnée, des mots qui permettent de réaliser des phrases correctes mais qui n’apportent pas directement d’information significative sur l’ensemble (du point de vu traitement). Il s’agit par exemple en français de mots comme de, la, le,... ce qui correspond en gros aux prépositions, aux articles, aux conjonctions,... Il faut néanmoins préciser qu’on peut très bien décider de ne pas supprimer certains stopwords.
I.4.3 La racinisation (stemming)
La racinisation ou stemming en anglais consiste à découper le token de manière à n’en conserver qu’une partie qui semble rendre mieux compte de ce dont dérive ledit token. Seulement, ceci est fait sans se fier à ce que le résultat obtenu en tant que racine fasse partie du dictionnaire de la langue considérée [44, 22].
Cela permet juste de maximiser la probabilité de confondre des mots semblables qui sont présentés différemment dans diverses phrases. C’est à des fins de comparaison de phrases et de réduction d’ambiguïté. Pour illustration, on voudrait par exemple que si on retrouve les éléments "manger", "mange", "mangeable", "mangeons" dans un corpus, qu’ils soient transformés en un seul terme "mange". Cela se fait en découpant tous les mots qui ajoutent
d’autres affixes au terme. C’est cela en bref le stemming et, contrairement à ce que le nom suggère, il ne s’agit pas exactement de trouver la racine des mots (les mots dont ils dérivent). L’opération consiste essentiellement à réaliser un découpage des mots de manière à en supprimer les affixes.
I.4.4 La lemmatisation (lemmatization)
La lemmatisation quant à elle est une opération plus soignée mais plus coûteuse en terme d’implémentation [44, 22]. Elle réalise en fait ce qui n’est pas réalisé par le stemming en ce sens que lemmatiser un token consiste à la transformer en sa racine, et cette dernière doit être présente dans le dictionnaire. Par exemple, pour un mot au pluriel, il s’agira de le remplacer par son singulier, un verbe conjugué, par son infinitif,... Pour illustration, la
I.4. QUELQUES TECHNIQUES COURANTES DE TRAITEMENT DES TEXTES
lemmatisation consisterait à transformer par exemple "va", "allions", "irons" et "allé" par "aller" et "une" et "des" par "un". Cette tâche est grandement facilitée par des techniques de deep learning.
L’obtention des tokens peut également conduire à des tâches plus élaborées comme la détection des entités nommées et l’étiquetage morpho-syntaxique. Il s’agit des tâches très importantes que nous devons nécessairement mentionner.
I.4.5 Reconnaissance d’entités nommées (NER)[44]
La détection des entités nommées (Named Entity Recognition ou NER) consiste à repérer tout ce qui correspond à des noms de personnes, des noms d’organisations ou d’entreprises, des noms de lieux, des quantités, des distances, des valeurs, des dates ou tout autre élément qui constitue une nomination d’une entité existante précise dans un texte donné. Cette tâche est visiblement très importante dans la phase d’interprétation des données textuelles et il s’agit d’un simple problème de classification.
I.4.6 L’étiquetage morpho-syntaxique (POS tagging)
Le Part-Of-Speech tagging est une tâche consistant en gros, à associer aux éléments des textes, des informations grammaticales. En général, il s’agit d’associer aux termes des textes, leur nature grammaticale. Cela consisterait à dire que tel élément est un nom, tel autre un verbe,...[44, 22]
Cette tâche n’est pas une fin en soi. En effet, c’est une première étape dans l’analyse structurelle des textes, permettant de déduire diverses dépendances du point de vu linguistique. Elle est fortement facilitée par des approches basées sur le deep learning comme c’est le cas aussi pour la reconnaissance d’entités nommées.
Nous allons passer sous silence certains autres concepts du NLP comme le sacs de mots et le word embeddings dont nous parlerons dans la partie qui va suivre et qui présentera le résumé automatique, en tant que tâche du NLP.
I.5 Approches du NLP
Comme cela a été maintes fois mentionné, deux approches majeures sont d’usage pour traiter automatiquement les données de langage naturel. Il s’agit de l’approche numérique et de l’approche symbolique ou linguistique. Mais les deux approches sont dans la majorité des cas complétées par certaines heuristiques [31].
En ce qui nous concerne, l’approche sera essentiellement numérique avec un penchant prononcé pour les techniques du deep learning. D’ailleurs, concernant ces dernières techniques, les modèles de l’état de l’art les plus adaptés sont les transformers et leur présentation exige une revue chronologique car en effet, pour y arriver, des modèles classiques basés sur des réseaux de neurones récurrents (RNN) ont été utilisés car plus adaptés aux données séquentielles que sont les textes. Ensuite, le constat de leur mémoire limitée a fait à ce qu’on les modifie pour obtenir des unités à mémoire plus large dont les LSTM(Long Short-Term Memory) et les GRU(Gated Recurrent Unit). Furent ensuite introduits les mécanismes d’attention qui améliorèrent les techniques, aboutissant finalement aux modèles dits transformers, plus adaptés à des tâches de NLP élaborées.
I.5.1 Les réseaux de neurones artificiels (ANN)
Les réseaux de neurones artificiels (Artificial Neural Network ou ANN) sont un ensemble de neurones (artificiels) assemblés pour résoudre des tâches considérées comme requérant une certaine intelligence. Le neurone artificiel est un algorithme élaboré en s’inspirant du modèle théorique simplifié d’un neurone naturel. Il s’agit essentiellement d’une fonction d’agrégation ayant pour rôle de réaliser une somme pondérée des entrées qui lui sont présentées et d’une fonction d’activation qui formate la sortie de la fonction d’agrégation selon les valeurs attendues en sortie [12].
Les neurones sont généralement assemblés par couche comme présenté sur la figure qui suit :
Figure I.1: Réseau de neurones à une couche cachée et sans boucle [47]
Ce qui vient d’être présenté est suffisant pour avoir une idée globale de ce qu’est réellement un réseau de neurones artificiel. Néanmoins, nous pousserons plus loin pour toucher le plus vite possible aux modèles qui nous intéressent dans ce travail.
I.5.2 Les réseaux de neurones récurrents (RNN)
Un RNN(Recurrent Neural Network) est un type de réseaux de neurones conçu en principe pour traiter les données séquentielles, comme les données textuelles,...
La principale différence structurelle entre les ANN simples et les RNN est l’existence des connexions de récurrence dans ces derniers. Il s’agit des boucles permettant la prise en compte des sorties passées dans le traitement final des données [16].
Pour l’illustrer, rien de mieux qu’une image représentant la structure fonctionnelle des réseaux de neurones récurrents :
Figure I.2: Illustration de ce qu’est un RNN [22]
Où xi, hi et A représentent respectivement les entrées (à chaque pas temporel i), les états internes qui en résultent et le module récurent utilisé.
Pour une meilleure compréhension, une présentation formelle serait plus commode : Soient Wx la matrice des poids associée au vecteur d’entrée x, Wy une matrice associée au vecteur de sortie y et Wh celle associée au vecteur représentant les états cachés du réseau, avec bh et by respectivement les vecteurs des biais des neurones pour l’état caché et pour la sortie. Si on nomme aussi par yt la sortie du réseau à un instant donné t, on aura [15] :
ht
yt
= fact (Wxxt +Whht−1 +bh)
= gact Wyht +by
(I.1)
On voit très bien que la sortie du système dépend non seulement de l’entrée, mais aussi de l’état du système (h).
Les fonctions d’activation fact et gact qui sont mentionnées dans les équations I.1 représentent respectivement la tangente hyperbolique tanh et la fonction dite sof tmax [15].
L’entraînement des réseaux de neurones récurrents se fait de la même façon que pour les réseaux de neurones simples (avec uniquement une différence due au fait que pour le RNN on prend en compte le temps). On n’entrera pas dans le détail, vu que ce n’est pas exactement le sujet du travail mais, pour entamer la partie qui suit, il nous faut préciser que, comme pour les réseaux de neurones simples, l’entraînement exige d’appliquer une fonction de différentiation sur l’erreur produite par le système. Il s’agit de la fonction gradient. Mais, comme ici le gradient tient compte des grandeurs précédentes dans le temps, il y a un certain nombre de termes multiplicatifs qui peuvent amener le modèle à ne jamais converger ou au contraire, à la saturation. C’est le problème classique d’évanouissement (disparition) des gradients ou d’explosion des gradients [15].
En réponse au problème de disparition des gradients, les cellules LSTM (Long Short-Term Memory) sont utilisées en lieu et place des cellules RNN normales.
Les cellules LSTM
Les cellules LSTM (pour Long Short-Term Memory) sont utilisées en lieu et place des cellules RNN classiques (dites vanilla) pour permettre au réseau de traiter des séquences de plus en plus longues sans perte rapide d’information [16]. Pour cela, des éléments de contrôle de la mémoire de la cellule sont ajoutés. Pour illustrer nos propos, voici une image qui nous permettra de différencier une cellule RNN classique d’une cellule LSTM :
Figure I.3: Comparaison entre cellules RNN classique et LSTM [18]
Présentée comme cela, la cellule LSTM semble superflue mais si on présentait les équations associées à un réseau fait de ces cellules, on se rendra compte que c’est plutôt intuitif. Pour aborder les équations associées, considérons l’image suivante :
Figure I.4: Vue fonctionnelle d’une cellule LSTM [18]
Une cellule LSTM se comprend en la considérant comme constituée d’un ensemble de portes avec des fonctions bien particulières. Il s’agit d’une porte d’entrée, une porte d’oubli et une porte de sortie.
Il est évident que, pour chacune de ces portes que nous nommerons, à un instant t donné par It, Ft et Ot, le système doit apprendre ses paramètres en fonction de l’entrée et de l’état interne. Mais on doit aussi remarquer que, l’état est défini par deux paramètres au lieu d’un seul comme pour les RNN simples. Il s’agit, à un instant t donné, de ht (considéré comme état à court terme) et de ct (qui est un état à long terme mais dont le contenu est contrôlé, au vu de l’architecture de la cellule).
De ce que nous venons de dire, nous pouvons conclure que Ft, It et Ot sont des fonctions de Xt et de ht−1 aux poids près. On sait aussi que, si on veut une mémoire à long terme contrôlée, la valeur finale de ct doit être mise à jour en repérant ce qui doit être oublié parmi les éléments qui étaient précédemment dans la mémoire, pour y ajouter ensuite ce qui est sélectionné comme pertinent à l’entrée. Cela revient à utiliser Ft et It comme des portes de contrôle (ou de sélection). Et de cela on peut conclure que c’est plus intéressant d’avoir Ft et It qui prennent des valeurs entre 0 et 1 (pour modéliser la sélection) et ct devra dépendre de ces deux éléments, avec aussi l’état précédent de la mémoire à long terme.
Il est aussi vraisemblable que, l’état à court terme doit provenir de la mémoire à long terme (ça correspondra à une sélection de ce qui doit être pris en compte directement dans la mémoire à long terme). Cet état ht doit par conséquent dépendre de ct (il faut néanmoins noter qu’une autre approche serait possible ici, mais celle-ci est déjà pertinente). Finalement, on sait que la sortie finale doit nécessairement dépendre de l’état interne de la cellule. Il va ici s’agir de ht vu que la cellule est développée par analogie avec le processus de mémorisation des systèmes naturels (mémoire à court terme correspondant à la mémoire de travail).
De ce qu’on vient de dire on peut tirer que, fondamentalement on doit avoir :
F
t
I t
O
t
c t
h t
y t
= F (Xt,ht−1) = G(Xt,ht−1) = J (Xt,ht−1)
= K(ct−1,Xt,ht−1)
= L(ct)
= M(ht)
(I.2)
Avec F ,G,J ,K,L,M des fonctions dépendant des coefficients considérés (poids et/ou éléments de sélection qui sont les diverses portes définies).
Une implémentation classique de ce raisonnement se présente comme suit [16, 15] :
F
t
I t
O
t
c t
h t
y t
= σ Wf xXt +Wf hht−1 +bf
= σ WixXt +Wf iht−1 +bi
= σ (WoxXt +Wohht−1 +bo)
= Ft ◦ct−1 +It ◦tanh(WcxXt +Wchht−1 +bc)
= Ot ◦tanh(ct)
= Wyhht +by
(I.3)
Il faut remarquer qu’on a utilisé la fonction sigmoïde σ pour restreindre les valeurs des sélecteurs (portes) entre 0 et 1, puis on a utilisé le produit de Hadamard (produit terme à terme des matrices) pour réaliser effectivement la sélection grâce aux portes, en diminuant les termes dont les valeurs correspondantes des portes sont proches de 0 et en essayant de conserver ceux dont les valeurs correspondantes des portes sont proches de 1.
Cette implémentation peut être modifiée, surtout en ce qui concerne les fonctions d’activation utilisées (σ et tanh), et en particulier la fonction d’activation de finalisation tanh ici, mais c’est l’une des plus optimales.
Le seul problème qui demeure est que le nombre de termes à apprendre est très grand. Cela a fait à ce qu’on puisse essayer de le diminuer en implémentant le GRU (Gated Recurrent Unit) poussant un peu plus loin l’abstraction des portes pour diminuer le nombre de paramètres.
Les cellules GRU
Les cellules GRU (Gated Recurrent Unit) sont une autre implémentation des cellules des réseaux de neurones récurrents comme les LSTM à la différence près que, bien que partant de la même idée fondamentale évoquée précédemment, les GRU apparaissent comme une simplification des LSTM.
Elles possèdent néanmoins des performances comparables en ce qui concerne la prédiction des séries temporelles,... Les simplifications sont réalisées au niveau des états cachés et des portes. On conserve un seul état caché h (quitte à le contrôler à l’interne pour implémenter la mémorisation à long terme et à court terme). Et pour les portes, on fusionne les portes de sélection des entrées avec celle des éléments à oublier (donc les portes I et F) pour former une porte dite de mise à jour (porte qui sera appelée update ou U). La porte de sélection des éléments de sortie quant à elle, est transformée en porte de réinitialisation.
Ces deux portes (de mise à jour et de réinitialisation) sont en fait implémentées de façon identique que celles des cellules LSTM. La particularité des GRU se situe principalement au niveau de la gestion de la mémoire (l’implémentation du processus de mémorisation) car, ayant supprimé la distinction long-terme/court-terme, il fallait bien trouver un mécanisme devant permettre de bien gérer les deux aspects de la mémoire avec un seul état interne conservé.
C’est ainsi que, la porte de mise à jour (porte U) est introduite dans le calcul de l’état h pour assurer la sélection du type de mise à jour à effectuer. Il s’agit de faire en sorte que, selon l’état interne et l’entrée, tout l’état interne précédent soit considéré mais que certains éléments soient complètement modifiés, selon le besoin, et d’autres presque conservés.
Ainsi donc, h devient une combinaison d’éléments provenant de l’état interne précédent avec ceux provenant des nouveaux calculs effectués par la cellule (en fonction de l’entrée et de l’état interne précédent). Le comportement est alors le suivant :
Quand le vecteur de mise à jour a un terme proche de 1, cet état interne est presque conservé. Par conséquent, sa mise à jour est presque ignorée. Quand c’est plutôt 0, l’état interne précédent est presque ignorée et une mise à jour complète de cet état est effectuée.
La formulation mathématique permet de mieux en saisir le fonctionnement [16, 15] :
U
t
R
t
h t
y t
= σ (WuxXt +Wuhht−1 +bu)
= σ (WrxXt +Wriht−1 +br)
= Ut ◦ht−1 +(1−Ut)◦tanh(WhxXt +Whr (Rtht−1)+bc)
= Wyhht +by
(I.4)
Et pour illustration, on peut considérer l’image suivante :
Figure I.5: Cellule GRU [18]
Il faut noter que sur cette image (figure I.5), l’implémentation de la mise à jour est l’inverse de celle que nous avons décrit par les équations I.4. C’est-à-dire que les termes Ut et (1−Ut) sont permutés. Mais aussi, ici Zt représente Ut.
Ces modèles fonctionnent très bien et certaines implémentations permettent d’améliorer encore leurs performances. Ils sont néanmoins lents à entraîner, surtout à cause de l’aspect temporel. Parmi les techniques d’amélioration des performances, une peut être considérée car elle a un rapport direct avec notre travail. Il s’agit des mécanismes d’attention [3].
I.5.3 Mécanismes d’attention
Les mécanismes d’attention sont en bref des techniques permettant de lutter contre la perte de mémoire qu’on constate par exemple dans les cellules récurrentes ci-haut décrites, en se focalisant sur des éléments les plus importants à chaque traitement. Le travail consiste donc à repérer, pour chaque entrée, les éléments sur lesquels se focaliser.
C’est là qu’interviennent donc ces mécanismes.
L’une des implémentations les plus commodes est l’attention globale [30].
Pour l’expliquer, nous allons considérer une architecture jusque là passée sous silence, mais qui permet aux modèles introduits là haut de s’utiliser efficacement pour les tâches courantes du NLP en particulier. Il s’agit des modèles dits encodeur-décodeur.
En effet, lorsqu’on a un modèle à séquence fonctionnel, les objectifs peuvent être multiples. On peut vouloir :
1°) fournir une série d’éléments en entrée et ressortir une autre série (utile pour la prédiction de la valeur des actions par exemple,... );
2°) fournir un série en entrée mais faire ressortir un seul élément ou vecteur (utile pour la classification des textes, l’analyse des sentiments,...);
3°) fournir un vecteur plusieurs fois en entrée et produire une série (pour la génération des légendes pour des images par exemple,...);
4°) on peut aussi avoir un réseau série-vers-vecteur, appelé encodeur, suivi d’un réseau vecteur-vers-série, appelé décodeur (très utile pour la traduction et la synthèse automatique par exemple,...). Il s’agit du modèle encodeur-décodeur.
Une illustration par image sera suffisante :
Figure I.6: Réseaux série-vers-série (en haut à gauche), série-vers-vecteur (en haut à
droite), vecteur-vers-série (en bas à gauche) et encodeur-décodeur (en bas à droite) [16]
.
L’élément (le vecteur d’état) passé entre l’encodeur et le décodeur est dit vecteur de contexte. Il représente en quelques sortes un condensé des informations passés à l’entrée de l’encodeur. Toutefois, plus la séquence d’entrée est longue, plus le risque que la mémoire de certaines séquences puisse s’étioler devient grand. Ainsi, si par exemple on est entrain de vouloir traduire une longue phrase, on peut finir par transmettre un vecteur de contexte qui a perdu toute information sur les premiers éléments de la séquence passée en entrée. C’est pour cela qu’au lieu de passer un vecteur de contexte général, les mécanismes d’attention permettraient ici de ne se focaliser que sur certaines informations lors du traitement d’un élément particulier de la séquence (en ayant évidemment passé tous les états internes passés au décodeur). Pour le réaliser concrètement, le mécanisme d’attention global consiste à formater le vecteur de contexte en fonction des éléments de l’encodeur à prendre en compte lors du traitement par le décodeur.
Considérons que Ω, dont les termes sont représentés par wij, est la matrice des poids d’attention normalisés par une fonction softmax pour chaque ligne. Et que Π, dont les termes sont représentés par αij, est la matrice des poids d’attention générée par le mécanismes avant normalisation.Si les éléments ci représentent à chaque fois le vecteur contexte final à l’étape i de décodage et les hj sont les vecteurs d’état interne de l’encodeur, l’attention globale revient à réaliser la manipulation suivante, pour formater le vecteur de contexte à prendre en compte pour l’élément en cours de traitement [30] :
wij = sof tmax(αij) = Pekαeijαik (I.5)
ci = Pj wijhj
La dernière relation du système I.5 revient à réaliser une somme pondérée des vecteurs d’état internes passés de l’encodeur, selon l’importance de chaque état pour le traitement en cours. De ces équations il faut aussi remarquer que la notation des sommations n’est pas rigoureuse. Cela est volontaire car c’est intuitif (on réalise des sommations sur tous les éléments).
Plusieurs techniques arrivant à réaliser l’attention existent. En général, comme on peut d’ailleurs le déduire des relations de l’attention globale, ces mécanismes étaient utilisés dans le cadre des réseaux récurrents. Une question s’est toutefois naturellement posée : ne pourrait-on pas se passer des RNN pour mettre au point des réseaux complètement basés sur l’attention ?. La réponse est oui, avec des ajustements adéquats pour résoudre les faiblesses des modèles classiques dans le traitement des données séquentielles. C’est cela qui a conduit aux modèles dits transformers [50].
I.5.4 Les transformers
Il s’agit des modèles dont l’architecture générique se présente comme suit :
Figure I.7: Architecture générique des transformers [50]
Les transformers sont des modèles du type encodeur-décodeur comme on peut le constater sur la figure ci-dessus (bien que certaines implémentations n’en utilisent qu’une partie selon la tâche). Ils sont essentiellement basé sur les mécanismes d’attention, se passant de la récurrence [16, 15].
Nous donnerons une explication succincte de chacun des modules présents dans l’image I.7. En effet, présentons les modules selon l’ordre dans lequel les données traversent le modèle :
1°) Moduled’embedding : Nous savons que les données textuelles doivent être présentées au modèle sous forme numérique. Elles doivent donc être transformées avant de les passer aux parties suivantes. Néanmoins, vu que la représentation des entrées a
un impact significatif sur les performances d’un modèle, cette représentation doit être bien choisie. Un choix intuitif, et qui s’avère être performant, est de tout faire pour que si deux termes ont des sens proches, ils aient aussi des représentations vectorielles proches. Cela est réalisé par différentes techniques que nous présenterons dans le chapitre suivant, mais c’est là le rôle de la couche d’enchâssement (embedding).
2°) L’encodage positionnel (positionnal encoding) : Ce module ajoute l’information sur la position relative de chacun des éléments placés en entrée par rapport aux autres. Cela pallie au problème de perte d’information sur la position des mots quand on utilise un réseau non séquentiel comme les réseaux récurrents. Donc, la position de chaque terme de la séquence placée en entrée est encodée dans un vecteur puis ajoutée à l’encodage global du terme. L’un des encodages les plus utilisés est celui basé sur les fonctions trigonométriques tel qu’introduit dans [50].
3°) Module d’auto-attention : La couche d’attention, présentée en première position dans la boîte de l’encodeur, est en fait une couche dite de self-attention car elle opère sur la même séquence d’entrée. L’opération est réalisée pour permettre au modèle d’avoir une représentation de l’importance des termes dans la séquence d’entrée, les uns par rapport aux autres.
Pour illustration, considérons la phrase suivante : Walter est malade, il préfère se reposer.
Dans cette phrase, l’un des constats qu’on peut faire est que, le nom "Walter" est beaucoup plus lié au pronom "il" qu’au verbe "préférer". C’est à l’établissement des tels liens dans les représentations que sert le module d’auto-attention ici présenté. Il est important que ce lien soit implicitement présent dans les représentations, pour que le traitement soit efficace comme on l’a mentionné lors de la présentation des mécanismes d’attention. Donc cette couche est en fait un prolongement de celle d’embedding. Ici, le mécanisme d’attention utilisé est différent de celui qui a été présenté là-haut (attention globale). Il s’agit ici d’un mécanisme plutôt basé sur le produit scalaire mis à l’échelle (scaled dot-product). En effet, très brièvement, l’idée du scaled dot-product attention consiste à opérer une recherche des termes sur lesquels focaliser l’attention de la même façon qu’on réalise la recherche de la signification d’un mot dans un dictionnaire. Supposons qu’on veuille avoir la signification d’un mot dont on ne connaît pas l’orthographe exacte. Pour retrouver ce dernier dans un dictionnaire, il suffit de rechercher le mot qui ressemble le plus à l’orthographe que nous estimons être la plus vraisemblable. Mathématiquement, cette recherche de similitude correspond à un produit scalaire.
Similairement, le scaled dot-product consiste à générer trois éléments qui sont la clé ou key k, la valeur ou value v et la requête ou query q. La requête correspond au mot
qu’on cherche (orthographié selon ce que nous pensons), la clé correspond au mot présent dans le dictionnaire et la valeur correspond à la signification associée. Si on supposait qu’il existe plusieurs termes du dictionnaire qui s’orthographient presque de la même façon que le mot qu’on cherche, on devra passer par une mesure de similarité avant de se décider sur le sens le plus probable. Cela correspond à réaliser le produit de tous les k par les q présents, puis à normaliser l’ensemble des résultats de manière à ce qu’ils représentent des mesures de probabilité, et finir par choisir le sens v le plus probable.
Pour aller plus vite, on implémente ce processus en considérant tous les k, q et v au même moment de manière à réaliser le calcul une fois pour toutes. Cela revient à regrouper tous les k, q et v dans des matrices K, Q et V . Ce qui donne la relation qui définit l’attention par produit scalaire mis à l’échelle [50] :
Q ·KT
Attention(Q,K,V ) = sof tmax p ·V (I.6) dk
Dans cette relation, expression I.6, le terme pdk permet de mettre à l’échelle le résultat du produit scalaire de Q par K, c’est-à-dire Q·KT . Il faut noter que dk est la dimension d’une clé, et que cette normalisation permet d’améliorer les performances du modèle mais elle n’est pas la seule envisageable.
Il est aussi important de remarquer que la couche d’attention utilise trois termes pour arriver à bout du problème. Ces trois termes sont obtenus par une transformation linéaire dont les poids sont appris à travers un réseau de neurones simple.
Il faut aussi noter que l’on utilise parallèlement plusieurs modules d’attention pour capture toutes les caractéristiques des séquences (on parle de multi-head attention). Pour une plus ample illustration, voir la figure I.8.
4°) Le module feed-forward : Il s’agit en fait d’un réseau de neurones de propagation avant classique (réseau à couches ajoutées de façon séquentielle). Il permet de réaliser le traitement qui fait suite à l’attention.
5°) Couche d’attention encodeur-décodeur : Il s’agit de la couche qui reçoit les données en provenance de l’encodeur. Il s’agit ici d’une couche d’attention et non d’autoattention comme c’était le cas pour la première couche de l’encodeur. En effet, contrairement à la couche de self-attention, pour laquelle tous les trois paramètres sont calculés à partir de la même séquence, la couche d’attention ici prend les clés K et valeurs V provenant de l’encodeur mais une requête Q provenant du décodeur.
Une autre couche feed-forward suit celle-ci et a le même rôle que celle de l’encodeur.
6°) Module d’attention masquée : Il s’agit de la première couche du décodeur. C’est aussi un module de self-attention auquel on ajoute le masquage. Ce module est dit masqué suite au fait que, comme le décodeur est un module de génération, on ne regarde que les termes précédemment générés, en masquant les termes qui seront probablement générés aux pas d’après. Cela est réalisé en rendant juste leurs probabilités nulles.
7°) Module linéaire final : Il s’agit d’un réseau de neurones classique pour réaliser la déduction finale, le tout étant passé à la fin à travers une opération softmax qui permet de transformer les résultats en probabilité d’éléments générés (cela permet de choisir le terme le plus vraisemblable à générer comme sortie).
Cette explication simplifiée se comprend mieux si on y joint la vue éclatée suivante :
I.6. CONCLUSION PARTIELLE
Figure I.8: Vue éclatée d’un transformer [51]
Les transformers, ici succinctement présentés, sont un modèle très adapté aux tâches de traitement automatique du langage naturel. C’est un modèle incontournable vu aussi que ses traitements peuvent être facilement parallélisés. Cela est rendu possible par le fait que l’architecture des transformers est parallèle par essence.
I.6 Conclusion partielle
Nous venons de réaliser une vue d’ensemble du domaine de traitement automatique du langage naturel, ainsi que diverses techniques couramment utilisées. Pour cela, nous avons tout d’abord justifié la préséance des modèles basés sur le deep learning pour diverses tâches du NLP.
Ensuite, nous avons évoqué les technique de pré-traitement des textes, souvent incontournables, comme la réduction des séquences en leurs tokens constitutifs, la suppression des mots fréquents mais n’apportant pas assez d’informations et la réduction des mots en leurs racines respectives. Nous y avons aussi joint quelques techniques utiles à la compréhension du langage humain comme le POS tagging et la reconnaissance d’entités nommées. Ce qui précède nous a finalement conduit à présenter les modèles courants du NLP basés sur les RNNs et, nous avons terminé par la présentation de l’architecture transformer, modèle que nous utiliserons pour ce travail (les précisions sur les modèles particuliers seront données au chapitre suivant).
Les transformers constituent un type de modèle qui s’avère être le plus adapté (pour le moment) au résumé automatique du texte et, dans le chapitre suivant, nous commencerons par présenter les diverses spécificités du résumé automatique comme tâche du NLP, pour finir par présenter l’architecture globale du système que nous comptons élaborer.
Chapitre II
Présentation du résumé automatique et conception du système
II.1 Introduction partielle
Le résumé automatique étant le sujet principal de ce mémoire, dans cette partie nous le présentons alors en détail en tant que discipline et tâche du NLP. Nous allons ici présenter les théories sur la synthèse automatique des textes, en classifiant les diverses méthodes utilisées pour pouvoir situer notre système dans l’ensemble des travaux jusque-là menés sur ce sujet.
Ensuite, nous présenterons les diverses approches utilisées pour le résumé automatique, sans oublier d’approfondir notre présentation des modèles de type transformer adaptés à cette tâche, pour finalement mentionner le modèle que nous estimons le plus adapté concernant l’approche basée sur le deep-learning pour la synthèse automatique. Enfin, nous allons réaliser une conception rapide mais suffisante de l’architecture globale de notre système, tout en précisant le rôle et le fonctionnement de chaque partie.
II.2 Présentation et définitions
Selon Le Petit Robert, résumer c’est reprendre en plus court un discours, le présenter brièvement en conservant l’essentiel. En d’autres termes, c’est l’abréger, l’écourter, le réduire. De même, en tant qu’exercice intellectuel, le résumé, consiste à réduire un texte tout en lui restant fidèle. Il exige donc de restituer les idées en un nombre déterminé de mots, en évitant au mieux de recopier le texte à résumer. Il faut alors composer un texte
29
plus court qui contienne l’essentiel du message initial.
De cela on tire que le résumé devient automatique s’il est généré par un logiciel ou un système informatique.
Cette définition est en fait correcte bien qu’elle ne soit assez précise pour notre contexte. Il nous faut une définition assez générale et précise, embrassant au mieux l’aspect automatique, ou mieux, l’aspect informatique, qui nous intéresse dans ce mémoire. Une définition assez valable est celle de TORRES-MORENO Juan-Manuel qui dit qu’un résumé automatique est un texte généré par un logiciel, cohérent et contenant une partie importante des informations pertinentes de la source, et dont le taux de compression est inférieur au tiers de la taille du(des) document(s) source(s) [48].
L’introduction du taux de compression dans la définition n’est pas anodine car, on s’est très vite rendu compte que la performance d’un système de résumé automatique dépendait fortement du taux de compression. En effet, les études de [26] montrent que les meilleures performances des systèmes de résumé automatique sont généralement atteintes pour des taux de compression compris entre 15 et 30% [48].
Nous allons adopter, dans ce travail, la définition de TORRES-MORENO Juan-Manuel ci-haut présentée.
Toutefois, on ne doit pas manquer de signaler que la génération automatique des résumés est un problème complexe en soi, tout comme l’évaluation des résultats. Le résumé est en effet une tâche cognitive requérant la compréhension du texte considéré et, les humains n’étant pas toujours bons dans les tâches de synthèse, le manque d’étalon explique qu’il y ait également une difficulté d’automatisation du processus.
II.3 Catégorisation des résumés
Les résumés peuvent être classifiés selon différents critères tels que leur fonction, le nombre de documents source, le genre de document, le type de résumé, le type de résumeur, le contexte,...
II.3. CATÉGORISATION DES RÉSUMÉS
Parcourons de manière succincte ces différents critères de classification [36, 31, 32, 38, 37, 48] :
II.3.1 Selon la fonction
Selon leur fonction, on classifie les résumés en deux groupes qui sont le résumé indicatif et le résumé informatif.
Résumé indicatif
Tel une table des matières, un résumé indicatif renseigne le lecteur sur les thèmes abordés dans un document. Il liste donc les sujets les plus importants évoqués par le texte. Certains systèmes de résumé guidé génèrent un résumé indicatif du texte comme étape initiale, l’utilisateur choisit alors parmi les sujets proposés par le résumé ceux qui l’intéressent et le système produit enfin un résumé informatif du texte guidé par la requête de l’utilisateur. La requête dans ce cas est l’ensemble des sujets sélectionnés à partir du résumé indicatif.
Résumé informatif
Il s’agit d’un modèle rétréci du texte d’origine, relatant le plus largement possible les informations contenues dans celui-ci. Ce type de résumé répond souvent à une attente en résumant de plus le contenu. La problématique ici est donc double : comprendre ce qui n’est pas information dans un texte et connaître le besoin de l’utilisateur final. Néanmoins, si on n’a pas de requête spécifique de la part de l’utilisateur, le résumé informatif est réalisé en veillant à ce que l’ensemble des principaux sujets du texte d’origine soit rapporté. Ainsi, les sujets principaux qui sont rappelés dans le résumé sont répartis de manière fidèle par rapport à l’organisation initiale afin de donner un juste aperçu du texte source.
II.3.2 Selon le nombre de documents source
Selon le nombre de documents source on a les résumés mono-document et multidocument.
Résumé mono-document
Il consiste à résumer un document isolé. Le corpus de documents source est donc ici constitué d’un seul et unique document.
Résumé multi-document
Il s’agit d’un résumé de plusieurs documents (un groupe de documents), très souvent liés thématiquement, en faisant attention à ne pas insérer des informations déjà évoquées.
II.3.3 Selon le genre des documents
Résumé des documents journalistiques
Il s’agit de résumer les documents du type article de presse (sachant qu’ils ont une structure particulière). En effet, on sait par exemple que dans le domaine journalistique, les informations les plus importantes sont souvent mentionnées au début du texte.[36]
Résumé des documents spécialisés
Il s’agit de résumer des documents en provenance d’un domaine précis (géologie, médecine, mathématique,...), fortement spécialisé.
Résumé des documents littéraires
C’est le résumé de documents du type narratif, des textes littéraires, des textes argumentatifs, ...
II.3. CATÉGORISATION DES RÉSUMÉS
Résumé des documents encyclopédiques
Ici il s’agit de résumer des documents de type encyclopédique (en général multithématiques de toute évidence) à l’exemple de Wikipédia...
II.3.4 Selon le type de sortie (résumé obtenu)
Cette classification est très importante et très utilisée. Il s’agit des :
Résumés extractifs (extractive summarization)
Le résumé extrait est formé de segments de texte extraits du(des) document(s) source(s). Ces segments peuvent être des phrases, des propositions ou n’importe quelle unité textuelle présent dans le(s) document(s) à résumer. Le problème consiste donc à repérer les segments de texte qui semblent être les plus pertinents pour faire partie du résumé final. Les éléments obtenus à la fin sont donc explicitement présents dans le(s) document(s) source(s).
Résumés abstractifs (abstractive summarization)
Les méthodes de résumé abstractives imitent, jusqu’à un certain degré, le processus naturel accompli par l’homme pour résumer un document. Par conséquent, elles produisent des résumés plus similaires aux résumés manuels (humains). Ce processus peut être décrit par deux étapes majeures : la compréhension du texte source et la génération du résumé. La première étape vise à analyser sémantiquement le contenu du texte et à identifier les parties à exprimer dans le résumé. C’est en quelques sortes une tâche d’extraction d’information liée au domaine abordé ou de regroupement des phrases du texte source. Vient ensuite la génération du texte.
Bref, on produit un résumé rapportant le contenu du(des) texte(s) source(s) en utilisant un vocabulaire différent et plus concis.
Il existe aussi des résumés dits semi-extractifs, et même aussi des résumés dits par compression [48] mais nous estimons inutile de les décrire ici étant donné que la distinction abstractif-extractif suffit pour notre contexte.
II.3.5 Selon le type de résumeur
Le résumeur est le système qui réalise le résumé. Il peut s’agir d’une entité naturelle (un humain) ou artificielle (un logiciel). On a donc essentiellement les deux cas suivants :
Résumé humain (manuel)
Il s’agit d’un résumé réalisé par un humain. Il peut être fait par l’auteur même du document (on parle souvent de résumé d’auteur), par un expert du domaine traité (on parle souvent de résumé d’expert) ou par un professionnel de résumé (on parle de résumé professionnel).
Résumé automatique
Il s’agit, comme on l’a maintes fois mentionné, d’un résumé fait par un système informatique.
II.3.6 Selon le contexte
Résumé générique
Ici on résume le document sans prendre en compte les besoins d’information de l’utilisateur. On produit juste un résumé complet et le plus mieux fait possible.
Résumé guidé
Pour ces types de résumé, l’utilisateur commande la génération du résumé en précisant les types d’information dont il a besoin.
Résumé mis à jour
Il s’agit d’un résumé de type dynamique par essence. Ici, un ensemble de documents sources est résumé en veillant minutieusement à ce que le document dont le résumé est ajouté à la suite d’un précédent résumé ne puisse pas créer une répétition d’information.
Il y a donc un contrôle de nouveauté.
II.3.7 Selon le destinataire du résumé
On peut aussi classifier un résumé selon le public auquel il est destiné.
Résumé sans profil
Il s’agit d’un résumé qui ne tient pas compte d’un quelconque profil utilisateur. Le résumé est donc généré sans tenir compte de la personnalité des utilisateurs.
Résumé avec profil
Il s’agit d’un résumé dont l’un des éléments guides (requête) est le profil des individus auxquels le résumé est destiné.
En ce qui concerne notre système, nous implémenterons à la fois un résumeur abstractif et un résumeur extractif et ce sera mono-document. En plus de cela, le résumé ne sera pas guidé, il s’agira de produire des résumés génériques, pour des documents de type littéraire (documents du type narratif, des textes littéraires, des textes argumentatifs,...).
II.4 Approches de résumé automatique
Nous allons présenter ici diverses approches algorithmiques pour résumer les documents textuels. Les approches seront abordées en supposant que les résumés sont principalement classés en abstractif et extractif.
II.4.1 Techniques intuitives de résumé [36]
Avec des critères centrés sur le contenu des textes, il existe un grand nombre d’algorithmes assez triviaux de résumé, qui sont basés entre autres sur : • La fréquence d’occurrence des mots et
• L’annotation en rôle sémantique.
Ces critères mettent l’accent sur le contenu du texte et le message qu’il communique.
Fréquence d’occurrence des mots
L’idée majeure des techniques qui utilisent ce critère consiste à considérer que les mots les plus fréquents sont les plus liés au sujet principal du texte à résumer. Cette approche assez simpliste mais fonctionnelle fut introduite en 1958 par Luhn [29], une première tentative de résumé automatique.
On affecte des scores aux phrases présentes dans le texte, en additionnant chaque fois les poids des mots les constituant (on attribue ce poids en fonction de la fréquence d’apparition du mot considéré dans le texte entier). Et, à la fin, le résumé est constitué avec les phrases extraites du texte source, et dont le score dépasse un certain seuil dépendant de la taille maximale imposée pour le résumé. Le tout est finalement réarrangé selon l’ordre d’apparition (des phrases sélectionnées) dans le texte d’origine.
L’annotation en rôle sémantique
Ici, l’idée est simple. En utilisant des techniques de repérage d’entités nommées (voir le chapitre précédent), on identifie les entités présentes dans le document. Après cela, l’entité la plus fréquente est identifiée et considérée comme entité principale. Par la suite, les phrases contenant cette entité sont sélectionnées. Enfin, seules les phrases où l’entité principale possède un rôle sémantique fondamental (non auxiliaire) sont gardées pour le résumé.
L’un des moyens les plus simples pour repérer les entités nommées est de passer par l’apprentissage profond comme on l’a précédemment mentionné.
Il existe tout de même des techniques qui ne se fient qu’à la forme et à la structure du texte, sans en considérer le contenu. L’intuition derrière cette approche est basée sur le constat que dans un texte, les éléments ne sont pas présentés de façon arbitraire. De manière usuelle, les techniques utilisées se basent sur :
La position des phrases;
La similarité avec le titre
La longueur des phrases ou sinon,
Les mots indices (cue word)
La position des phrases
Cette approche est à appliquer en fonction de la nature du document et de son genre. Pour certains types de documents (documents journalistiques par exemple), les phrases se trouvant au début sont généralement plus informatives et décrivent le sujet principal du document. De plus, les phrases situées au début de chaque paragraphe tendent à apporter plus d’informations pertinentes. Le résumé des articles scientifiques par contre, peut essentiellement se former en se basant sur les contenus des parties résumé et introduction (sous l’hypothèse que ces dernières parties sont bien faites). En revanche, dans le cas des revues intégratives (critique et comparaison des études), les phrases les mieux notées sont celles des parties résultats et discussion et conclusion.
Ces exemples suffisent pour illustrer dans quelle mesure cette approche peut s’appliquer.
La similarité avec le titre
Cette approche part du principe selon lequel un bon titre doit informer de manière brève du contenu principal du texte qu’il encadre. Cela permet alors de fixer comme mesure de pertinence des phrases, leur similarité avec les titres. Toute la problématique se réduit donc à la construction d’algorithmes capables de capturer efficacement la similarité.
La longueur des phrases
L’approche consistant à se baser sur la longueur des phrases est assez naïve mais fonctionnelle.
En effet, la longueur moyenne d’une phrase dans un texte dépend de son genre. Généralement, les phrases très courtes sont considérées comme peu informatives alors que les phrases très longues sont présumées favoriser la redondance. Cette caractéristique est exploitée en fixant un intervalle de longueur (entre 15 et 30 mots). Une phrase ayant une longueur en dehors de cet intervalle est pénalisée [45].
Les mots indices
Ici, on considère une liste de mots, constituée manuellement, et qui a comme rôle de permettre de se décider si une phrase doit être prise dans le résumé ou rejetée, selon qu’elle contient ou non un(des) mot(s) de la liste qualifié(s) inhibiteur(s) ou valorisant(s). Comme exemple des mots ou groupes de mots inhibiteurs on trouve : par exemple, accessoirement, ... Et pour les mots valorisants on peut citer : notez bien, ...
Nous devons quand même préciser encore une fois que tout dépend de celui qui écrit la liste.
Les méthodes que nous venons de présenter sont assez intuitives mais constituent la base des processus de synthèse. En effet, synthétiser un texte revient au fond à implémenter un certain nombre de règles, dont font parties évidemment celles que nous venons de mentionner. Néanmoins, ce que nous venons de présenter est décrit en se basant sur le concept de résumé extractif. Nous devons toutefois signaler que les résumés abstractifs se basent au fond sur les mêmes principes, soit en partant des résumés extractifs pour ensuite réaliser des paraphrases, insérer des connecteurs appropriés et éliminer les références anaphoriques dans les résumés, soit en implémentant indirectement toutes ces techniques à travers un modèle d’apprentissage automatique ou un modèle basé sur les graphes capables de capturer d’un seul coup tous ces aspects (ou une grande partie d’entre-eux). Les techniques intuitives ci-haut présentées ne sont pas les seules. Il en existe également d’autres, basées essentiellement sur les théories linguistiques. Entre autres les méthodes d’analyse du discours (par exemple la RST [31] ou Rhetorical Structure Theory)...
II.4.2 Algorithmes classiques de résumé automatique
Comme nous venons de l’introduire dans la section précédente, le résumé automatique est abordé essentiellement selon deux approches qui sont [31] :
1°) Les approches numériques, fondées sur les techniques à base des scores (poids), et
2°) Les approches symboliques fondées sur les techniques purement linguistiques, basées en premier sur une étude sémantique.
Il faut noter qu’on peut considérer aussi des approches basées sur la théorie des graphes comme intégrant les idées de ces deux approches de façon implicite, tout comme celles basées sur l’apprentissage automatique. Mais, dans tous les cas, une vue sur quelques heuristiques (méthodes basées sur le bon sens) est toujours à considérer (surtout en amont, puis en aval du processus de synthèse).
Ici, nous allons présenter les approches essentiellement numériques (on va y inclure celles basées sur l’apprentissage automatique et celles basées sur la théorie des graphes).
Algorithme de Luhn [29]
Il s’agit d’une méthode heuristique pour la synthèse des documents. C’est la plus ancienne méthode de résumé automatique (au sens moderne du terme).
Cette approche n’est pas considérée comme très bien formalisée. Elle exécute implicitement l’approche du TfIdf que nous allons décrire dans la sous-section qui suit celle-ci (sous-section II.4.2).
La sélection (des mots ici) se fait en considérant les hypothèses qui suivent :
la synthèse consiste à supprimer certains mots pour n’en conserver que les plus importants;
les mots se trouvant au début sont probablement importants;
les autres mots utiles respectent une certaine distribution. La figure II.1 montre, selon Luhn, comment choisir ces mots importants (partie hachurée de la courbe).
Figure II.1: Diagramme des fréquences des mots et le choix de Luhn [29]
Cette approche, comme on l’a mentionné au début, est assez moins précise et empirique, mais elle sous-entend les idées fondamentales appliquées plus tard.
Algorithme TF-IDF
Le tf-idf (time-frequency inverse document frequency est une approche essentiellement utilisée pour le résumé extractif. Il s’agit d’une correction de l’approche naïve consistant à poser que plus un mot est répété dans un corpus de texte, plus il y est important.
Soit donc un corpus constitué de D documents et Nj le nombre total de mots (termes) présents dans un document j donné du corpus. Nommons Freq(i,j) le nombre de fois qu’un terme i apparaît dans le document j.
On définit classiquement la fréquence d’apparition par :
Freq(i,j)
T F(i,j) = (II.1)
Nj
L’approche qui se base naïvement sur la fréquence d’apparition des mots dans les textes pour juger de leur importance relative, accorde à chaque mot un poids égal à T F(i,j). La grande faiblesse de cette approche est d’inclure ainsi des termes sans grande pertinence informationnelle comme des prépositions, des articles,... très présents au sein des documents.
Pour corriger cette faiblesse, on pose l’hypothèse que les termes importants apparaissent plusieurs fois dans un document (ou juste dans peu de documents du corpus) et non pas dans plusieurs documents. Puisque dans ce second cas, il est souvent question des éléments communs du langage, sans grande utilité informationnelle. Ceci constitue en fait la loi de Zipt [55] et c’est le fondement de l’approche du tf-idf.
A cet effet, on définit DFi comme étant le nombre de documents dans le corpus, qui contiennent le terme numéro i. Cela permet d’affecter alors le poids selon la formule [5] :
D !
T FIDF(i,j) = log(1+T F(i,j))·log (II.2)
DFi
Dans l’expression, II.2, en supposant que N est le dictionnaire des termes présents dans l’ensemble des documents, il faut noter que : i ∈ {1,...,N} et j ∈ {1,...,D}.
D’où finalement, le poids d’un terme i dans un document j est donné par :
wij = T FIDF(i,j) (II.3)
Pour notre cas, l’application de cette approche consiste à décomposer un long texte en ses phrases et de considérer que chacune de ces phrases est un document et que le texte entier constitue le corpus.
Plusieurs définitions des éléments T F(ij) et IDFi formant l’expression II.2 sont toutefois possibles selon les besoins en terme de performance.
Mais, dans l’ensemble, l’idée de base demeure la même car il ne s’agit en général que de changement des types de normalisation [55].
L’application de cette méthode pour le résumé consiste finalement à calculer le poids de chaque phrase en additionnant les poids des termes la constituant, puis à normaliser le résultat en fonction de la taille de la phrase considérée. Après tout, on définit un seuil qui permet de soutirer les phrases selon leur pertinence ainsi évaluée (en considérant évidemment plus pertinente une phrase dont le résultat de la sommation des poids est élevé).
Algorithme TextRank
TextRank est un algorithme de résumé extractif, basé sur la théorie des graphes et qui s’inspire de l’algorithme PageRank de Google [8, 4].
A la base, on considère un ensemble de N phrases donné, et on calcule les coefficients de liaison de chaque phrase aux N −1 autres. A la fin, on peut obtenir une matrice M de taille N ×N dont chaque terme Mij représente le degré de liaison entre la phrase numéro i et la numéro j. Il s’agit en fait d’une matrice d’adjacence dans laquelle on pose au préalable que Mii = 0, pour tout i (c’est la même idée pour l’algorithme PageRank étant donné qu’il est logique de considérer qu’une page ne peut s’auto-référencer).
Soit donc i ∈ {1,...,N}. Appelons P hri la phrase numéro i du corpus. Cela veut dire qu’on peut écrire :
Liaison P hri ↭ P hrj = Mij = Mji (II.4)
Les valeurs de Mij sont calculées au choix, selon le programmeur. Ce dernier implémente en effet une mesure de similarité selon sa définition de la liaison entre phrases et les besoins en performance.
C’est ainsi qu’on peut utiliser par exemple une mesure de similarité classique nommée similarité cosinus en la basant par exemple sur T FIDF [19].
Pour représenter les mots à comparer, on utilise les méthodes classiques de vectorisation des mots (word embedding). Nous esquisserons ces méthodes dans les sections qui vont suivre, parlant du word embedding ( II.5 ).
Le rang des phrases sont alors calculés de manière itérative en s’inspirant de la formule [33] :
N
Xh i
T extRank(P hri) = (1−K)+K · T extRank(P hrj) ·Mij (II.5)
j=1 j,i
Dans cette formule, K est une constante comprise entre 0 et 1.
Initialement, on prend en général une valeur identique de T extRank(P hri) pour toutes les phrases (souvent T extRank(P hri) = 1), mais la valeur initiale prise n’affecte pas les valeurs finales, juste le temps de convergence [33].
La formule II.5 n’est pas arbitraire, elle est d’ailleurs triviale si on s’inspire de l’algorithme de PagePank la plus simple. Pour cet algorithme (PageRank), on avait pris à l’origine K = 0.85 [8].
Justification de la formule Le principe de PageRank consiste à se dire que, si une page
P agi contient Ni références vers d’autres pages, la probabilité qu’on aille vers l’une de ces pages référencées est de N1i (avec l’hypothèse que les références ne sont pas répétées et que la distribution de leur importance est uniforme). On sait tout de même que plus une page est référencée, plus on doit lui donner de l’importance.
Si alors on pose que l’importance de la page P agi est connue, le calcul de l’importance d’une page P agj vers laquelle elle pointe se calculera logiquement par :
X 1
Importance(P agj) = Importance(P agi)· (II.6) i Ni
Avec i appartenant à l’ensemble des pages qui mentionnent la page P agj en leur sein.
Malheureusement, pour les phrases non référencées (pages dites isolées), on trouve une importance nulle. Pour lutter contre cela, la formule II.6 est un peu modifiée en y introduisant adéquatement une constante non nulle K.
Ce qui donne l’expression [8] :
X 1
Importance(P agj) = (1−K)+K · Importance(P agi)· (II.7) i Ni
On voit alors qu’il s’agit belle et bien de la formule utilisée pour TextRank (formule II.5).
Après initialisation des rangs de chaque phrase du texte ( les T extRank(P hri)) et après calcul de la matrice d’adjacence M. On applique la formule II.5 itérativement et à la convergence, on choisit les phrases qui vont former le résumé selon leur importance ( valeurs des T extRank(P hri) pour toute valeur de i).
A la fin, les phrases sélectionnées sont réarrangées pour former un résumé extrait plus ou moins cohérent.
Il existe également un algorithme nommé LexRank [14] qui est assez similaire à TextRank ici décrit, à la différence près que :
Il prend essentiellement en compte les métriques de similarité robustes;
Il considère la position et la longueur des phrases dans le calcul de leur pertinence; - Il est optimisé pour le résumé multi-document.
Plusieurs autres algorithmes populaires existent, par exemple les algorithmes LSA (Latent Semantic Analysis ou Analyse Sémantique Latente) et LDA (Latent Dirichlet Allocation ou Allocation Latente de Dirichlet) [5].
Le premier, la LSA, est un algorithme statistique, basé sur l’algorithme SVD (Singular Value Decomposition ou décomposition en valeurs singulières). Seulement, cette technique est très gourmande en ressources suite à la complexité de l’algorithme qui implémente le SVD. Le second, la LDA, basé sur la détection des thématiques, peut aussi être utilisé.
Toutefois, il faut remarquer que les algorithmes ici présentés sont essentiellement adaptés à la synthèse extractive. Même si, ces traitements peuvent être mélangés avec les techniques de résolution d’anaphores et les paraphrases pour obtenir des synthèses qui tendent vers la synthèse abstractive, nous devons souligner que les techniques jusque là les plus performantes pour la synthèse abstractive sont essentiellement basées sur le deep learning [36]. Le deep learning peut également être utilisé pour la synthèse extractive, permettant ainsi la génération des synthèses extraites plus cohérentes (avec résolution d’anaphores). Ainsi donc, nous abordons les méthodes de deep learning utilisées pour cet effet dans les parties qui suivent.
II.5 Modèles Seq2Seq
II.5.1 Methodes du Word-Embedding
Tout traitement commence par une représentation numérique des termes (des mots ici) pour qu’ils soient assimilables par le modèle. Une approche naïve consisterait à regrouper tous les mots de notre vocabulaire dans une liste (un dictionnaire) et de les représenter chacun par un nombre unique (un identifiant). Une autre approche, plus classique, consiste à représenter chaque mot par un vecteur de dimension égale à la taille du dictionnaire et dont tous les termes sont nuls, sauf à la position, dans le dictionnaire, du mot qu’on est entrain de vouloir représenter (on parle du one-hot encoding).
Ces représentations, et toutes celles qui s’y apparentent, ont la grande faiblesse d’être peu informatives (au point de vu sémantique). Étant artificiellement construites, sans tenir compte du sens des mots, ni de leur contexte, ces méthodes de représentation rendent la tâche de découverte des caractéristiques par les systèmes de machine learning encore plus difficile. D’ailleurs, l’une des faiblesses de la seconde méthode décrite (le one-hot encoding) est que les vecteurs sont creux (une majorité de valeurs nulles) et de dimension inutilement très grande. On pourrait directement songer à une représentation plus judicieuse pour éviter ces deux soucis, et qui consisterait à réaliser une représentation binaire des termes mais, le problème de la sémantique sera toujours là.
On recourt donc à des méthodes de représentation plus élaborées, partant du principe selon lequel le contexte d’un mot suffit pour en appréhender le sens. Ainsi, tout mot est représenté en réalisant une statistique (implicitement bien sûr) sur les divers mots qui l’accompagnent souvent, de telle sorte que les mots aux sens proches aient aussi des vecteurs très proches. Bref, on en arrive à réaliser la proposition : "Similarité sémantique implique similarité de représentation". Ce sont les méthodes classiques du word embedding (ou plongement lexical). Il s’agit par exemple des méthodes comme le Word2Vec [34, 35], Glove [39], fastText [6]...
II.5.2 Modèles séquence-à-séquence proprement dits
S’agissant des modèles séquence-à-séquence (Seq2Seq), ils ont été présentés dans la section I.5.3 (voir particulièrement la figure I.6). Il s’agit bel et bien des modèles adaptés aux tâches de synthèse, vu qu’en entrée on reçoit une séquence pour ressortir une autre séquence en sortie.
Comme nous l’avons déjà bien mentionné au précédent chapitre, nous n’allons parler que des modèles Seq2Seq de type transformer car actuellement, ils sont les plus adaptés à la tâche que nous voulons réaliser (celle de synthèse automatique). Les transformers (voir la figure I.7) sont un modèle très avantageux car en fait, au-delà de leurs performances et autres avantages, ils facilitent encore plus la recherche en NLP en rendant effectif le transfer learning (apprentissage par transfert) dans ce domaine.
L’entraînement des transformers est semi-supervisé. Il se fait en deux crans (nous les décrirons dans le cadre du NLP) :
1°) Pré-entraînement : il s’agit d’un apprentissage non supervisé, qui consiste à donner au modèle une masse colossale de données textuelles, non étiquetées, pour qu’il développe une compréhension statistique du langage qu’on veut qu’il puisse assimiler.
Au final, on obtient un modèle pré-entraîné.
2°) Affinage de l’apprentissage (fine-tuning) : Ça consiste à finaliser l’apprentissage du modèle pré-entraîné de manière supervisée pour qu’il soit en mesure de réaliser une tâche donnée du NLP (il s’agit du transfer learning en fait). Cette spécialisation, requiert une très faible quantité de données car le modèle aura déjà une représentation assez bonne de la langue. Cela pallie à la fois au problème de manque des données labellisées en NLP et de la consommation en terme de ressource énergétique des gros modèles lors de leur entraînement.
Les méthodes de pré-entraînement sont très déterminantes pour les performances finales du modèle. Ce premier entraînement du modèle a pour rôle de l’amener à construire un modèle de langage [25].
Il existe ainsi plusieurs objectifs de de pré-entraînement (pour construire le modèle de langue). On peut par exemple entraîner le modèle à :
Prédire le mot suivant : donc, lors de cet entraînement non supervisé, on fournit chaque fois au modèle une séquence de mots en lui demandant de prédire le suivant. Il s’agit d’un objectif d’entraînement dit NSP (Next Sentence Prediction) visant à transformer implicitement le transformer en un modèle de langue [11];
Deviner le mot caché (masqué) : on fournit au modèle du texte dont certaines parties (mots ou suite de mots) sont cachées. L’objectif assigné au modèle est alors de retrouver les mots masqués. On parle du MMLMasked Language Modelling [11].
Ainsi, au fur et à mesure, les paramètres du modèle s’affinent, le transformant en un modèle de langue performant. Mais, à part les deux que nous venons de mentionner, il existe d’autres objectifs de pré-entraînement [25, 54] selon les variantes de transformers et les objectifs finaux de spécialisation du modèle.
Bien que la forme classique des transformers est bel et bien celle de la figure I.7, il existe 3 types d’implémentation selon les types de tâche visées en dernier lieu :
1°) Modèles à encodeur seul : on supprime la partie décodeur. Ces modèles sont très bons pour les tâches de compréhension du langage comme la classification par exemple.
2°) Modèles à décodeur seul : on supprime alors la partie décodeur du modèle. Ils sont bons pour les tâches de génération de texte.
3°) Modèles encodeur-décodeur : ou encore modèles seq2seq proprement-dits. Ils sont bons pour les tâches demandant à la fois la compréhension et la génération des textes.
Pour illustrer ce fait, on va considérer donc 3 types de transformers [49, 52] :
1°) Like-BERT : semblables au transformer dénommé BERT Bidirectional Encoder Representations from Transformers. Ce sont des modèles du type encodeur seul. Ils sont également bidirectionnels. Donc, les phrases sont lues dans les deux sens pour mieux saisir tout le contexte.
2°) Like-GPT : donc semblables au transformer dénommé GPT (Generative Pre-trained Transformer) qui n’ont que la partie décodeur et sont dits auto-regressifs car, seules les parties précédant le mot en cours de traitement sont connues du modèle et il y a chaque fois réinjection des sorties à l’entrée.
3° Like-BART/T5 : semblables à BART (Bidirectional and Auto-Regressive Transformers) ou à T5 (Text-To-Text Transfer Transformer). C’est donc ceux du type encodeur-décodeur.
Modèles encodeurs (encoder-model) : Comme on l’a dit, pour ces modèles, on n’implé-
mente que la partie encodeur du transformer d’origine (celui de Vaswani et al. [50]). En plus de cela, ces modèles ont une couche d’attention bidirectionnelle et sont généralement appelés auto-encodeurs (auto-encoding model). Ces modèles sont principalement bons pour les tâches de NLU (Natural Language Understanding) comme la classification, le NER (Name Entity Recognition), l’extractive question-answering,...
Dans ce groupe, les modèles les plus connus sont :
ALBERT [24],
BERT [11],
DistilBERT [43],
RoBERTA [28],
Etc.
Modèles décodeurs (decoder-models): Utilisent seulement la partie décodeur, sont auto-
regressifs et par conséquent les têtes de self-attention n’accèdent qu’aux mots précédant l’étape à laquelle elles sont (pas de regard dans le futur) comme on l’a déjà un peu mentionné. Ces modèles sont particulièrement bons pour les tâches liées fortement au NLG (Natural Language Generation).
Dans ce groupe, les modèles les plus connus sont :
Les GPT (1, 2 et 3) [41],
TransformerXL [10],
Etc.
Modèles encodeur-décodeur (sequence-to-sequence models): Ces modèles utilisent l’in-
tégralité de l’architecture des transformers et sont ainsi bons pour les tâches demandant à la fois du NLU et du NLG comme la synthèse automatique abstractive, le generative question-answering et la traduction automatique.
Ici nous pouvons particulièrement mentionner les modèles comme :
BART [25],
mBART [27],
BARThez [13],
T5 [42],
mT5 [53], • PEGASUS [54],
Etc.
II.5.3 Modèle BART pour la synthèse abstractive
Le modèle BART est comme une combinaison de BERT [11] et de GPT-2 [40, 41] en terme
d’architecture et d’objectif de pré-entraînement, avec quelques optimisations supplémentaires [25]. Pour illustration, voici une image de comparaison :
Figure II.2: Comparaison simplifiée entre BERT, GPT et BART [25]
L’image II.2 étant claire, nous pouvons illustrer les diverses corruptions que peuvent subir les données pour le pré-entraînement. L’image ci-dessous l’illustre :
Figure II.3: Transformations de bruitage expérimentées pour BART [25]
Le modèle BART est bien adapté à la tâche de synthèse abstractive. C’est celui que nous
allons privilégier (les modèles dérivés de BART principalement) pour réaliser cette tâche dans notre système.
Justification du choix de BART
Le choix de BART est dû au fait que c’est le modèle que nous avons trouvé réalisant un bon compromis poids-performances. Aussi, après quelques tests, ses résultats nous ont paru être plus intéressants. En outre, l’objectif d’entraînement utilisé pour BART nous paraît assez général pour construire un modèle de langage performant. Nous justifierons plus précisément ce choix dans le chapitre qui suit, en présentant également quelques résultats des tests.
II.6 Conception de l’architecture globale du système
Il existe un large éventail des méthodes de développement des systèmes informatiques mais, en règle générale, toutes suivent les étapes suivantes [7] :
1°) Spécifications : on définit avec précision ce que fera le système (à quoi est-il destiné?);
2°) Conception et mise en oeuvre : on conçoit et on réalise le système;
3°) Validation : on teste le système pour voir s’il correspond aux objectifs précisés dans les spécifications;
4°) Évolution : ça correspond à tout ce qui vient après la livraison du produit (versionning, maintenances,...).
Ici, on ne va pas utiliser une méthode de conception particulière. Pour pouvoir tout de même y aller méthodiquement, nous nous inspirerons de ces étapes classiquement suivies lors de la conception des systèmes informatiques.
Dans ce second chapitre, nous ne présenterons que les spécifications du système ainsi qu’une ébauche de conception avec une présentation de l’architecture globale. La suite sera traitée dans le chapitre suivant.
II.6.1 Spécifications du système
Le système devra pouvoir permettre de réaliser ce qui suit :
Synthétiser les textes qui lui sont fournis en entrée (saisis directement ou importés dans fichiers .pdf non scannés, des fichiers .docx et .txt);
Servir les synthèses directement ou à travers un fichier .pdf à télécharger;
Obtenir des synthèses produites par plusieurs algorithmes et les évaluer;
Stocker les couples document-synthèse;
Faciliter le parcours des documents en soulignant les parties saillantes;
Permettre l’affinage d’un modèle de synthèse automatique (ici nous réaliserons le fine-tuning du modèle mBART ou du modèle mT5 selon celui qui se prêtera mieux à cet affinage).
C’est cela le minimum de besoins que le système devra être capable de combler.
II.6.2 Présentation des éléments du système
L’architecture globale de notre système est un trois-tiers classique. Elle se présente comme sur la figure II.4 :
Figure II.4: Architecture globale de notre système
La figure II.4 presente l’architéture du système qui est d’une architecture 3 − tiers classique. Il y a toutefois une partie qui n’est pas ici représentée car nous voulons nous donner une grande liberté de conception à son sujet. Il s’agit en fait de l’interface d’accès à l’API (Application Programming Interface), qui permettra aux développeurs de s’authentifier et générer éventuellement un token à utiliser pour implémenter leur propres interfaces devant permettre d’utiliser les services de cette API. Il s’agit donc d’une API privée.
Cette interface permettra aussi de voir toute la documentation de l’API (pour les développeurs) pour mieux utiliser ses services.
Quant au bloc interface que nous venons de présenter sur la figure II.4, c’est en nous mettant à la place d’un développeur lambda qui exploite les services de l’API.
Notre API quant à elle, est une API REST (REpresentationnal State Transfer qui aura 4 end-points principaux dédiés à la synthèse automatique (selon les besoins d’implémentation, on pourra en insérer d’autres mais qui ne concernerons probablement pas la synthèse).
Module de synthèse extraite : ce module réalisera une synthèse en combinant divers résultats d’algorithmes de synthèse extraite. Nous prévoyons, dans un premier temps, ne l’utiliser que pour des petits documents (la taille optimale sera déterminée avec les expérimentations au chapitre suivant).
Module de synthèse abstraite : ce module donnera une synthèse abstraite en utilisant l’un des transformers affinés pour la synthèse ou bien par le module qui sera en train de s’auto-améliorer au cours de l’utilisation du système (on l’a nommé expérimental, voir la figure II.7). Comme les transformers réalisent des synthèses de documents de taille généralement limitée à environ une page, nous mettrons au point, dans cette partie, une pipeline qui nous permettra d’augmenter le nombre de pages (nous pensons à 100 pages mais les expérimentations nous permettrons de choisir une taille optimale, tenant compte surtout de la rapidité).
Module de synthèse extrait simplifié : Il s’agira d’un module qui permettra la réalisation de la synthèse mais en utilisant l’un des algorithmes de synthèse extraite implémentés (soit de manière aléatoire, soit par choix de l’utilisateur).
Module expérimental : Il s’agira d’un module de synthèse abstraite qui sera essentiellement utilisé pour la synthèse des petits documents (quelques pages). Pour ce module, nous comptons mettre au point une routine d’entraînement à partir des synthèses collectées par le système, pour améliorer au fur et à mesure les performances de ce module. Nous comptons réaliser l’entraînement par transfer learning avec les transformers mT5[53] ou mBART [27] comme base. N’ayant pas encore testé cette partie, nous serons fixé sur la méthode à utiliser ainsi que le modèle de base à choisir au chapitre suivant, après les expérimentations.
On peut aussi remarquer qu’il y a un module pre-processing dans la partie interfaces. C’est par suite du fait que, pour des raisons de performance, on devra envoyer à l’API le fichier sous un format particulier. Il faudra réaliser l’acquisition des données dans divers formats (pdf,docx,...) mais les données acquises seront envoyées dans un format plus léger à l’API (du JSON pour notre cas).
La base des données, que nous avons mentionné dans la figure II.4, a un double rôle :
1°) Le stockage des données de l’utilisateur (il s’agira en fait des identifiants des interfaces qui utiliseront l’API);
2°) Le stockage des paires document-synthèse, ainsi que l’appréciation de l’utilisateur (évaluation par les utilisateurs).
II.6.3 Architecture du module de synthèse extractive
Le module de synthèse extractive se présente comme suit :
Comme nous pouvons le voir, un traitement sera fait pour adapter les données reçues à ce qui peut être traité par le système. Ce traitement consistera à ne retenir que des symboles alphanumériques, à réaliser la tokenisation des textes (chaque token sera une phrase pour cette partie) et à affecter un identifiant unique à chaque phrase.
Après cela, les données seront invariablement passées aux algorithmes de synthèse extractive, qui générerons chacun un groupe de poids des phrases. Après cela, le module de pondération et sélection réalisera successivement ce qui suit :
Acquisition des sorties de chaque algorithme de synthèse extractive (il s’agira des dictionnaires dont les clés seront les identifiant uniques des phrases et les valeurs seront les poids affectés par l’algorithme). A chaque algorithme, on donnera un poids qu’on nommera WNomdel′algo compris entre 0 et 1, selon la confiance qu’on lui porte (la somme des poids sera égale à 1 et par défaut, tous les algorithmes pourront avoir le même poids) ;
Élimination des phrases de poids faible (avec comme seuil, la taille maximale de résumé précisée par l’utilisateur);
Réarrangement de chaque dictionnaire obtenu après expulsion des phrases non significatives (les éléments seront arrangés par ordre décroissant des poids pour chaque sortie);
Donner des propabilités aux espaces des poids de chaque dictionnaire par application d’un softmax sur chacun d’eux. Ce qui donnera, pour chaque phrase de chaque dictionnaire, un nouveau poids ωphri, avec i le numéro du dictionnaire et phr le numéro de la phrase considérée dans ce dictionnaire ;
Listage complet des éléments (leurs identifiants) de tous les dictionnaires.
Pour chaque élément de la liste globale ainsi établie, appliquer la formule suivante pour obtenir un nouveau poids :
X
W = Wi ·ωphri (II.8) j
i∈D
Avec Wj le nouveau poids affecté à la phrase ayant un identifiant global j (l’identifiant là d’origine) et D la liste des dictionnaires (les sorties de chaque algorithme);
Arranger toutes les phrases par ordre décroissant dans une unique liste et sélectionner les plus haut dans la liste jusqu’à atteindre le seuil fixé (nombre de mots fixé pour la synthèse).
Constituer une liste avec les éléments sélectionnés.
Réarranger les phrases de la liste selon leur ordre de succession dans le texte d’origine.
Constituer la synthèse extraite.
Ce qui précède constitue en fait l’algorithme que nous allons implémenter pour le module de pondération et sélection.
II.6.4 Architecture du module de synthèse abstractive
Le module de synthèse abstraite n’est pas unique. Nous implémenterons plusieurs modèles (BART, BARThez, PEGASUS, mBART ou mT5 entraîné avec nos données, ainsi que tous ceux qui nous paraîtrons utiles durant les essais); Chaque module de synthèse se présentera néanmoins comme suit :
Figure II.5: Architecture globale du système de synthèse abstractive
Comme nous pouvons le remarquer, il y a toujours un module de mise en forme initial (pre-processing) qui nous permettra en gros de supprimer tous les caractères que nous ne pourrons pas gérer. Vient ensuite le module de tokenisation (le tokenizer ou tokeniseur) [49] qui consistera ici à diviser tout le texte en ses mots constitutifs et à leur affecter des identifiants numériques. Ce sont ces identifiants qui seront fournis au modèle et transformés en vecteurs par la couche d’embedding du modèle.
Le modèle quant à lui, aura toujours une architecture pareille :
Figure II.6: Architecture interne du modèle mentionné sur la figure II.5
Il s’agit en effet de l’architecture classique d’un transformer, comme présenté sur la figure I.7 à l’exception du fait qu’ici on fait explicitement apparaître l’existence de la sortie du modèle. Ça correspond au réseau linéaire suivi d’une couche de softmax tel que présenté sur la figure
I.7. Cette partie, que nous avons nommé head est différente selon les tâches [52], c’est pourquoi nous avons voulu la mentionner explicitement car, selon le besoin, on peut la modifier.
Nous devons finalement mentionner que les modules de tokenisation (nommés tokenizer en anglais) dépendront explicitement des modèles utilisés.
II.6.5 Présentation des interfaces
La partie interface nous permettra juste d’utiliser le service que nous aurons élaboré et d’évaluer par la même occasion ses performances. Elle n’est pas donc cruciale. Toutefois, voici une ébauche d’interface que nous comptons utiliser pour exploiter le service :
Figure II.7: Ébauche d’interface
Avec cette interface, on a une idée générale de la manière dont nous comptons servir le système aux utilisateurs.
II.7. CONCLUSION PARTIELLE II.7 Conclusion partielle
Dans cette partie, nous venons de présenter le résumé automatique des textes, tout en réalisant une vue d’ensemble des méthodes utilisées dans la littérature à cet effet. Nous avons mentionné que la classification des résumés que nous utiliserons sera celle les départageant en abstractive summarization et extractive summarization et que, pour notre cas, il s’agira de réaliser un système de résumé mono-document, avec une partie abstractive et une autre extractive, générant un résumé générique pour des documents de type narratif et argumentatifs.
Nous avons également listé les divers modèles de transformer adaptés à la tâche de synthèse automatique abstraite, et nous avons mentionné devoir privilégier les modèles du type BART pour des raisons qui serons précisées dans le chapitre suivant.
Enfin, nous avons réalisé la conception préliminaire du système tout en précisant que, concernant l’API, la BD (Base des Données) et les interfaces, les détails d’implémentation utiles seront précisés dans la partie dédiée à la conception proprement dite et aux tests, c’est-à-dire au chapitre suivant. Le chapitre suivant nous permettra donc finalement de préciser, réaliser et tester les méthodes que nous avons jusque-là adoptées pour la mise au point de notre système de synthèse automatique des documents.
GENERALEMENT
Place les références là où il le faut STP. Même si c’est une interpretation personnelle, elle tire la source quelque part.
Verifie aussi tous les commentaires que j’ai placé aux différents niveaux du texte
Chapitre III
Conception finale, réalisation et tests
Conclusion générale
Bibliographie
D. Adams. Combining State-of-the-art Models for Multi-document Summarization Using Maximal Marginal Relevance. University of Lethbridge, 2021.
Stergos D. Afantenos, Vangelis Karkaletsis, and Panagiotis Stamatopoulos. Summarization from medical documents: A survey. CoRR, abs/cs/0504061, 2005.
Dzmitry Bahdanau, Kyunghyun Cho, and Yoshua Bengio. Neural machine translation by jointly learning to align and translate. arXiv preprint arXiv:1409.0473, 2014.
Catherine Benincasa, Adena Calden, Emily Hanlon, Matthew Kindzerske, Kody Law, Eddery Lam, John Rhoades, Ishani Roy, Michael Satz, Eric Valentine, et al. Page rank algorithm. Department of Mathematics and Statics, University of Massachusetts, Amherst, Research, 2006.
Michael W Berry and Jacob Kogan. Text mining: applications and theory. John Wiley & Sons, 2010.
Piotr Bojanowski, Edouard Grave, Armand Joulin, and Tomas Mikolov. Enriching word vectors with subword information. Transactions of the association for computational linguistics, 5:135–146, 2017.
Boudjemaa Boudaa. Cours de génie logiciel (avec exercices résolus). Université IbnKhaldoun-Tiaret, Algérie, 02 2020.
Sergey Brin and Lawrence Page. The anatomy of a large-scale hypertextual web search engine. Computer networks and ISDN systems, 30(1-7):107–117, 1998.
O. Carton and D. Perrin. Langages formels : calculabilité et complexité : cours et exercices corrigés. Vuibert, 2014.
Zihang Dai, Zhilin Yang, Yiming Yang, Jaime Carbonell, Quoc V Le, and Ruslan Salakhutdinov. Transformer-xl: Attentive language models beyond a fixed-length context. arXiv preprint arXiv:1901.02860, 2019.
Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. Bert: Pretraining of deep bidirectional transformers for language understanding. arXiv preprint arXiv:1810.04805, 2018.
Youcef Djeriri. Les Réseaux de Neurones Artificiels. 09 2017.
Moussa Kamal Eddine, Antoine J-P Tixier, and Michalis Vazirgiannis. Barthez:
a skilled pretrained french sequence-to-sequence model. arXiv preprint arXiv:2010.12321, 2020.
Günes Erkan and Dragomir R Radev. Lexrank: Graph-based lexical centrality as salience in text summarization. Journal of artificial intelligence research, 22:457–479, 2004.
Thushan Ganegedara. Natural Language Processing with TensorFlow: Teach language to machines using Python’s deep learning library. Packt Publishing Ltd, 2018.
A. Géron. Deep Learning avec Keras et TensorFlow: Mise en oeuvre et cas concrets. Dunod, 2020.
M. Hagiwara. Real-World Natural Language Processing: Practical Applications with Deep Learning. Manning, 2021.
Patrick Hairy. Les réseaux de neurones récurrents pour les séries temporelles, Septembre 2021.
Nitin Indurkhya and Fred J Damerau. Handbook of natural language processing.
Chapman and Hall/CRC, 2010.
D. Jurafsky and J.H. Martin. Speech and Language Processing. Always learning.
Pearson, 2014.
SYNTHESE AUTOMATIQUE DES TEXTES
Min-Yen Kan, Kathleen R. McKeown, and Judith L. Klavans. Applying natural language generation to indicative summarization. CoRR, cs.CL/0107019, 2001.
Akshay Kulkarni and Adarsha Shivananda. Natural language processing recipes. Springer, 2019.
S. Lamsiyah, S. Ouatik El Alaoui, and B Espinasse. Résumé automatique guidé de textes: Etat de l’art et perspectives (guided summarization : State-of-the-art and perspectives ). In Actes de la Conférence TALN. Volume 2 - Démonstrations, articles des Rencontres Jeunes Chercheurs, ateliers DeFT, pages 55–72, Rennes, France, 5 2018. ATALA.
Zhenzhong Lan, Mingda Chen, Sebastian Goodman, Kevin Gimpel, Piyush Sharma, and Radu Soricut. Albert: A lite bert for self-supervised learning of language representations. arXiv preprint arXiv:1909.11942, 2019.
Mike Lewis, Yinhan Liu, Naman Goyal, Marjan Ghazvininejad, Abdelrahman Mohamed, Omer Levy, Ves Stoyanov, and Luke Zettlemoyer. Bart: Denoising sequence-to-sequence pre-training for natural language generation, translation, and comprehension. arXiv preprint arXiv:1910.13461, 2019.
Chin-Yew Lin. Training a selection function for extraction. In CIKM ’99, 1999.
Yinhan Liu, Jiatao Gu, Naman Goyal, Xian Li, Sergey Edunov, Marjan Ghazvininejad, Mike Lewis, and Luke Zettlemoyer. Multilingual denoising pre-training for neural machine translation. Transactions of the Association for Computational Linguistics, 8:726–742, 2020.
Yinhan Liu, Myle Ott, Naman Goyal, Jingfei Du, Mandar Joshi, Danqi Chen, Omer Levy, Mike Lewis, Luke Zettlemoyer, and Veselin Stoyanov. Roberta: A robustly optimized bert pretraining approach. arXiv preprint arXiv:1907.11692, 2019.
H. P. Luhn. The automatic creation of literature abstracts. IBM Journal of Research and Development, 2(2):159–165, 1958.
Minh-Thang Luong, Hieu Pham, and Christopher D Manning. Effective approaches to attention-based neural machine translation. arXiv preprint arXiv:1508.04025, 2015.
Mohamed Hedi Maaloul. Approche hybride pour le résumé automatique de textes. Application à la langue arabe. Theses, Université de Provence - Aix-Marseille I, December 2012. Date Soutenance 18-12-2012.
Inderjeet Mani. Automatic summarization, volume 3. John Benjamins Publishing, 2001.
Rada Mihalcea and Paul Tarau. Textrank: Bringing order into text. In Proceedings of the 2004 conference on empirical methods in natural language processing, pages 404– 411, 2004.
Tomas Mikolov, Kai Chen, Greg Corrado, and Jeffrey Dean. Efficient estimation of word representations in vector space. arXiv preprint arXiv:1301.3781, 2013.
Tomas Mikolov, Ilya Sutskever, Kai Chen, Greg S Corrado, and Jeff Dean. Distributed representations of words and phrases and their compositionality. Advances in neural information processing systems, 26, 2013.
Maali Mnasri. Résumé automatique multi-document dynamique. Theses, Université Paris-Saclay, September 2018.
Marie-Francine Moens. Automatic indexing and abstracting of document texts. Computational Linguistics, 27(1):149–149, 2001.
Ani Nenkova and Rebecca Passonneau. Evaluating content selection in summarization: The pyramid method. In HLT-NAACL 2004 - Human Language Technology Conference of the North American Chapter of the Association for Computational Linguistics, Proceedings of the Main Conference, HLT-NAACL 2004 Human Language Technology Conference of the North American Chapter of the Association for Computational Linguistics, Proceedings of the Main Conference, pages 145–152. Association for Computational Linguistics (ACL), 2004.
SYNTHESE AUTOMATIQUE DES TEXTES
Jeffrey Pennington, Richard Socher, and Christopher D Manning. Glove: Global vectors for word representation. In Proceedings of the 2014 conference on empirical methods in natural language processing (EMNLP), pages 1532–1543, 2014.
Alec Radford, Karthik Narasimhan, Tim Salimans, Ilya Sutskever, et al. Improving language understanding by generative pre-training. 2018.
Alec Radford, Jeffrey Wu, Rewon Child, David Luan, Dario Amodei, Ilya Sutskever, et al. Language models are unsupervised multitask learners. OpenAI blog, 1(8):9, 2019.
Colin Raffel, Noam Shazeer, Adam Roberts, Katherine Lee, Sharan Narang, Michael Matena, Yanqi Zhou, Wei Li, Peter J Liu, et al. Exploring the limits of transfer learning with a unified text-to-text transformer. J. Mach. Learn. Res., 21(140):1–67, 2020.
Victor Sanh, Lysandre Debut, Julien Chaumond, and Thomas Wolf. Distilbert, a distilled version of bert: smaller, faster, cheaper and lighter. arXiv preprint arXiv:1910.01108, 2019.
D. Sarkar. Text Analytics with Python: A Practitioner’s Guide to Natural Language Processing. Apress, 2019.
Barry Schiffman, Ani Nenkova, and Kathleen McKeown. Experiments in multidocument summarization. In Proceedings of the Second International Conference on Human Language Technology Research, HLT ’02, page 52–58, San Francisco, CA, USA, 2002. Morgan Kaufmann Publishers Inc.
S. Srivastava. Natural Language Processing with Python: Hands-On Labs to Apply Deep Learning Architectures to NLP Applications. Independently Published, 2021.
Brahim Tlili. Identification et commande des systèmes non linéaires : Utilisation des modèles de type NARMA. Theses, Ecole Nationale d’Ingénieurs de Tunis, July 2008.
Juan-Manuel Torres-Moreno. Automatic text summarization. John Wiley & Sons, 2014.
Lewis Tunstall, Leandro von Werra, and Thomas Wolf. Natural language processing with transformers. " O’Reilly Media, Inc.", 2022.
Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, Łukasz Kaiser, and Illia Polosukhin. Attention is all you need. Advances in neural information processing systems, 30, 2017.
Lilian Weng. Les réseaux de neurones récurrents pour les séries temporelles, Avril 2020.
Thomas Wolf, Lysandre Debut, Victor Sanh, Julien Chaumond, Clement Delangue, Anthony Moi, Pierric Cistac, Tim Rault, Rémi Louf, Morgan Funtowicz, et al. Transformers: State-of-the-art natural language processing. In Proceedings of the 2020 conference on empirical methods in natural language processing: system demonstrations, pages 38–45, 2020.
Linting Xue, Noah Constant, Adam Roberts, Mihir Kale, Rami Al-Rfou, Aditya Siddhant, Aditya Barua, and Colin Raffel. mt5: A massively multilingual pre-trained text-to-text transformer. arXiv preprint arXiv:2010.11934, 2020.
Jingqing Zhang, Yao Zhao, Mohammad Saleh, and Peter Liu. Pegasus: Pretraining with extracted gap-sentences for abstractive summarization. In International Conference on Machine Learning, pages 11328–11339. PMLR, 2020.
Jan Žižka, František Dařena, and Arnošt Svoboda. Text mining with machine learning:
principles and techniques. CRC Press, 2019.
Annexes
68 |
La science a un contrat avec la société. Contrat qui consiste à faire avancer les connaissances.
AMOS COMENIUS (père sprituel de l'UNESCO) : " Nous voulons que tous les êtres humains, ensemble ou pris isolément, jeunes ou vieux, riches ou pauvres, nobles ou roturiers, hommes ou femmes, puissent pleinement s'instruire et devenir des êtres achevés. Nous voulons qu'ils soient instruits parfaitement et formés non seulement sur tel ou tel point, mais également sur tout ce qui permet à l'homme de réaliser intégralement son essence.
D'apprendre à connaître la vérité, à ne pas être trompé par des faux semblants. A aimer le bien, à ne pas être séduit par le mal, à faire ce qu'on doit faire et à se garder de ce qu'il faut éviter.
A parler sagement de tout, avec tout le monde. Enfin, à toujours traiter les choses, les hommes et Dieu avec prudence et non à la légère. Et à ne jamais s'écarter de son but, le bonheur ".
Le Galilée de l'éducation comme on le surnommait s'est posé une question à la fois très simple et très révolutionnaire. Il s'était demandé en effet : "Comment faire en sorte que tous les hommes accèdent à tout le savoir disponible ?"
Comment offrir à tous un panorama complet de ce que les hommes savent ?
" C'est de l'ignorance, et de l'ignorance seule que l'homme doit se libérer. " Disait .... ???
Ce qui fait écho à la Bible (mon peuple périt par manque de connaissance...)
Nelson MANDELA : " L'éducation est la plus grande puissance transformatrice de la société". |
|
Il ne parlait pas ex cathedra, ne publiait pas de bulles, ni d’encycliques ni de décrets. Il ne prêchait pas - il agissait Il faisait ce qu’il croyait devoir faire. | Les exemples ne manquent pas : la marche du sel, le rouet, le satyagraha, la destruction des vêtement de style européen, la libération des femmes et des intouchables… Il entraînai des millions de personnes dans son action. Gandhi ne se déplaçait pas en «papamobile» à l’épreuve des balles, il n’avait comme garde du corps que deux jeunes cousines frêles et délicates et il ne portait que des sandales et un châle de coton qu’il avait filé et tissé lui-même. Il ne parlait pas ex cathedra, ne publiait pas de bulles, ni d’encycliques ni de décrets. Il ne prêchait pas - il agissait Il faisait ce qu’il croyait devoir faire et les foules le suivaient par milliers… par millions… par centaines de millions. |
Les vraies causes de la procrastination : mais pourquoi ? Quelles sont les causes de ce phénomène si répandu et qui empoisonne allègrement l'existence de ceux qui en sont touchés ? Un refuge derrière les excuses (et en aucun cas la paresse) Un système de défense développé par le cerveau. Les interruptions, la surcharge d'informations et la mauvaise gestion du temps sont des facteurs. La prorastination se nourrit de petits plaisirs qui ne vous apportent qu'une satisfaction de courte durée. Une seule chose compte vraiment : oser, s'engager. Vous ne pouvez pas toujours changer ce à quoi vous faites face, mais vous ne pouvez jamais changer. Les moyens à mettre en œuvre pour lutter contre la procrastination ne sont pas impossibles ou très difficiles à appréhender et à réaliser. L'idée n'est pas de se dépasser tout de suite mais de progresser à chaque fois, même si ces progrès sont minimes. Les loisirs de qualité sont de véritables moments de répit et de déconnexion pour votre cerveau. Ils reposent, évitent le burn-out et permettent de faire appel à des sens que vous n'utilisez pas dans votre travail. Ils vous rendent plus heureux et augmentent votre énergie disponible. Toutes les séances sont limitées à un petit nombre de personnes afin d'effectuer un suivi de qualité et de passer du temps avec chacun. Inscrivez-vous et renouez avec la motivation, clé de la réussite de vos projets, qu'ils soient professionnels ou personnels. Découvrez les secrets du comportement humain avec la méthode d'analyse RGMP. | VAINCRE LA PROCRASTINATION Jean-Yves PONCE Copyright © 2015 Tous droits réservés. Toute reproduction ou transmission intégrale ou partielle du contenu de cette publication sans la permission écrite de son auteur est strictement interdite. La politique de Potion de Vie est de défendre ses droits de la propriété intellectuelle et de les faire respecter dans la pleine mesure prévue par la loi, incluant d’éventuelles poursuites judiciaires. Comment renouer avec l’action et arrêter de remettre votre vie à plus tard Contents Introduction Un point sur la situation : Identifier, analyser, comprendre la procrastination et l’ensemble des éléments qui vous freinent La procrastination, définition Les symptômes du procrastinateur De lourdes conséquences Les effets de la procrastination Les causes réelles de la procrastination : Mais pourquoi ? Quelles sont les causes de ce phénomène si répandu et qui empoisonne allègrement l’existence de celui qui en est touché ? Un refuge derrière des excuses (et en aucun cas de la paresse) Un système de défense mis au point par le cerveau Une attitude directement liée au plaisir Les facteurs aggravants, freins à votre réussite Les interruptions La surcharge d’informations La mauvaise gestion du temps Votre objectif à atteindre : Améliorer ses performances et son efficacité pour retrouver confiance en soi Ne plus perdre de temps Abaisser son seuil de certitudes Exploiter les temps morts Oser et s’engager Mieux vaut risquer d’échouer... ... Que de réussir à ne rien faire Changer durablement Pour continuer à bâtir des projets S’émerveiller toujours et apprendre encore Les moyens à mettre en œuvre pour lutter contre votre ennemi Axer son développement personnel sur un travail de sa motivation et de sa concentration Reprendre la main Vaincre ses peurs par le choix Se ménager de vraies plages de travail ou le principe de la concentration 3X30 Couper toutes les sources d’interruptions possibles Renouer avec la motivation La motivation ne s’attend pas, elle se provoque La motivation, ça s’entretient et ça se travaille Utiliser ses loisirs pour mieux travailler Le bien-fondé des loisirs de qualité Le profitable équilibre entre travail et loisir La nécessité d’encadrer ses pauses de la journée Conclusion Introduction Si vous remettez toujours tout à plus tard, que cela vous fait culpabiliser, et que vous voulez changer, cet ouvrage est pour vous. Vous saurez tout des mécanismes qui entretiennent votre tendance à procrastiner, pour mieux les analyser et apprendre à ne plus y succomber. Comme le dit si bien ce proverbe russe : «Tomber est permis... Se relever est ordonné ! » Cet ouvrage est un outil à destination des procrastinateurs et perfectionnistes de l’extrême qui vous fera voir de quelle façon vous tombez et qui vous livrera des clés pour vous relever. Il est une incitation à ne plus perdre de temps et à oser. Il vous livrera une multitude de conseils pour acquérir une réelle motivation et décupler votre efficacité. Découvrez sans plus attendre ces techniques qui feront de vous une personne déterminée. Bientôt, vous ne trouverez pas qu’il est difficile de réussir, mais qu’il est difficile d’arrêter d’essayer. Parce que, au bout du compte, vous verrez, ça marche ! Et vous réaliserez alors, avec joie et confiance, vos petites activités du quotidien comme vos grands projets de vie. N’oubliez pas, « Là où se trouve une volonté, il existe un chemin » [1] . Un point sur la situation : Identifier, analyser, comprendre la procrastination et l’ensemble des éléments qui vous freinent La procrastination, définition J’aurais beau avoir une mémoire gargantuesque, un cerveau brillant, des capacités monumentales, s’il me manque l’envie, la motivation, la faculté à me mettre au travail, cela ne me sert à rien. Et oui, la procrastination fait son œuvre ... afin que vous ne fassiez pas la vôtre. Les symptômes du procrastinateur Le procrastinateur développe plusieurs symptômes. Le terme n’est pas anodin, il s’agit bien d’une affection, une maladie. Oh, certes, elle ne vous tuera pas. Elle vous fera seulement passer à côté de votre vie. Ce n’est pas grand chose. Remettre à plus tard ... Le premier signe à repérer est cette fâcheuse tendance à toujours tout remettre à plus tard, qu’il s’agisse de votre travail, des activités liées à votre métier, ou des tâches (ou corvées, c’est selon) de la vie quotidienne telles que le ménage, les courses, le repassage, etc. Vous reportez indéfiniment, la motivation ne vient pas, la concentration, elle, ne reste pas ; et, au fur et à mesure que vous repoussez votre travail, la culpabilité s’accroit. Il faut dire que si vous ne vous êtes pas investis tout de suite dans votre tâche, c’est parce qu’il est plus amusant de traîner sur Internet, de se laisser guider d’articles en réseau social, de quizz en jeu. Parce que oui, tout plutôt que de faire ce que je dois faire. Et puis, je m’évade, une idée en chasse une autre, un projet se dessine, les contours d’un rêve... qui ne restera qu’un rêve ! Parce que vous ne trouverez jamais le temps de le réaliser. Ce qui vous caractérise, c’est votre incapacité à rester engagé sur une activité ou une idée. Il y en a toujours une meilleure, une plus facile, et donc forcément plus attirante qui vous fait changer d’orientation. Néanmoins, reconnaissons-le, vous faites votre travail, souvent bien, parfois légèrement bâclé, toujours au dernier moment, à la dernière minute. Vous le rendez à la dernière seconde. Vous vous êtes reconnus ? Au moins partiellement ? Ce n’est pas normal, mais c’est fréquent. Beaucoup d’entre nous souffrent ou ont souffert de la procrastination. Sans plus attendre, définissons clairement ce gros mot : la procrastination est la tendance pathologique à tout différer, à tout remettre au lendemain. Elle se manifeste généralement dans tous les aspects de votre vie, c’est-à-dire, aussi bien sur le plan professionnel que personnel. Dans votre vie quotidienne, c’est elle qui insidieusement vous empêche de vous mettre au russe (parce que cela nécessite trop de temps, et c’est compliqué, il faut réapprendre un alphabet, la grammaire est vraiment différente du français), d’organiser ce voyage en Australie (parce que c’est loin, et tout ce temps passé dans l’avion, c’est épouvantable). Vous avez acheté des brocolis parce que vous voulez vous mettre au régime (cette fois- ci, vraiment, vous allez le faire !) mais vous les avez mis à la poubelle quand ils ont commencé à moisir dans le bac à légume du frigo (vous les aviez oublié... tout comme votre régime). Ce n’est pas grave, vous regardez la pile de courrier et constatez que votre tante vous a envoyé le dernier livre qu’elle a adoré. Vous êtes ravi et enthousiaste, vous allez le commencer tout de suite. Mais 10 pages plus loin, vous vous sentez fatigué et le posez dans votre bibliothèque. Une très belle et très grande bibliothèque qui regorge de livre que vous n’avez jamais lus, au mieux vous les avez feuilletés. Vous allez vous mettre à ce rapport, parce que vous avez 2 semaines pour le boucler avant délibération du conseil d’administration. Vous y pensez longuement tous les jours. Cela ne veut pas dire pour autant que vous y travaillez, au contraire. Le stress commence à monter. Vous auriez du vous y mettre il y a 8 jours déjà, mais bon, là, maintenant, nous n’en sommes plus à une journée près. Demain, vous vous y mettez. Finalement, vous le rendrez le jour J, bâclé, il vous aura coûté quelques nuits blanches, de longues migraines et beaucoup de café. Et vous vous êtes jurés de ne plus jamais recommencer ! Un dossier arrive sur votre bureau. Vous l’ouvrez, et le refermez car avant, vous avez votre boîte mail à consulter, votre page Facebook aussi, et il y a également votre cousine que vous devez appeler. D’ailleurs, vous avez faim, donc vous prenez votre téléphone et composez son numéro en vous rendant au distributeur pour acheter une barre chocolatée. En dépit de votre petite voix intérieure Pourtant, souvent, très souvent, une petite voix intérieure vous recommande de s’y mettre et de ne pas abandonner. Pour se donner du courage, très fréquemment, on se parle à soi-même dans de tels moments. Avant de commencer une activité, vous vous dites « Allez, vas-y, tu vas y arriver ! », puis, lorsque vous abandonner, cela donne « Mais allez, ne lâche pas ! Si tu arrêtes maintenant, tu ne feras plus rien au moins jusqu'à demain. Et tu le sais très bien ! ». Cette petite voix moralisatrice, votre bonne conscience qui cherche à s’exprimer et à vous entraîner vous adresse tous ces petits messages que vous connaissez bien : « Il faut que je fasse ceci. Je devrais faire cela. Et puis, je dois absolument faire ça ». Hélas, au-delà de la parole, il y a les actes, et si la petite voix intérieure est consciencieuse, vous, vous l’êtes peut-être moins. Ce n’est pas cependant une fatalité. Les techniques détaillées dans ce livre vous permettront de reprendre pied. De lourdes conséquences La procrastination a de lourdes conséquences sur votre vie. Des devoirs pesants L’une d’entre elle, et qui n’est pas des moindres, c’est cette impression de vivre une vie faite de devoirs pesants, de poids sur vos épaules qui s’accumulent, ce sentiment de ne jamais réussir à sortir vraiment la tête de l’eau. Il y a « toutes ces choses à faire absolument ». Peut-être même avez- vous votre « To Do List » (que vous mettez plus de temps à rédiger qu’à mettre en œuvre) indiquant toutes les tâches de la journée à exécuter : celles que l’on vous impose et celle que vous vous imposez à vous-même. Plus question ici de liberté, vous étouffez devant ce recensement des devoirs à accomplir. Pour ne plus y penser et relâcher la pression, vous vous installer devant la télévision, sans en avoir vraiment envie, sans en avoir vraiment besoin au fond. Peu importe l’échappatoire que vous trouverez, la procrastination conduit toujours à la même situation : vous n’avancez pas, ni dans votre travail, ni dans vos projets personnels, et vous vous en voulez terriblement. Une frustration grandissante Cette culpabilité dévastatrice s’accompagne d’une frustration grandissante. Vous savez parfaitement que vous êtes capable du meilleur, que vous pouvez faire de grandes choses. Mais pas lorsque vous vous sentez obligés de le faire, pas lorsque cette chose vous apparaît comme imposée, dictée, ordonnée. Dans ce cas, la frustration apparaît, croît, monte. Vous ressentez constamment le devoir de faire des choses, vous ne le supportez pas, et, pour retrouver votre liberté, vous vous adonnez à des loisirs que vous faites pourtant en culpabilisant. En effet, vous devriez être en train de travailler. Cette situation pourra même être vécue avec beaucoup d’angoisse. La conséquence de tout cela est bien triste : votre travail n’avance pas, vos loisirs sont sans plaisir. Heureusement, il existe des moyens d’en finir avec tout ceci et de reprendre le contrôle. Les effets de la procrastination Report, perfectionnisme et culpabilité Le procrastinateur est souvent un perfectionniste de l’extrême. Il ne finit pas ce qu’il a entrepris, rend toujours son travail à la dernière minute, parce que jusqu’au bout, il a l’espoir de s’y mettre réellement ou bien de pouvoir améliorer jusqu’au dernier moment ce qu’il a entrepris. C’est comme cela que de nombreux écrivains parachèvent leur œuvre, l’améliorent, pendant, des mois, puis des années, voire des dizaines d’années avant de sortir de ce cercle infernal et de la faire publier. Il arrive un moment où, lorsque vous en êtes à retirer une virgule en trop de votre rapport, puis, à la remettre parce que finalement, elle a du sens, il est grand temps de finir, clore, mettre un terme à votre travail et passer à autre chose. Un perfectionniste est consciencieux, c’est louable. Mais il peut aussi sombrer dans les abîmes de la paralysie et de l’immobilisme, ce qui est nettement moins enviable et intéressant, pour lui comme pour ses collaborateurs et sa hiérarchie. La procrastination paralyse, elle rend aussi coupable. Une culpabilité qui s’immisce dans chacun de vos moments de détente, qui vient amoindrir votre plaisir. Vous culpabilisez de vous distraire alors que vous n’avez pas achevé votre travail (ou même commencé). Mais cette culpabilité ne vous conduira pas forcément à vous ramener sur la voie du labeur et de la rigueur. Elle décuplera votre sentiment de ne pas être à la hauteur, ou vous ramènera sur le chemin du devoir et vous accomplirez votre tâche avec un enthousiasme proche de zéro. Retarder ou ... éliminer ?! Nous nous sommes intéressés jusqu’à présent à la procrastination en tant que tendance à vous faire repousser inexorablement vos actions. Cependant, elle peut amener à un travers bien pire encore : après avoir retardé les actions qui vous permettraient de satisfaire vos aspirations, elle pourrait vous conduire à les éliminer totalement. De fait, des projets repoussés encore et encore finiront par être oubliés, ou bien vous y renoncerez. Placés dans la longue liste des choses à faire que vous ne ferez jamais. Ce n’est pas en soi un véritable problème si cette situation est réfléchie, pesée, choisie. En revanche, si tel n’est pas votre cas, la prise de conscience de cette relégation aux abîmes d’un projet qui vous tient à cœur a de fortes chances de vous laisser, au mieux, déçu et désappointé, au pire, anéanti. Mais l’être humain est plein de ressorts et rebondit. Il va de l’avant. Vous vous emparerez de nouveaux projets, porté par un dynamisme fulgurant et planifierez vos prochains objectifs et la procrastination reviendra, aussi rapidement que votre motivation s’envolera. Il est bien difficile d’avoir ce que l’on veut. La procrastination y veillera. Les causes réelles de la procrastination : Mais pourquoi ? Quelles sont les causes de ce phénomène si répandu et qui empoisonne allègrement l’existence de celui qui en est touché ? Un refuge derrière des excuses (et en aucun cas de la paresse) La procrastination n’est, en aucun cas, de la paresse. Ne vous blâmez pas. Elle provoque une certaine inertie mais ce n’est ni de la flemmardise, ni de l’indolence désinvolte. Elle est plutôt un abri, un refuge derrière des excuses. Trois d’entre elles reviennent toujours. Je n’ai pas le temps. Je n’ai pas la motivation. À quoi bon se donner du mal quand il n’y a pas d’enjeux, ou si peu ? Pas le temps. L’excuse qui reviendra la plus souvent est celle du temps. Je n’ai pas le temps, ou, cela nécessite trop de temps, je n’ai pas autant de temps à consacrer à ça, ... Pourtant, si vous reportez, éliminez, à force de ne pas vous atteler à vos activités, du temps, il devrait s’en dégager et vous devriez en avoir. C’est une excuse donc, un moyen de repousser encore. S’agirait-il alors d’une histoire de motivation ? « Je n’ai pas la motivation », « je manque de motivation », « est-ce-que ça vaut vraiment le coup ? » Autant de phrases égrenées à longueur de journée qui en disent long sur ce que vous pensez. Elle a bon dos la motivation. Pas la motivation. Le manque de motivation se traduira par différents types d’excuses. Parmi elles, en premier lieu, nous traiterons de la quête du Graal ou le syndrome de la recherche du trésor. La quête du Graal fait partie de votre quotidien et ce n’est pas parce que vous lisez Chrétien de Troyes, ni parce que vous suivez attentivement les épisodes de Kaamelott. En effet, ça y est, vous avez trouvé le trésor qui vous manquait, eurêka, vous avez trouvé et acheté un livre sur la procrastination qui révolutionnera votre comportement et vous fera déplacer des montagnes. Cependant, faute de motivation, vous abandonnerez cet ouvrage fastidieux dans un coin de votre bibliothèque après en avoir lu quelques pages. Et si d’aventures, quelqu’un vous demandait ce que vous en avez pensé, vous lui affirmeriez avec une once de culpabilité bien dissimulée qu’il est très intéressant. Vous n’êtes en effet jamais aller jusqu’à tester les exercices proposés. Alors, oui, il vous faudra bien plus qu’un livre sur la gestion du temps ou un séminaire de motivation à 1000€ pour vous débarrasser ce fléau qui vous gâche la vie. En second lieu, l’abandon (radical, pur et simple) est une autre façon d’étayer vos excuses liées au manque de motivation. « À quoi bon se lancer dans des projets irréalistes ? Je n’en verrai jamais le bout. D’ailleurs, là, tout de suite, j’ai reçu un mail auquel je dois répondre. » Enfin, pour terminer, la motivation, ou plus précisément son absence, pourra vous amener à vous laisser bercer par le doux appel de « l’auto- réconfort ». Il est vrai qu’en ce moment, vous n’êtes pas à 100% de votre concentration, ni au top de votre forme mais vous savez que le jour où un réel projet surgira, de vraies idées arriveront, ce jour-là, vous serez prêt. Ce moment n’est hélas pas encore arrivé et vous désespérez un peu, de temps en temps, de le voir poindre un jour. Mais, vous avez une explication à tout cela. Comment trouver temps et motivation si, au fond, il n’y a pas de véritables enjeux ? Pas d’enjeux. La question de l’enjeu, ou des enjeux, joue un rôle fondamental dans votre tendance à toujours tout repousser. Cette fois, c’est sûr, vous le ferez et ce n’est la procrastination qui vous arrêtera. Pour cela, vous vous imposez une discipline de fer, qui marche... seulement un temps. Se contraindre à des règles drastiques fonctionne uniquement sur le court terme. Cette façon de faire n’est pas propice à la réalisation de longs projets. De plus, le sentiment d’échec qui résulte de son inefficacité sur le long terme pourra vous amener à déprimer. Vous pouvez également vous convaincre qui si vous n’avez pas accompli cette tâche, c’est parce que finalement, vous ne le vouliez pas vraiment. Pourquoi s’embêter à faire ce dont on n’a pas réellement envie ? Mais, plus tard, vous vous rendrez compte que vous agissez de même pour chacune des choses que vous avez à faire ou que vous auriez aimé faire. Rendez- vous en compte avant d’avoir passé votre vie à ne jamais terminer ce que vous avez commencé, à ne jamais avoir pu réaliser ce qui vous importait vraiment. Si ces quelques remarques vous ont profondément découragés, ne soyez pas si abattu. La procrastination se réfugie derrière une foule d’excuses, qui, néanmoins n’en sont pas la cause réelle. Vous n’êtes pas un être amorphe, oisif, indolent et paresseux mais peut-être, en revanche, un tant soit peu angoissé. La pathologie qui vous habite est, de fait, un système de défense mis au point par votre cerveau pour se protéger de trois peurs. Un système de défense mis au point par le cerveau La peur de l’échec Parmi elles, on comptera la peur de l’échec. Vous reportez pour ne pas échouer. Il n’y a que vos professeurs du collège ou du lycée qui vous attribuaient un 0 pour un devoir non rendu. Dans les faits, si le travail n’a pas été fait, si rien n’a été produit, vous n’aurez pas échoué dans votre travail. Vous aurez seulement échoué à vous mettre au travail ! La peur de l’imperfection Cette peur est intrinsèquement liée à celle de l’imperfection. Tant qu’un travail est en cours, il peut être amélioré. Tant qu’il n’est pas fini, rendu, il ne peut être jugé. Vous repoussez l’échéance pour améliorer votre travail, parachever votre œuvre, peaufiner les derniers détails. Il y a encore ce petit quelque chose dont vous n’êtes pas satisfait et sur lequel vous voudriez vous repencher. Il y a toujours un moyen de retarder le moment où votre travail sera achevé. La peur de ne pas être à la hauteur Au fond, une idée vous angoisse : celle de ne pas être à la hauteur ! Donc, vous prenez du recul, et souvent un peu trop. Une attitude directement liée au plaisir Votre procrastination est le fruit de grandes peurs, mais aussi la résultante de la préférence de notre cerveau à obtenir un plaisir immédiat. La recherche d’un plaisir immédiat Le cerveau est un organe méconnu et malgré les grandes avancées faites au XXème et XXIème siècle en neurologie, nous savons encore peu de choses sur lui. Cependant, on peut avancer sans se tromper que la procrastination est reliée au centre des plaisirs de notre cerveau, la zone qui anticipe les récompenses à venir et fait donc de notre organe de l’intelligence un grand consommateur de plaisir immédiat. Cela explique pourquoi vous préférez passer un week-end à la campagne avec des amis à faire la fête que de réviser vos concours ou examens. De même, les grandes consommatrices de régime le savent bien, il est tellement plus facile de manger une pizza même si l’on sait bien qu’un filet de poisson avec des courgettes est beaucoup plus sain et moins calorique. Et après avoir couru, vous vous sentez tellement bien, mais avec la pluie qui tombe et le canapé et la télé qui vous tendent les bras, difficile de sauter le pas ! Nous autres pauvres humains recherchons avant tout le plaisir, la satisfaction. Ce n’est pas une faute inavouable ou quelque chose d’honteux mais un fait qu’il faut prendre en compte pour se réaliser pleinement. La procrastination se nourrit de plaisirs. Elle vous conduit à ne pas faire tout ce dont vous n’avez pas envie. Elle peut donc vous amener à ne rien faire. Puisque même ne rien faire peut être perçu comme un plaisir comparé à une corvée. Cependant, il est très important de remarquer que la procrastination se nourrit de petits plaisirs qui ne vous apportent une satisfaction qu’à court terme (il n’y a pas beaucoup de valeur ajoutée au fait de regarder la télé plutôt que de rédiger un rapport important pour votre carrière), voire une satisfaction teintée de culpabilité comme nous l’avons vu précédemment. L’aspect rebutant d’un labeur dans la durée Comment se tirer de ce mauvais pas ? Comparons la procrastination à un ogre affamé et très porté sur le sucré. L’ogre se nourrit quasi exclusivement de ses desserts favoris. Comment faire changer de régime alimentaire à cet ogre qui a pris conscience de la pauvreté nutritive de ses repas ? Rassasiez- le de bons plats de résistance avant de le contenter avec l’un de ses desserts préférés. Agissez de même avec votre tendance à la procrastination. Limitez tous ses petits plaisirs immédiats et improductifs et nourrissez-la de vos grands projets. La recommandation est simple, la mettre en œuvre sera un peu plus difficile car l’immédiateté est un facteur déterminant pour notre cerveau qui fait rimer instantanéité et facilité. Et pourtant, le bonheur se bâtit, lentement, pas à pas. Repensons à ce proverbe issu de la sagesse populaire que notre cerveau semble avoir fait sien : « Un tiens vaut mieux que deux tu l’auras ». Certes, mais si c’est vous qui décidez ?! Si c’est vous qui vous accordez un plaisir tout de suite ou choisissez d’attendre un peu pour vous en procurer un demain plus intense et plus durable ? On est plus heureux d’avoir bâti sa maison en une année que d’avoir construit un château de sable en une après-midi. Si vous en prenez conscience et en tenez compte dans votre manière de raisonner, c’est déjà une belle avancée. Les facteurs aggravants, freins à votre réussite Ces causes de la procrastination que sont le manque de temps, de motivation, la peur de l’échec, de l’imperfection ou encore la recherche du plaisir facile et instantané se doublent d’éléments qui viendront perturber votre motivation, ralentir votre travail, amoindrir vos capacités. Ces freins à la réussite sont nombreux et très présents quotidiennement. Les interruptions Parmi ces facteurs aggravant, les interruptions représentent la première source de distraction. En matière de rendement et de productivité, rien de pire que d’être interrompu sans cesse au milieu de son travail ! L’environnement extérieur n’est pas toujours porteur Il vous faut faire face à de nombreux facteurs extérieurs qui vous perturbent lorsque vous êtes enfin en train de travailler. Vous avez prise sur certains, sur d’autres moins. Commencez par éliminer toutes les nuisances sur lesquelles vous pouvez agir. Eteignez la musique, la radio, la télé. Que vous soyez chez vous ou sur votre lieu de travail, rien de mieux que le silence pour se concentrer. Vous pouvez fermer la porte de votre bureau le temps de rédiger un rapport, personne ne vous en tiendra rigueur. En open space, essayez de vous aménager une bulle de concentration en faisant abstraction de tout ce qui vous entoure. Si vous avez quelques difficultés, essayez les bouchons d’oreilles. Mettez votre téléphone sur répondeur, supprimez les alertes, les SMS, mails et infos en tous genres qui mettront à mal votre concentration. Le changement amène à s’interrompre et recommencer Un autre facteur d’interruptions et de perte de temps joue un rôle important : le changement. Au fur et à mesure que vous travaillez sur tel ou tel projet, vos idées se bousculent, votre approche vous fait voir la chose d’un tout autre œil et, là, vous vous rendez compte qu’un changement de direction, de plan, de stratégies (peu importe de ce dont il s’agit) s’impose. Un changement qui deviendra vite un contretemps ! Vous vous interrompez dans votre tâche. Avant de vous y remettre, vous avez un peu traîné, mais bon, vous avez repris... jusqu’à ce qu’une nouvelle perspective s’impose et vous amène à reprendre votre travail différemment. Cela peut se produire pendant un certain temps. La surcharge d’informations D’autant plus que vous aurez affaire à une telle somme d’informations, qu’il n’est pas évident de trouver par quel angle attaquer votre travail. En effet, la surcharge d’informations est un des éléments paralysants qui ralentira considérablement votre tâche. Internet et ses milliards d’infos Internet et ses milliards d’informations ne nous rend pas la vie facile. Il faut trier les contenus, en éliminer, savoir les apprécier, juger de leur valeur, de leur pertinence pour le sujet que vous avez à traiter. Votre collègue dévoué et ses dizaines de dossiers Internet est l’exemple le plus parlant. Mais en réalité, avec le développement de l’informatique, même votre collègue dévoué devient un cauchemar. Il va rechercher pour vous dans la base de données interne de l’entreprise tous les dossiers qui auront un rapport, de près ou de loin, avec la dernière mission que l’on vous a confiée. Vous vous retrouvez avec des tableurs, des présentations, des articles et des rapports à ne plus savoir quoi en faire. Heureusement que cette collègue dévoué ne maîtrise pas à la perfection la gestion de données, en voulant bien faire, il pourrait vous faire crouler sous des big data. Savoir synthétiser, trier, ordonner devient une qualité nécessaire à la gestion et au traitement d’informations toujours plus nombreuses, et volumineuses. La mauvaise gestion du temps Dernier élément, et non des moindres, que nous traiterons dans cette partie consacrée aux freins à votre réussite : la mauvaise gestion du temps. Nous ne sommes pas des machines de guerre, efficaces tout le temps. Maîtriser le seuil des 45 minutes Le cerveau est capable de concentration seulement pendant un laps de temps donné, que l’on a coutume de fixer à 45 minutes. Ce temps de concentration peut cependant se travailler afin de l’allonger. Mais, quoi qu’il en soit, quand l’on décroche, la pause s’impose. Il est important de prendre conscience de cela et de repérer votre propre durée de concentration optimale. Ménagez vos plages de temps de travail en fonction. Exploitez-la pleinement. Savoir appréhender le décalage entre le moment où a surgi l’idée et celui où le projet est réalisé Une autre problématique liée à la gestion du temps vous compliquera la tâche. Il s’agit de savoir appréhender le décalage entre le moment T où a surgi votre idée et celui où le projet sera finalement réalisé. Entre les deux, c’est une inconnue. Même si d’emblée, avec votre idée vous sont venues à l’esprit les étapes du début à la fin pour y arriver. Même si tout de suite, vous vous êtes vu à la dernière étape du projet et que votre enthousiasme débordant n’avait d’égal que votre motivation pharaonique. Entre le moment T et la réalisation finie, terminée de votre projet, forcément, du temps se sera écoulé, votre état d’esprit ne sera plus le même, vous ayant poussé à redistribuer vos priorités. Vous pouvez avoir une priorité un jour, une autre le lendemain. Héraclite disait : « Rien n’est permanent, si ce n’est le changement ». Nous ne vivons ni dans le monde merveilleux de Cendrillon, ni dans celui très manichéen d’Harry Potter, aussi, aucun coup de baguette magique ne permettra de faire de l’instant T celui où votre projet est réalisé. Un grand projet nécessite du temps, des étapes, et par conséquent, la faculté à alimenter chaque jour sa motivation. Votre objectif à atteindre : Améliorer ses performances et son efficacité pour retrouver confiance en soi Nous avons identifié, compris et analysé les causes, effets et conséquences de la procrastination et nous avons exploré l’ensemble des éléments qui pouvaient vous freiner dans la première partie. Nous décrirons maintenant votre objectif à atteindre avant, dans un troisième temps d’aborder les moyens à mettre en œuvre pour parvenir à cet objectif. Si vous sous êtes reconnus dans les situations décrites précédemment, dans un souci d’efficacité et de développement personnel, pour votre bien et celui de tous, il est grand temps d’améliorer vos performances, de décupler votre efficacité. Tout cela dans le but de vous faire faire de grandes choses (ou de plus petites, cela dépend de votre ambition), vous réalisez enfin vous-mêmes, retrouver votre confiance en vous. Ne plus perdre de temps Les bonnes choses viennent à ceux qui savent attendre; les grandes choses viennent à ceux qui se lèvent et qui font tout pour y arriver. Il importe avant toutes choses, de ne plus perdre de temps. Quel que soit votre âge et le nombre d’années pendant lesquelles la procrastination vous a paralysé, vous avez assez perdu de temps pour ne pas mesurer sa valeur. Abaisser son seuil de certitudes La première des techniques à adopter pour renouer avec l’action sera d’abaisser votre seuil de certitudes. Aller de l’avant Pour aller de l’avant, il faut apprendre à baisser son seuil de conviction. Prendre une décision anodine (ou moins d’ailleurs) ne doit pas être une source de stress, d’hésitations profondes, de revirements et de création de tableaux avec les pours et les contres. Une erreur ne signifie pas la fin de tout, elle est une expérience supplémentaire. Arrêtez d’attendre d’être convaincu à 100% que la décision que vous prenez est la bonne. À l’image des GI, faites-vous confiance et lancez-vous. La leçon du GI Je ne résiste pas à l’envie de partager avec vous cette histoire, raconté par Jean-Yves Ponce sur son blog potion de vie (potiondevie.fr/blog/) et que j’appellerai « la leçon du GI ». Une émission sur les soldats d’élite de l’armée américaine peut aider à comprendre de grandes choses. Un journaliste interroge un sergent instructeur. Il lui demande pourquoi il fait aller tous ces soldats si vite. Ce à quoi il répond : « Ils ne doivent pas prendre trop de temps pour réfléchir. Ils doivent prendre l’habitude d’agir, de prendre des décisions, et de baisser leur seuil de certitude à 70% au lieu de 100%, sinon, ils se retrouvent paralysés sur le champ de bataille et ils se font tuer. Parfois, leur vie ne tient qu’à une décision prise en une seconde ». Qu’en serait-il pour nous si nous appliquions cette leçon à notre vie et ses défis, certes sûrement moins dangereuse et mouvementée, mais néanmoins aussi importante ? Pourquoi repousser l’action jusqu’à avoir atteint un seuil de conviction de 100% ? Et si prendre un peu plus de risques était la solution ? Si on forme des soldats d’élite à abaisser leur seuil de conviction de 100% à 70% pour leur sauver la vie, ce n’est peut-être pas si stupide que cela. Exploiter les temps morts Nous connaissons tous des journées où l’on est débordés, sans coupures et sans répits, sans avoir même le temps de souffler. Nous avons tous aussi des creux, des temps morts, comme dans tout travail, dans toutes activités. Ces moments de vide ne pourraient-ils pas devenir vos meilleurs alliés ? Transformez-les en temps productif, où vous pouvez avancer dans vos projets. Considérez que partout, tout le temps, une plage de temps inoccupée peut l’être par la réalisation de vos projets. Vous voulez lire l’intégralité de Maupassant ? Une nouvelle par trajet de bus, métro, tram... Vous rêvez de construire un rameur ? Profitez d’un creux entre deux réunions où vous ne pouvez pas vraiment commencer à vous lancer dans un nouveau dossier pour prendre de l’avance sur le vôtre, personnel : un moment passé à étudier les plans envoyés par un ami. En un mot, transformez vos « temps morts » en « temps de vie ». Gagner en bonne humeur et en productivité Vous rendrez ainsi le temps utile. Définissez ce que vous voulez faire pendant vos temps morts de la journée au préalable. Le matin ou la veille, chez vous, à tête reposée, pour partir tout de suite dans la bonne direction, fixez vous le cap de la journée. Analysez quels seront vos moments de creux dans la journée. S’ils ne sont pas prévisibles et qu’ils se présentent spontanément, cela n’affecte en rien votre objectif : utilisez ce temps à votre avantage et augmentez votre valeur en apprenant des choses qui vous font vibrer. Vous serez tellement plus heureux que toutes ces personnes qui passent leur temps morts à se plaindre ou à rêver au week-end prochain. Attention cependant à ne pas négliger votre travail quotidien. Ill s’agit ici de réaliser ses projets, en plus du travail pour lequel on reçoit une fiche de paye ! Optimisez vos temps morts n’implique pas de vous transformer en tire-au-flanc, désinvolte et « j’men foutiste ». Bien au contraire ! Vous trouverez vous-même très rapidement des méthodes pour optimiser votre travail et dégager davantage de temps morts à exploiter. Associer le travail au plaisir de vos avancées et non plus à une privation de votre liberté Cet exercice, quand vous l’aurez mis en pratique, vous permettra non seulement d’avancer dans vos projets personnels mais également d’associer le travail au plaisir de vos avancées et non plus à une privation de votre liberté. Même si certains jours, vous ne pouvez vous accorder que 5 minutes de temps morts. Cela vous aura suffi à comprendre la technique de tenon mortaise ou à développer vos connaissances sur la taille des rosiers. En planifiant quelques moments d’évasion à votre cerveau, vous serez plus efficace dans votre travail, et surtout, vous le maintiendrez en forme et le stimulerez avec des choses qui réellement vous intéressent. Oser et s’engager Une seule chose importe vraiment : oser, s’engager. En effet, mieux vaut risquer d’échouer que de réussir à ne rien faire. Mieux vaut risquer d’échouer... On ne peut faire part de ses idées à la foule sans risquer de les perdre, on ne peut raconter ses rêves sans avoir peur de le voir se volatiliser. On n’est jamais sûr de rien. Aimer quelqu’un c’est risquer de ne pas être aimer en retour, c’est risquer d’être blessé, tromper par l’autre. Essayer, c’est risquer d’échouer. Après tout, vivre, c’est risquer de mourir à chaque instant, jusqu’au dernier. ... Que de réussir à ne rien faire Mais mieux vaut risquer d’échouer que de réussir à ne rien faire. Il faut prendre des risques parce que, le plus grand danger, n’est-ce-pas finalement de n'en prendre aucun ? Les gens qui ne risquent rien ne font rien, n'ont rien, ne sont rien. Peut-être évite-t-on la souffrance et la peine, mais alors, comment apprendre, comment sentir, changer, grandir, vivre. On devient esclave de sa procrastination, un esclave enchaîné par ses attitudes, par son comportement. On a perdu sa liberté. Seul celui qui risque est libre. On ne peut pas toujours changer ce que l’on affronte, mais on ne peut jamais changer ce que l’on n’affronte pas. «L’homme, quoi que l’on dise, est le maître de son destin. De ce qu’on lui a donné, il peut toujours faire quelque chose»[2]. Ce que nous cherchons à vous dire ici, c’est qu’atteindre notre but vous redonnera votre liberté. Vaincre la procrastination vous redonnera l’occasion d’être à nouveau « le maître dans votre propre maison » pour reprendre Freud. Changer durablement Votre liberté acquise, protégez-la, prenez-en soin. Votre changement pour être satisfaisant doit s’inscrire dans le temps. Pour continuer à bâtir des projets Il vous faut changer durablement pour continuer à bâtir des projets, explorer vos envies, vous investir dans vos hobbies. Si vous ne rêvez plus, que vous n’avez aucune passion, que vos seules préoccupations sont celles de la vie quotidienne, que vous ne sortez plus et recevez encore moins, que vous voyez systématiquement le côté positif d’une chose en premier lieu, vous devez changer, et vite ! Impossible en effet que vous réalisiez quoi que ce soit dans cet état d’esprit. Une solution cependant existe. Passer de la dynamique de consommateur... Passez de la dynamique de consommateur à celle de producteur. Gagnez en maturité. Un ado qui passe son temps sur Internet, au même titre que quelqu’un qui ne sait pas quoi faire de sa vie entre dans le schéma « P-C ». Il est simple à comprendre, il signifie : « Producteur -> Consommateur ». Autour de lui, le monde produit, lui, consomme. C’est un acheteur compulsif de jeux vidéos, de vêtements, de tout. ...à celle de producteur Si vous vous reconnaissez dans cette situation et que vous souhaitez en sortir, inversez le schéma. Transformez-le en « C-P », c’est-à-dire « Consommateur -> Producteur ». Mettez-vous dans la position de celui qui « produira de la vie », laissez le soin au reste du monde de consommer. Posez-vous la question de ce que vous aimeriez produire, de ce que vous souhaiteriez faire de vos mains, votre cerveau, vos compétences. Qu’est-ce-qui serait pour vous un moteur, qu’est-ce-que vous voudriez créer et qui vous donnerait envie de vous lever le matin ? Si vous mobilisez votre attention et votre énergie à répondre à cette question, une dynamique s’enclenchera et vous n’aurez plus jamais à vous souciez de la procrastination car vous aurez alors trouver le meilleur moyen de la combattre : vouloir réaliser quelque chose qui vous dépasse. S’émerveiller toujours et apprendre encore Le secret de ce schéma se trouve dans l’état d’esprit qu’il suscite. Ill vous incite à s’émerveiller toujours et apprendre encore. Pas de progrès sans pratique Vous n’avez pas besoin d’un talent extraordinaire de génie ou de chance pour développer des facultés dans un domaine qui vous intéresse. On peut réussi sans être un être exceptionnel. Il faut seulement bien garder en tête qu’il n’y a pas de progrès sans pratique, pas d’évolution sans du temps et de l’attention. Comme le dit si bien le proverbe : « C’est en forgeant que l’on devient forgeron ». À vous de l’être ! Comparons deux personnes sur la durée. L’une est extrêmement douée à l’école mais est un procrastinateur au plus haut degré. L’autre se débrouille tant bien que mal sur les bancs de l’école mais ne renonce pas, a de la suite dans les idées, s’entraîne, apprend. Il vaudrait mieux parier sur la seconde personne car c’est elle qui s’améliorera de jour en jour lorsque l’autre se délitera de jour en jour. C’est elle qui élèvera ses activités au rang d’art lorsque l’autre se complaira dans la passivité. Pas de vie sans passions S’il n’y a pas de progrès sans pratique, il n’y a pas non plus de vie sans passion. À vous d’entretenir la flamme ! Ne laissez pas le quotidien influer sur vos projets. De même qu’il est très facile de prendre une pente descendante, il est très facile de prendre une pente ascendante. Je me permets pour illustrer ce propos de reprendre les exemples énoncés sur le blog http://www.potiondevie.fr/blog/ Arrêtez de courir pendant quelques mois et vous verrez votre souffrance le jour où vous reprendrez. Arrêter de vous muscler et regardez les fondre en même temps que persiste votre inactivité. Arrêtez d’utiliser votre mémoire et regardez vos souvenirs s’envoler (...) Pratiquez n’importe quelle activité une fois par jour pendant un an, forcément, à la fin de l’année, vous aurez grandement progressé. Même si vous partiez d’un niveau très peu élevé. Lisez 30 minutes par jour sur votre domaine de prédilection et vous finirez par en savoir plus que la plupart des gens. Mémorisez une date, un fait, une définition, une citation par jour, et vous finirez par mémoriser vos cours ou vos présentations sans fournir un effort particulier. (...) Prenez une photo par jour, vous serez un meilleur photographe. (...) Ecrivez vos idées une fois par jour sur un bout de papier, vous développerez votre créativité. Remerciez une personne par jour, vous serez plus optimiste. » En un mot, ne laissez pas vos rêves dans un coin de votre tête, faites-les vivre. Il n’est pas question de talent ou de chance ici, seulement de petits riens, qui assemblés les uns aux autres vous redonneront prise sur la réalité, transformeront vos aspirations en actions. Déterminez ce que vous voulez faire, apprendre, vivre. Consacrez-y 30 minutes par jour. Ne vous posez pas de questions. Déplacez ce créneau si vous le souhaitez ou parce que la journée ne s’est finalement pas organisée comme vous le pensiez, mais ne le supprimez jamais. Dans un jour, un mois, un an, vous serez meilleurs dans le domaine que vous avez choisi de privilégier. Cela commence maintenant, là, tout de suite. Les moyens à mettre en œuvre pour lutter contre votre ennemi Axer son développement personnel sur un travail de sa motivation et de sa concentration Les moyens à mettre en œuvre pour lutter contre la procrastination ne sont pas irréalisables ou très difficiles à comprendre et réaliser. Ils sont simples, efficaces et à votre portée. Reprendre la main Reprenez la main sur votre vie. Pour commencer, il vous faut vaincre vos peurs en renouant avec une chose élémentaire : le choix. Vaincre ses peurs par le choix Le mécanisme du dialogue interne Reprenez votre « to do list », envisagez les situations où vous avez une chose à faire et dont vous savez pertinemment que vous allez la repousser. Par exemple, aujourd’hui, je dois aller faire des courses, repasser du linge, et il faut aussi que je finisse le rapport sur le lancement du dernier produit de mon entreprise. Stop ! Arrêtez avec les « il faut » et « je dois ». Remplacez-les par « je choisis de le faire, ou de na pas le faire ». Aujourd’hui, je choisi de faire mes courses pour les trois prochains jours, je choisi de ne pas finir mon repassage et j’en assume les conséquences. Je sais que je m’y mettrai demain. Je vais finir le rapport sur le lancement du dernier produit de mon entreprise parce que j’en ai envie et que j’éprouverai de la satisfaction en écrivant le point final. L’activité l’emporte sur la passivité Cela change tout car vous assumez les conséquences, vous devenez actif et non passif, vous ne subissez plus. L’activité l’emporte sur la passivité. Vous reprenez le contrôle. Vous gagnez en confiance et en honnêteté avec vous- même. La métacognition Prenez conscience que vous avez toujours le choix. Sartre l’exprimait par ses paroles : « L'homme qui se croit déterminé se masque sa responsabilité. » J’irai plus loin en ajoutant : l’homme qui se croit déterminé ou contraint se masque sa responsabilité. L’homme a toujours le choix. Et comme le dit si bien Sartre « le choix, c’est la liberté ». Cette liberté que vous retrouverez en choisissant de faire ou de ne pas faire diminuera à la fois votre tendance à procrastiner et le sentiment de culpabilité que vous éprouvez lorsque vous avez choisi de faire une autre activité, car cette fois, ce sera en pleine connaissance de cause et en ayant anticipé et accepté les conséquences. Cela s’appelle la métacognition. Mais restez flexible et ne vous enfermez pas vous-même dans un carcan. L’idée n’est pas de faire une planification rigoureuse mais de se motiver par le plaisir et non par la peur. La métacognition sera votre alliée. Ce mot qui, au premier abord semble très compliqué, désigne la connaissance personnelle d’un individu sur ses capacités et ses fonctionnements cognitifs, c’est-à-dire, tout simplement, qu’il s’agit de votre capacité à vous observer vous-même dans l’action et la réflexion. En quoi la métacognition vous serait d’une grande aide ? De prime abord, en effet, le lien n’est pas forcément évident. Mais, maintenant que vous avez pris conscience de votre procrastination, que vous avez analysé les situations dans lesquelles elle se manifestait et comment, maintenant que vous savez les repérer, vous allez pouvoir vous observer vous-même faisant face à un choix. Prenez du recul. Observez-vous dans l’action, vous êtes à la fois le spectateur, le réalisateur et l’acteur de votre propre vie. Avant de faire appel à la métacognition, vous n’étiez que l’acteur. Et un mauvais puisque sans aucun recul. Ne consacrez plus votre énergie sur la gestion des tâches, mais sur le contrôle de vous-même. La procrastination n’est rien d’autre qu’une série de pulsions qui privilégient le plaisir immédiat et vous pousse à une fuite en avant continuelle. Et maintenant, vous savez que vous avez le choix, toujours. Exercez votre libre-arbitre, donnez-vous l’opportunité de choisir. Se ménager de vraies plages de travail ou le principe de la concentration 3X30 Engagez-vous avec vous-même, mais de façon réaliste. La seule personne à qui vous devez des comptes, c’est vous-même. C’est vous qui avez choisi. Et vous êtes du genre à tenir vos promesses. On peut compter sur vous. Vous êtes fiable (ou vous avez l’intention de le devenir). Mais ne prenez pas pour autant des engagements irréalistes ! Il ne sert à rien de trop vouloir en faire d’un coup. Prenez déjà l’engagement de reprogrammer systématiquement tous les « je dois faire ça », « je devrais faire ceci », « il faut absolument que je ... » etc. par « Je choisis de... » pour la journée d’aujourd’hui. Et, lorsque vous avez établi ce que vous allez faire, faites-le en respectant ces quelques conseils qui vous aideront à arriver à bout de votre objectif. Essayez la concentration 3X30. Couper toutes les sources d’interruptions possibles Commencez par couper toutes les sources d’interruptions possibles : le téléphone, les alertes de votre smartphone, déconnectez-vous de votre boîte mail. Non seulement, rien ne viendra vous divertir au milieu de votre tâche, mais en plus, vous serez plus concentré. Vous fournirez un travail de meilleure qualité. Déterminer votre travail en vous donnant 3 secondes pour vous lancer Lorsque vous avez déterminé le travail à accomplir et que vous allez vous lancer à l’assaut de votre tâche, donnez-vous trois secondes pour vous lancer (3X30). Ni plus, ni moins. Cela vous permet de vous concentrer, de visualiser la tâche que vous allez accomplir dans sa globalité, si vous le souhaitez, pensez à la satisfaction que vous aurez à avoir accompli ce travail. Travailler 30 minutes sans vous arrêter. Enfin, travaillez 30 minutes sans vous arrêter (3X30). Vous aurez déjà eu le temps d’avancer dans votre projet. Bien plus que vous ne l’auriez soupçonné. Faites une pause et recommencez. Vous verrez votre travail se faire à une vitesse inespérée. Vous ne pourrez bientôt plus travailler sans vous conformez à cette technique. Renouer avec la motivation Reprendre la main et le contrôle de votre emploi du temps et de vos activités vous aidera à renouer avec la motivation, clé du succès et des grands projets. La motivation ne s’attend pas, elle se provoque D’abord, sachez que la motivation ne s’attend pas, elle se provoque. Pour la faire venir, appliquez ces trois astuces. Identifier les moments clés Identifiez les moments clés, ceux qui seront plus favorables pour vous lancer dans vos projets. Définissez les heures, les moments de la journée où vous vous sentez le plus productif, le plus créatif, le plus en alerte. Ces moments sont ceux pendant lesquels la motivation viendra naturellement, sans trop d’efforts de votre part. Certains sont du matin, d’autres travaillent mieux le soir, voire ... la nuit. Si on ne peut pas toujours faire correspondre ses phases d’énergie avec les contraintes horaires qui vous sont parfois imposées, ce n’est pas très grave. Essayez seulement d’exploiter vos moments clés au maximum. Si la motivation va et vient comme les marées montent et descendent une grosse différence demeure cependant : les marées ont des horaires bien précis et connus à l’avance ; en revanche, pour ce qui est de la motivation, tout est plutôt incertain. On ne sait jamais quand elle va daigner pointer le bout de son nez. C’est pourquoi il est totalement improductif de l’attendre. Adopter la bonne attitude physique Après avoir défini vos moments clés, il est temps pour vous d’adopter la tenue physique, le comportement qu’exige la situation. Si vous êtes avachi, replié sur vous même, déjà fatigué rien qu’en pensant au travail qui vous attend, il y a de grandes chances pour que vous restiez dans cet état une bonne partie de la journée. En revanche, si vous vous redressez, mettez vos épaules droites, bien repoussées vers l’arrière et que vous relevez votre tête dans une attitude fière et conquérante, votre état intérieur change. Vous devenez motivé, déterminé. La stature du corps, l’attitude physique a un réel impact sur votre mental. Elle est capable de changer notre état d’esprit. C’est elle qui provoque la façon dont on se sent, et non l’inverse. Il en va de même avec la motivation : c’est l’action qui la produit, la déclenche. L’inaction engendre la passivité et l’attente, l’action engendre la motivation et la détermination. Se lancer, oser Lancez-vous ! Osez ! Il suffit souvent de se mettre à la tâche pour initier le mouvement, le provoquer. Ecrivez la première phrase de votre mail, ouvrez la première page du rapport que vous devez synthétisez, trier la première feuille du dossier que l’on vous a confié, composez le premier numéro de téléphone de la liste de vos fournisseurs à rappeler, posez la première brique de votre maison... Le reste suivra ! Le mouvement crée la dynamique, insuffle de l’énergie, provoque la créativité et nourrit la motivation. Pensez à une brouette remplie de sable. Elle est lourde. Vous la prenez en main, la soulevez, cela demande un effort. Vous poussez, c’est lourd. Mais une fois lancée, la brouette roule presque toute seule. Il en va de même pour toutes vos activités. La motivation, ça s’entretient et ça se travaille La motivation se suscite, se provoque, mais ensuite, elle s’entretient, se travaille. Si votre activité implique un certain nombre de tâches récurrentes et que vous avez du mal à exécuter, transformez-les en une routine, un rituel. Créer sa routine Créez votre propre routine adaptée à votre activité. Définissez un objectif quotidien : cela peut être la rédaction, chaque jour d’un article, vous pouvez planifiez de contacter chaque jour 5 clients potentiels, ou encore de passer 20 minutes quotidiennes pour vos tâches administratives... Lorsque vous avez défini votre objectif quotidien, choisissez un lieu et un horaire précis que vous allez respecter qui qu’il arrive. En aucun cas, vous ne devez vous autoriser à faire autre chose à ce moment là, sauf cas de force majeur. Comme vous l’avons vu précédemment, vous le constaterez rapidement, le plus difficile, c’est de se lancer. Par conséquent, placez toute votre attention sur le tout début de votre tâche. Effectuez une toute petite action pour engendrer une dynamique et créer la motivation qui vous poussera à finir ce que vous avez commencé et à vous conformer à votre objectif quotidien. Le fait de répéter l’exercice, chaque jour, à la même heure, et dans les mêmes conditions, vous permet de créer une habitude qui vous facilitera la tâche. Plus vous vous en tiendrez à cette routine, plus cela deviendra facile d’agir. Evaluer sa progression Pour maintenir votre motivation au plus haut niveau, pensez également à prendre du recul sur votre travail pour évaluer votre progression. Fixez- vous des objectifs dont la difficulté ira en s’accroissant. Augmentez la durée et/ou l’intensité de votre activité au fur et à mesure. Vous battrez des records régulièrement, quoi de plus motivant ? L’idée n’est pas de vous dépassez tout de suite mais de progresser à chaque fois, même si ces progrès sont minimes. C’est bien moins difficile et bien plus valorisant et motivant. Cette façon de faire ajoute une notion de défi à votre travail. Si vous êtes joueur, vous aimerez le relever. Et même les moins portés sur la compétition y prendront goût car il ne s’agit nullement d’écraser un ennemi mais de se challenger soi-même. Et vous n’aurez pas envie de vous décevoir. Chaque séance de travail devient le maillon d’une chaîne que, au fur et à mesure de votre progrès et votre assiduité, n’aurez plus du tout envie de briser. Vous vous astreindrez à vos séances de travail avec une rigueur fondée sur la motivation. Vous pouvez aussi appliquer cette méthode pour vous rendre à la salle de sport et ne pas décrocher, vous contraindre à la pratique d’un instrument de musique, à l’écriture d’un livre et à bien d’autres choses auxquelles vous pensez. S’enthousiasmer pour un projet dans la durée Il est en effet primordial pour progresser de s’enthousiasmer pour un projet dans la durée. Et si la plupart des gens échouent, c’est qu’ils n’ont pas construit, comme vous allez le faire, cette chaîne de séances de travail fondée sur la progression. Pour pouvoir la bâtir sereinement et avec efficacité, ne vous focalisez pas sur le résultat que vous voulez obtenir, mais seulement sur le travail à accomplir pour y arriver, c’est-à-dire sur l’évolution croissante de vos objectifs quotidiens. Quand vous débutez une nouvelle activité, vos yeux sont focalisés sur l’objectif, même si celui-ci est bien souvent assez éloigné. Mais votre motivation débordante ne s’abaisse pas à la considération de tels détails et vous partez comme une fusée. Grave erreur. Une nouvelle activité nécessite au début du temps et implique forcément une certaine difficulté. Vous faites donc de gros efforts sans en voir rapidement les retombés. Vous êtes confrontés à une barrière que vous arriverez à franchir à force de motivation car vous vous rendez compte de la difficulté, de l’investissement en temps que cela vous a coûté, pour finalement très peu avancer. À ce moment là, lorsque vous êtes passé de l’autre côté de cette barrière, c’en est trop, la motivation vous quitte. Vous constatez avec amertume que vous êtes encore bien loin d’arriver. Pour les 1% qui persistent, ils continuent d’avancer peu, mais la difficulté et le temps nécessaire pour avancer vers leurs objectifs deviennent moins importants. Comment faire partie des 1% restants ? Changez la nature de vos objectifs et oubliez la citation : « Visez la lune, vous atterrirez dans les étoiles ». Vous pouvez viser la lune autant que vous voulez, si vous n’avez rien pour vous propulser, vous resterez sur terre. Prenons un exemple concret. Si demain je me met au Kayak, en espérant devenir champion du monde ( ?!), je risque d’avoir une cruelle désillusion. En revanche, si mon premier objectif est : « tenir la pagaie correctement » puis ensuite « finir un parcours sans me renverser » puis, « finir le même parcours en 30 secondes de moins » etc, la médaille d’or sera encore loin mais j’aurai progressé sans perdre en route ma motivation. «Il ne faut pas penser à l’objectif à atteindre, il faut seulement penser à avancer. C’est ainsi, à force d’avancer, qu’on atteint ou qu’on dépasse ses objectifs sans même s’en apercevoir» [3] . Repensez à vos objectifs éloignés, que ce soit mémoriser tous mes cours ou créer mon entreprise et déterminez le bon point de départ de votre projet. Quelle est la première étape à réaliser ? Réalisez-la. Et ensuite, seulement une fois qu’elle est achevée, réfléchissez à la seconde étape. Procédez comme pour la première et passez à la troisième. Enfin, n’oubliez surtout pas, pour ménager votre concentration et ne pas vous épuisez à la tâche, de prendre quelques moments de détente. Utiliser ses loisirs pour mieux travailler Utilisez vos loisirs pour mieux travailler. Cela vous semble paradoxal ? Pas du tout ! Un vrai moment de plaisir peut être un moyen d’aboutir dans vos projets ? Faites attention cependant à ne pas considérer un vrai moment de plaisir comme n’importe quelle distraction anodine. Il y a en effet des moments qui ont l’aspect du plaisir, la couleur du plaisir, mais qui n’en sont pas. Nous les appellerons donc les « faux moments de plaisir ». Parmi eux, on pourra citer en exemple : regarder un épisode de Breaking Bad pour échapper au boulot (surtout, que vous ne pourrez vous empêcher de regarder le suivant, puis encore celui d’après, ...), traîner sur Facebook pour rien, comme ça, juste pour voir la tête du cousin du copain de votre frère, alors que vous avez un mail important à envoyer. Enfin, et c’est sûrement l’un des « faux moments de plaisir » les plus pervers : constater avec ravissement qu’un autre que vous s’est chargé de faire le boulot que vous étiez censé faire vous-même ! Maintenant que vous voyez ce que sont les « faux moments de plaisir », utilisez les vrais quand votre concentration décroche, comme un petit remontant pour vous remettre au travail et vous redonner la motivation nécessaire pour réaliser tous ces projets personnels qui vous tiennent particulièrement à cœur. Le bien-fondé des loisirs de qualité Comment expliquer le bien-fondé des loisirs de qualité ? Ces loisirs sont de véritables moments de répit et de déconnection pour votre cerveau. Ils reposent, évitent le burn-out Ils reposent votre organisme. Vous soufflez, décompressez. On ne peut travailler toujours sans relâcher jamais la pression. Ou plutôt si, mais seulement pendant quelque temps. Ensuite, plane la menace du burn-out, l’épuisement, le stress qui se manifesteront très rapidement sur la qualité de votre travail. Pour bien travailler, vous devez aussi vous reposer. Ils aèrent l’esprit, donnent de nouvelles idées De plus, des loisirs de qualité aèrent l’esprit, vous permettent de voir autre chose, de faire appel à des sens que vous n’utilisez pas dans votre travail. Par exemple, si vous choisissez d’être aux fourneaux pour vous reposer, vous travaillerez avec vos mains (et autrement qu’en tapant sur un clavier), le goût, la vue, l’odorat seront aussi très sollicités. Un moment consacré à un vrai loisir peut être l’occasion de vous donner de nouvelles idées, d’envisager d’une manière différente votre travail, ou même vous apporter la solution à un problème sur lequel vous restiez bloqué et auquel vous ne pensiez plus. Une promenade en forêt peut vous amener à trouver la solution à un problème de pagination. Ils rendent plus heureux et augmentent l’énergie disponible Enfin, des loisirs de qualité rendent plus heureux et augmentent votre énergie. Allez faire un jogging (si vous aimez), prenez une douche et installez-vous à votre bureau. Vous n’en serez que plus efficace et déterminé. Le profitable équilibre entre travail et loisir Il ne s’agit pas bien sûr d’occuper tout son emploi du temps à des activités saines et sympathiques mais de bâtir un équilibre entre travail et loisir qui vous sera réellement profitable. Pensez au travail et aux loisirs comme deux forces qui doivent s’équilibrer. Pour cela, fixez-vous une petite routine qui, vous verrez, vous fera incroyablement gagner en productivité. Lister 3 petits plaisirs de son quotidien Listez trois petits plaisirs de votre quotidien trois activités que vous aimez particulièrement faire. Cela peut être la lecture d’un livre, un jeu vidéo, une série à regarder, ... Instaurer des séances de travail courtes, de 30 à 45 minutes, sans interruptions Instaurez des séances de travail courtes, de 30 à 45 minutes, sans interruptions. Comme nous l’avons vu précédemment, ce laps de temps est particulièrement favorable à une concentration profonde. Se récompenser avec une activité plaisir Récompensez-vous ensuite avec une activité plaisir que vous avez préalablement listée. Ensuite, lorsque vous êtes prêt, recommencez les étapes 2 et 3. Evidemment, « lorsque vous êtes prêt » ne signifie pas que vous avez passé 2 heures à vous amuser. La nécessité d’encadrer ses pauses de la journée Il est temps d’aborder ce sujet pour que vos efforts ne soient réduits à néant avec ces « pauses de 5 minutes » qui se transforment en... 50 minutes ou 5 heures ! Ne vous vous laissez pas distraire même si les tentations auxquelles vous pourriez succombées sont très élaborées. En dépit de tentations très élaborées Internet et vos applis, qu’elles soient carrément futiles ou terriblement intéressantes (ce qui est d’ailleurs encore pire) sont vos ennemis. Si vous n’avez pas une idée bien précise de ce que vous cherchez ou voulez voir, lire, écouter, passez votre chemin ou vous ne pourrez plus vous en dépêtrer. En effet, le but de ces plateformes est de capter l’auditoire et de faire en sorte qu’il y passe le plus de temps possible. Pour cela, bien des techniques existent. Si cela vous intéresse, reportez-vous à la littérature sur le sujet et notamment, Lean Startup, adoptez l’innovation continue, Eric Ries, éditions PEARSONS, collection Village Mondial, ou encore Hooked, How to Build Habit-Forming Products, Nir Eyal, Roc Penguin USA. Ne pas se laisser accaparer Comment faire pour ne pas céder à la tentation ? Heureusement, là aussi des techniques existent. Pensez à la perte de temps qui va s’en suivre. Est-ce- que cela vaut le coup ? Ais-je vraiment envie de travailler plus tard, plus longtemps ? La tâche qui vous attend, si elle doit être faite, réellement, vous ne ferez que la reporter. Fixez-vous une chose à faire qui ne nécessitera pas plus de 5 minutes : envoyez un SMS à un ami pour organiser une sortie, lisez un article sur un sujet qui vous intéresse particulièrement. Si vous voulez creuser, consacrez- y 5 minutes lors de votre prochaine pause, lorsque vous aurez traité la partie du travail que vous souhaitez avoir fait à telle ou telle heure. En tous les cas, limitez le nombre d’onglets ouverts. Ils sont l’illustration de votre pensée qui s’éparpille. Faites une vraie pause, une de celles qui durent réellement 5 minutes (ou 10, pas plus). Regardez le ciel ou fermez les yeux, concentrez-vous sur votre respiration. Gardez absolument une certaine lucidité à l’esprit afin de ne pas prolonger indéfiniment votre pause. Conclusion Vous savez maintenant ce qu’est réellement la procrastination et comment en venir à bout. Vous avez désormais entre les mains de nombreuses techniques pour reprendre le contrôle de votre emploi du temps et de vos activités afin d’améliorer au quotidien vos performances et votre efficacité. Si cet ouvrage vous a lancé sur une dynamique que vous ne voudriez surtout pas voir s’essouffler et, que vous souhaitez de ce fait approfondir le sujet, inscrivez-vous à une formation SYNAPSE. C’est une formation complète de 82 jours dans laquelle vous apprendrez à vous débarrasser définitivement de la procrastination, du travail à la dernière minute et de l’excès de perfectionnisme qui vous empêche de vous mettre au travail. La formation SYNAPSE s’enrichit constamment de modules bonus et de mini-formations : Mind mapping, art de la mémoire, techniques spéciales d’efficacité. Toutes ont pour but de vous aider à vous mettre enfin au travail et à faire de vous une machine à réussir. Les sessions sont limitées à un petit nombre de personnes afin d’effectuer un suivi de qualité et de passer du temps avec chaque personne. Inscrivez-vous et renouez avec la motivation, clé du succès de vos projets qu’ils soient d’ordre professionnel ou personnel. Ayez à nouveau confiance en vous et en vos capacités à réaliser toutes ces grandes choses dont vous rêvez mais que vous n’avez pas encore transformées en réalité ! «Quoi que tu penses ou que tu crois pouvoir faire, fais-le. L’action porte en elle la magie, la grâce et le pouvoir» [4] . Du même auteur : Envie d’avoir une mémoire au top ? C’est possible, même si vous pensez en avoir une mauvaise ! Découvrez : www.potiondevie.fr/pdv/njcb Découvrez les secrets des comportements humains avec la méthode d’analyse RGMP : www.potiondevie.fr/pdv/rgmp [1] Winston Churchill, homme politique britannique et Premier ministre du Royaume-Uni de 1951 à 1955. [2] Jean Grenier, philosophe et écrivain français mort en 1971. [3] Bernard Werber, écrivain français contemporain. [4] Johann Wolfgang von Goethe, poète, romancier, dramaturge, scientifique et homme d’état allemand né en 1749 et mort en 1832. ... Contents |
An Exploration Of Calculating The Packet Loss Rate
State Key Laboratory of Networking and Switching Technology Beijing University of Posts and Telecommunications
Corresponding author
method for link packet loss rate .An intermediate quantity is
deduced from the block rate, Through this intermediate quantity
to further solve the packet loss rate.
Keywords—network; links; WDM; packet loss rate
At the same time, network traffic has increased
network performance becomes more and more important.
probability of such instability, which is called the packet loss rate.
Packet Loss Rate refers to the ratio of the number of packets lost
required that we can successfully estimate the packet loss rate by
packet loss rate of the entire network.
the blocking rate may be compared with the measurement of the
loss rate, so this paper tries to propose a new method to estimate
multicast address and the receiver only needs to tell the network
transmission information of multicast network can be considered
the packet loss rate is considered as unicast model in this paper.
B. Considering the Situation of link Network
In the process of measuring the packet loss rate, The basis is
to consider the current link network situation.
The link network
follows, Any two nodes are connected by a link that determines
converter that can be applied between partial wavelengths is set
analyzing the converter with wavelength conversion, Therefore,
this paper adopts the method of analyzing the condition without
The probability of k paths where the wavelength is a certain
value (λ) and between two certain nodes (i, j) all being blocked
Calculate the value of the auxiliary variables use the method
which is in the link without wavelength converter, solve the
block rate by two methods.
block rate is.
The probability that use the determined wavelength
is the probability of k paths where the wavelength is a
H+1 represents the number of nodes that need to pass
So the probability that a single wavelength cannot be
transmitted successfully is called the blocking rate can be
So the probability that all wavelengths cannot be transmitted
successfully is called the blocking rate can be solved .Results are
w represents the number of wavelength categories contained
Let's solve the block rate the other way, We break up the
whole link network into countless point-to-point connections.
In this way, we first need to consider: network load on certain
represent all links in the total arrival rate.
number of links between two nodes.
using some certain wavelength, he probability of successful
probability that the optical path is successfully established when
also is the probability of blocking is:
So we can then figure out what the block rate is:
OLVE THE PACKET LOSS RATE IN LINKS WITHOUT
WAVELENGTH CONVERTER
transmission efficiency of the link.
packet loss rate of each wavelength was recorded
In a network without wavelength converters, Information is
transmitted at a certain wavelength.
wavelength selection algorithm.
at the same time, we are forced to use links with higher packet
loss rates, as the higher ranked wavelengths may have been
content of this algorithm is to select the wavelength with the
lowest packet loss rate from the current available wavelength to
In this algorithm, we first analyze the probability of each
transmission channels of other wavelengths prior to the ߣ
wavelength between the two nodes are occupied is:
The probability that the transmission channel which precedes
the other wavelength of wave length ߣ
Therefore, we can obtain the probability that the
transmission channel of all the nodes is occupied before the
wavelength of ߣ
Therefore, the packet loss rate is:
OLVE THE PACKET LOSS RATE WITH WAVELENGTH
CONVERTER LINK
When we analyze the packet loss rate, we can convert the
calculation of the packet loss rate in the whole transmission
process into partial packet loss rate.
wavelength converter in between so that each small segment can
be processed into a simple part without wavelength converter.
So the number of nodes that have each segment going through is
can obtain the packet loss rate of the whole link.
probability that the wavelength occupied before
Therefore, the packet loss rate of each small segment is:
The packet loss rate can be obtained as follows:
The calculated results obtained by the algorithm in this paper
transmission capacity of complex network,9787512124745.
Lun ,Introduction to network | An Exploration Of Calculating The Packet Loss Rate
By Using The Block Rate
Fan Bu
*
School of Software Engineering
State Key Laboratory of Networking and Switching Technology Beijing University of Posts and Telecommunications
*
Corresponding author
Abstract—This electronic document is about New estimation
method for link packet loss rate .An intermediate quantity is
deduced from the block rate, Through this intermediate quantity
to further solve the packet loss rate.
Keywords—network; links; WDM; packet loss rate
I. INTRODUCTION
In recent years, with the increasing expansion of computer
network scale, the unstable factors in the network are increasing
under the influence of equipment diversity and network
complexity. At the same time, network traffic has increased
sharply, and various new businesses, such as video conference,
video on demand, P2P, etc., are also devouring network
resources at an extremely fast speed. The measurement of
network performance becomes more and more important.
ሾଵሿ
Therefore, it is necessary to estimate the probability of
information transmission instability before infrastructure
construction.
Therefore, we introduce a new variable to reflect the
probability of such instability, which is called the packet loss rate.
Packet Loss Rate refers to the ratio of the number of packets lost
in the test to the data group sent. The calculation method is:
[(incoming message - output message)/ incoming
message]*100%.
ሾଶሿ
However, in practical applications, such estimation usually
takes place before the construction of the entire network, so it is
required that we can successfully estimate the packet loss rate by
relying on some parameters in the network. In the usual
calculation, direct logical calculation is used to estimate the
packet loss rate of the entire network.
In some cases in our usual application, the measurement of
the blocking rate may be compared with the measurement of the
loss rate, so this paper tries to propose a new method to estimate
the loss rate using the reverse blocking rate.
II. M
ODEL ANALYSIS
A. Selecting a Template
A key feature of the multicast communication model is the
multicast group that provides indirect identification. Neither
sender nor receiver needs to know the other party's specific
conditions. The sender only needs to send the packet to a
multicast address and the receiver only needs to tell the network
that it wants to receive the packet that sent it. Therefore, the
transmission information of multicast network can be considered
as the transmission of two unicast model segments. Therefore,
the packet loss rate is considered as unicast model in this paper.
B. Considering the Situation of link Network
In the process of measuring the packet loss rate, The basis is
to consider the current link network situation. The link network
model analyzed in this paper is WDM model. We abstract it as
follows, Any two nodes are connected by a link that determines
the number of bars (k bars). Each of these links has a certain
number of (w kinds) wavelengths to transmit, A wavelength
converter that can be applied between partial wavelengths is set
up at some of the nodes. Because of the difficulty of directly
analyzing the converter with wavelength conversion, Therefore,
this paper adopts the method of analyzing the condition without
wavelength converter first.
C. Reference Auxiliary Variables
The probability of k paths where the wavelength is a certain
value (λ) and between two certain nodes (i, j) all being blocked
(This variable are recorded as C
୩
).
III. S
OLVE THE UXILIARY VARIABLES BY THE BLOCK
RATE
Calculate the value of the auxiliary variables use the method
which is in the link without wavelength converter, solve the
block rate by two methods.
A. Solution Method 1
So, first of all, we're going to use C
୩
to figure out what the
block rate is. The probability that use the determined wavelength
passes smoothly between all nodes can be solved. Results are as
follows.
ܲ
λ
ൌሺ1െܥ
ሻ
ு
(1)
is the probability of k paths where the wavelength is a
certain value (λ) and between two certain nodes(i ,j) all being
blocked. H+1 represents the number of nodes that need to pass
through for transmission.
So the probability that a single wavelength cannot be
transmitted successfully is called the blocking rate can be
solved .Results are as follows:
ܥ
ൌ1െܲ
λ
ൌ1െሺ1െܥ
ሻ
ு
(2)
3rd International Conference on Communications, Information Management and Network Security (CIMNS 2018)
Copyright © 2018, the Authors. Published by Atlantis Press.
This is an open access article under the CC BY-NC license (http://creativecommons.org/licenses/by-nc/4.0/).
Advances in Computer Science Research, volume 65
147
So the probability that all wavelengths cannot be transmitted
successfully is called the blocking rate can be solved .Results are
as follows:
ܥ
ଵ
ൌሺ1ܲ —
λ
ሻ
௪
ൌሺ1െሺ1െܥ
ሻ
ு
ሻ
௪
(3)
w represents the number of wavelength categories contained
in each link
B. Solution Method 2
Let's solve the block rate the other way, We break up the
whole link network into countless point-to-point connections.
In this way, we first need to consider: network load on certain
connection ( denote asL
୧୨
) :
ܮ
ൌ
∑
ோ
ೞೞ,సబ
(4)
{} is represented call arrival rate per unit time from
node s to node d, When s is equal to d ܴ
௦ௗ
ൌ0,therefore
∑
ܴ
௦ௗ௦,ௗୀ
represent all links in the total arrival rate. k is the
number of links between two nodes.
We can derive from these inferences that in the case of just
using some certain wavelength, he probability of successful
response to the call isܮ
పఫ
തതതത
. In turn, we can obtain that the
probability that the optical path is successfully established when
a signal is applied to transmit from i to j is:
f
ሺ
i,j
ሻ
ൌ1െሺ1െ
∑
ܮ
పఫ
തതതത
௪
,ୀଵ
ሻ
(5)
Then the light path cannot be successfully established, that
also is the probability of blocking is:
ܥ
ൌ1െ݂
ሺ
݆,݅
ሻ
(6)
So we can then figure out what the block rate is:
ܥ
ଵ
ൌ
∑
ோ
ೞ
ೕ
ೞ
,సభ
∑
ோ
ೞೞ,సబ
(7)
C. Simultaneous Exploration
Simultaneous equation:
∑
ோ
ೞ
ೕ
ೞ
,సభ
∑
ோ
ೞೞ,సబ
ܥൌ
ଵ
ൌሺ1— ܲ
ఒ
ሻ
௪
ൌሺ1െሺ1െܥ
ሻ
ு
ሻ
௪
(8)
Therefore, we can calculate the expression of:
ܥ
ൌ1െ
ඨ
ሺ1െ ට
∑
ோ
ೞ
ೕ
ೞ
,సభ
∑
ோ
ೞೞ,సబ
ೢ
ሻ
ಹ
(9)
IV. S
OLVE THE PACKET LOSS RATE IN LINKS WITHOUT
WAVELENGTH CONVERTER
After Before starting, we should first test the specific
transmission efficiency of the link. The performance of multiple
optical fibers is measured and averaged to obtain data. The
packet loss rate of each wavelength was recorded
asܲሼ
ଵ
ܲ,
ଶ
ܲ,
ଷ
ܲ
ସ
ܲ,
ହ
.......ܲ
௪
ሽ. To correspond
{ߣ
ଵ
ߣ,
ଶ
ߣ,
ଷ
ߣ
ସ
,........ߣ
௪
} these several wave length. And to
make it easier to write, we're going to rearrange the probabilities
of these packets in order from small to large. Get a new set of
data {ܲ
ଵ
ܲ,
ଶ
ܲ,
ଷ
ܲ
ସ
ܲ,
ହ
.......ܲ
௪
}.and{ߣ
ଵ
ߣ,
ଶ
ߣ,
ଷ
ߣ
ସ
,........ߣ
௪
} .
A. Allocation Algorithm Analysis
In a network without wavelength converters, Information is
transmitted at a certain wavelength. on this occasion, It is
necessary that we first define the most reasonable method of
wavelength assignment. We analyze the implementation of the
wavelength selection algorithm. First, the packet loss rate of this
wavelength must be the lowest under the current situation. But
at the same time, we are forced to use links with higher packet
loss rates, as the higher ranked wavelengths may have been
consumed by previous transmissions. Therefore, the main
content of this algorithm is to select the wavelength with the
lowest packet loss rate from the current available wavelength to
complete the transmission
ሾଷሿ
.
B. The Specific Calculation
In this algorithm, we first analyze the probability of each
wavelength being enabled. The probability that all the
transmission channels of other wavelengths prior to the ߣ
wavelength between the two nodes are occupied is:
ܥ
ܥൌሺ
ሻ
ିଵ
ሺ1െܥ
ሻ (10)
The probability that the transmission channel which precedes
the other wavelength of wave length ߣ
between two nodes is not
occupied is:
ܥ
ൌ1െሺܥ
ሻ
ିଵ
ሺ1െܥ
ሻ (11)
Therefore, we can obtain the probability that the
transmission channel of all the nodes is occupied before the
wavelength of ߣ
:
ܥ
ൌ
∑
ሺ
ܥሺ
ሻ
ିଵ
ሺ1െܥ
ሻሻ
ሺ
1െሺܥ
ሻ
ିଵ
ሺ1െܥ
ሻሻ
ுି
ுିଵ
ୀଵ
(12)
ܥ
ൌ ሾ
ሺ
ܥሺ
ሻ
ିଵ
ሺ1െܥ
ሻሻ1െሺܥ
ሻ
ିଵ
ሺ1െ ܥ
ሻሿ
ு
െ
ሺ
1െሺܥ
ሻ
ିଵ
ሺ1െܥ
ሻሻ
ு
(13)
Transformation from (12) to (13) use knowledge of binomial
theorem.
Therefore, the packet loss rate is:
ܦ
ൌ
∑
ܥ
ܲ∗
௪
ୀଵ
(14)
V. S
OLVE THE PACKET LOSS RATE WITH WAVELENGTH
CONVERTER LINK
When we analyze the packet loss rate, we can convert the
calculation of the packet loss rate in the whole transmission
process into partial packet loss rate. Separate by the wavelength
converter in the link, ensuring that each separate part has no
Advances in Computer Science Research, volume 65
148
wavelength converter in between so that each small segment can
be processed into a simple part without wavelength converter.
So the number of nodes that have each segment going through is
{ܪ
ଵ
1,ܪ
ଶ
1,ܪ
ଷ
1,ܪ
ସ
1..................ܪ
1}( The
number of segments divided is denoted as m) In this way, we
can obtain the packet loss rate of the whole link. Then the
probability that the wavelength occupied before
λ
୧
in the j segment is:
ܥ
ൌ ሾ
ሺ
ܥሺ
ሻ
ିଵ
ሺ1െܥ
ሻሻ1െሺܥ
ሻ
ିଵ
ሺ1െܥ
ሻሿ
ு
ೕ
െ
ሺ
1െሺܥ
ሻ
ିଵ
ሺ1െܥ
ሻሻ
ு
ೕ
(15)
Therefore, the packet loss rate of each small segment is:
ܦ
ൌ
∑
ܥ
ܲ∗
௪
ୀଵ
(16)
The packet loss rate can be obtained as follows:
ܦ
ൌ
∏
ܦ
ୀଵ
(17)
VI. T
EST THE RESULTS
The calculated results obtained by the algorithm in this paper
are compared with the actual results to solve the variance. The
results are as figure I:
FIGURE I. RESULTS OF TWO SIMULATION EXPERIMENTS.
REFERENCES
[1] [US] James F. Kurose [US]Keith W. Ross ,Computer network (edition
5), China Machine Press
[2] Zhongyuan Jiang, Mangui Liang, analysis and optimization of
transmission capacity of complex network,9787512124745.
[3] [Singapore]Tracey Ho [Aus]Desmond S. Lun ,Introduction to network
coding China Machine Press
[4] Department of mathematics, tongji university, Advanced mathematics
(7th edition),Higher Education Press
Advances in Computer Science Research, volume 65
149 |
TP N°1 D’EDUCATION A LA PAIX Le Mahatma GANDHI KRAME KADURHA David (Matricule :14167) Tech 1 - Génie Informatique Le 21 Août 2022 0.1 Introduction Le Mahatma Gandhi ! 0.2 Brève biographie de Gandhi [1, 2] Mohandas Karamchand Gandhiest un dirigeant politique indien, important guide spirituel et icône de la non-violence. Les combats non violents de Gandhi pour la défense des droits de l’homme eurent une influence importante sur les mouvements de libération et de défense des droits civiques dans le monde entier, notamment pour les noirs en Amérique du Nord avec Martin Luther King. Devait-il retourner aux Indes? Pendant cette fête quelqu’un lui remit le Natal Mercury du jour, où il découvrit un bref écho concernant une loi proposée par le gouvernement de Natal en vue de priver les Indiens du droit d’élire les membres du corps législatif. Lors d’une rencontre de protestation à Johannesbourg le 11 septembre 1906, Gandhi met en pratique pour la première fois sa méthodologie dusatyagraha(attachement à la vérité), ou protestation non violente, dont il avait exposé la théorie en 1904. C’est durant cette période que Gandhi entame une correspondance avecLéon Tolstoï, où ils échangent leurs vues sur la non-violence et la politique globale jusqu’à la mort de l’écrivain russe. son correspondant : « Votre activité au Transvaal (Afrique du Sud), pays qui semble être aux confins de la Terre, est une réalisation centrale, l’accomplissement le plus important parmi tous ceux qui ont actuellement lieu dans le monde. En bref donc, parsatyagrahaon entend le refus de se soumettre à une loi, un règlement ou aux autorités, tout en menant un combat et une action pacifiques. 0.6 Conclusion La pensée de Gandhi est très profonde et ne se limite pas à l’aspect pratique qui l’a accompagnée. | TP N°1 D’EDUCATION A LA PAIX Le Mahatma GANDHI KRAME KADURHA David (Matricule :14167) Tech 1 - Génie Informatique Le 21 Août 2022 0.1 Introduction Le Mahatma Gandhi ! Qui ne connaît pas ce grand homme ? Sa pensée est connue et citée partout au monde. Plus d’un sont les hommes, et pas des moindres, qui se réclament de sa pensée. Il demeure une icône centrale de la non-violence et en est sans doute un parfait pionnier. La force de sa personnalité et des idées qu’il défend réside, non seulement en leur beauté mais surtout en leur pouvoir transformateur. Sa pratique d’une philosophie constamment mise à l’épreuve le distingue des idéalistes purs. Mais sa pensée toujours justifiée par des grands idéaux, le rapproche encore paradoxalement des idéalistes modérés. Son impact sur le monde a largement dépassé sa seule terre natale. 0.2 Brève biographie de Gandhi [1, 2] Mohandas Karamchand Gandhiest un dirigeant politique indien, important guide spirituel et icône de la non-violence. Né à Porbandar (Gujarat) le 2 octobre 1869 et mort assassiné à Delhi le 30 janvier 1948, il est communément connu et appelé en Inde et dans le monde commeMahatma Gandhi(grande âme). Toutefois, il refusera le titre de Mahatmadurant toute sa vie. Comme il a été élevé dans les valeurs hindouistes, il apprend à connaître les autres religions et la tolérance envers elles. D’ailleurs, la Baghavad-Gita est un texte de l’hin- douisme qui aura une très grande influence sur lui. Suivant les coutumes de sa caste, il s’est marie à l’âge de 14 ans avecKasturbaiqui restera son épouse jusqu’à sa mort en 1942. Après ses études de droit à Londres, Gandhi est retourné dans son pays mais les affaires juridiques n’y tournent pas très bien pour lui. En 1893, il est employé comme conseiller juridique pour une société indienne en Afrique du Sud. Il y découvre comment les noirs ainsi que les indiens y sont privés de nombreux droits civiques et sont victimes de l’intolérance et du racisme. Il entreprend alors, pendant les vingt années qui suivent, un combat de résistance non violente et de non-coopération face aux autorités d’Afrique du Sud. Influsencé par l’écrivain américain Henry David Thoreau (1817-1862), il développe en 1909 ses théories du combat par la non-violence et la désobéissance civile de masse, la 2 0.3. PREMIERS PAS DANS LA NON VIOLENCE [?,?] satyagraha, dans un ouvrage intitulé "Hind Swaraj". L’Afrique du Sud a été à la fois comme un terrain de croissance, de mûrissement, mais aussi de mise en pratique préparatoire des théories de non violence qu’il mettait au point. Ayant obtenu des avancées significatives en 1914 de la part du gouvernement sud-africain, Gandhi retourne en Inde, qu’il parcourt pour mieux la connaître. Après la Première Guerre mondiale, Gandhi, vite rejoint par des millions d’Indiens, s’oppose aux Britanniques en organisant la résistance civique et des campagnes de non-coopération (boycott des autorités, des tribunaux et des écoles,...). Gandhi conduisit ensuite aussi la marche du sel, célèbre opposition à la taxe sur le sel, et pendant la seconde guerre mondiale, refusant de soutenir les Britanniques sans la contrepartie d’indépendance im- médiate, il lance un appel pour que ceux-ci quittent l’Inde : "Quit India". Il s’ensuit la plus radicale révolte pour l’indépendance et de terribles répressions. Il fut emprisonné plusieurs fois en Afrique du Sud et en Inde pour ses activités ; il passa en tout six ans en prison. L’Inde accède finalement à l’indépendance le 15 Août 1947 malgré sa partition en Inde et Pakistan (partition à laquelle Gandhi s’oppose de toutes ses forces mais est obligé de l’accepter pour garantir la paix intérieure). Il ne peut empêcher le déchaînement de violence entre les musulmans et les hindous et meurt assassiné le 30 janvier 1948 par un fanatique hindou. Les combats non violents de Gandhi pour la défense des droits de l’homme eurent une influence importante sur les mouvements de libération et de défense des droits civiques dans le monde entier, notamment pour les noirs en Amérique du Nord avec Martin Luther King. Gandhi est reconnu comme le Père de la Nation en Inde, où son anniversaire est une fête nationale. Cette date a également été déclarée « Journée internationale de la non-violence » par l’Assemblée générale des Nations unies en 2007. 0.3 Premiers pas dans la non violence [1, 3] Lorsque Gandhi débarqua en Afrique du Sud, au mois de mai 1893, il avait uniquement pour mission de gagner un procès, de se procurer un peu d’argent et, peut-être, en fin de 3 compte, de commencer sa carrière : « Je tente ma chance dans l’Afrique du Sud. » Le procès exigeait la présence de Gandhi à Prétoria, capitale du Transvaal. On acheta pour lui à Durban un billet de première classe et il prit le train pour un voyage de nuit. A Maritzbourg, un blanc entra dans le compartiment et, voyant 1’intrus à peau brune, se retira pour reparaître un moment plus tard avec deux employés du chemin de fer qui ordonnèrent à Gandhi de déménager dans le fourgon. Gandhi protesta en disant qu’il avait un billet de première. Cela ne fit aucun effet. Il fallait qu’il sortît. Il refusa et resta. Alors on alla chercher un policier qui le jeta dehors avec ses bagages. Gandhi aurait pu rentrer dans le train et trouver une place dans le wagon de troisième. Il préféra rester dans la salle d’attente. Il faisait froid dans ces montagnes. Son pardessus était dans sa valise que retenaient les gens de la gare; par peur d’être de nouveau injurié, il n’alla pas le réclamer. Il resta là assis toute la nuit, grelottant et dépité. Devait-il retourner aux Indes? Cet épisode était le reflet d’une situation bien plus importante. Fallait-il en prendre son parti ou simplement chercher une réparation pour son injure personnelle, terminer le procès et retourner chez lui dans l’Inde? Il s’était heurté au terrible fléau du préjugé de la couleur. Son devoir était de le combattre. Fuir en abandonnant ses compatriotes dans cette mauvaise situation aurait été lâche. Bien des années après, aux Indes, le Dr John R. Mott, un missionnaire chrétien, demanda à Gandhi : « Quelles ont été les expériences les plus décisives de toute votre vie? » En réponse, Gandhi lui raconta ce qui s’était passé cette nuit-là à la gare de Maritzbourg. Au cours de cette nuit glaciale à Maritzbourg, le germe de la protestation sociale était né en Gandhi. Mais il ne fit rien encore. Il poursuivit son travail à Prétoria.Une fois son procès terminé, Gandhi retourna à Durban et se prépara à prendre le bateau pour les Indes. Il avait séjourné dans l’Afrique du Sud douze mois environ. Avant son départ, ses associés donnèrent en son honneur une fête d’adieu. Pendant cette fête quelqu’un lui remit le Natal Mercury du jour, où il découvrit un bref écho concernant une loi proposée par le gouvernement de Natal en vue de priver les Indiens du droit d’élire les membres du corps législatif. Gandhi comprit la nécessité de résister à cette tendance. Ses amis y étaient 4 0.3. PREMIERS PAS DANS LA NON VIOLENCE [?,?] disposés, mais sans lui, disaient-ils, « ils étaient ignorants, incapables et sans force ». Il consentit à rester un mois de plus. Il resta vingt ans, luttant pour la défense des droits des Indiens. Il remporta la victoire. Au début de la Deuxième Guerre des Boers, en 1899, Gandhi déclare que les Indiens doivent soutenir l’effort de guerre s’ils veulent légitimer leur demande de citoyenneté. Il organise un corps d’ambulanciers volontaires de 300 Indiens libres et de 800 coolies indiens, appelé le Indian Ambulance Corps, une des rares unités médicales qui secouraient les Sud-Africains noirs. Gandhi lui-même est porteur de civière à la bataille de Spion Kop. Il est décoré à cette occasion. Malgré tout, à la fin de la guerre, la situation des Indiens ne s’améliore pas, et continue même à se détériorer. En 1906, le gouvernement du Transvaal vote une nouvelle loi demandant l’en- registrement de toute la population indienne. Lors d’une rencontre de protestation à Johannesbourg le 11 septembre 1906, Gandhi met en pratique pour la première fois sa méthodologie dusatyagraha(attachement à la vérité), ou protestation non violente, dont il avait exposé la théorie en 1904. Il appelle ses compagnons indiens à défier la nouvelle loi et à subir les punitions qui en résulteraient au lieu de résister par la violence. Il s’inspire en cela des préceptes, de son ami indienShrimad Rajchandra, un ascète jaïn avec lequel il correspond jusqu’à la mort de celui-ci, et considéré comme son premier maître spirituel. Ce plan est adopté, ce qui mène à une lutte de sept ans au cours de laquelle des milliers d’Indiens et de Chinois sont emprisonnés (incluant Gandhi lui-même en de nombreuses occasions), fouettés ou même abattus pour avoir fait grève, refusé de s’enregistrer, brûlé leur carte d’enregistrement ou avoir résisté de manière non violente. C’est durant cette période que Gandhi entame une correspondance avecLéon Tolstoï, où ils échangent leurs vues sur la non-violence et la politique globale jusqu’à la mort de l’écrivain russe. La désobéissance civile culmine en 1913 avec une grève des mineurs et la marche des femmes indiennes. Bien que le gouvernement sud-africain réprime les manifestants indiens avec succès, l’opinion publique réagit violemment aux méthodes extrêmement dures employées contre les manifestants asiatiques pacifiques. Finalement le général Jan Christiaan Smuts est forcé de négocier un compromis avec Gandhi. Les mariages non chrétiens redeviennent 5 légaux et une taxe de trois livres qui représentait six mois de salaire, imposée aux Indiens qui voulaient devenir des travailleurs libres (c’est-à-dire les coolies), est abolie. C’étaient ses débuts dans la lutte non violente. L’Afrique du sud a servi de premier plateau d’application des principes qui mûrissaient en lui. 0.4 Approche de la lutte non violente [4, 5] La puissance du Mahatma prenait racine dans l’action. Il ne demandait jamais à quiconque de faire quoi que ce soit qu’il ne faisait pas lui-même. Il ne faisait que ce qu’il croyait devoir faire. Les exemples sont nombreux : la marche du sel, le rouet, le satyagraha, la destruction des vêtement de style européen, la libération des femmes et des intouchables... Il entraînait des millions de personnes dans son action. Il ne prêchait pas, il agissait, il faisait ce qu’il croyait devoir faire et les foules le suivaient par milliers, par million ou par centaines de millions. La pensée de Gandhi n’émerge pas de manière spontanée. Elle se nourrit notamment des ouvrages de Henry David Thoreau, de Léon Tolstoï ou encore de John Ruskin. Gandhi ne peut que se reconnaître dans l’expérience de Thoreau, incarcéré parce qu’il refusait de payer tout impôt à un État esclavagiste et portant la guerre au Mexique. Il reprend à son compte l’idée de désobéissance civile, laquelle résonne avec les moyens de lutte qu’il adopte en Afrique du Sud pendant le combat contre les lois sur l’immigration. Il la transforme aussi. Non sans grandes difficultés, il cherche à en faire une pratique collective. Il désire, en outre, la disjoindre absolument de toute violence, alors que l’écrivain américain, Thoreau, sans être un apôtre de la violence, n’hésitait aucunement à justifier son usage. Sur cette question, c’est l’influence de Tolstoï que l’on perçoit. Ne laissant planer aucun doute à ce propos, Gandhi affirme : « Lorsque je suis allé en Angleterre, j’étais un défenseur de la violence, je croyais en elle, et aucunement en la non-violence. Mais après que j’ai luLe Royaume de Dieu est en vousde Tolstoï, cette absence de foi en la non- violence s’est volatilisée. » En 1909, les deux hommes échangent quelques lettres. Dans la dernière de celles-ci, le romancier russe offre une véritable consécration à l’entreprise de 6 0.4. APPROCHE DE LA LUTTE NON VIOLENTE [?,?] son correspondant : « Votre activité au Transvaal (Afrique du Sud), pays qui semble être aux confins de la Terre, est une réalisation centrale, l’accomplissement le plus important parmi tous ceux qui ont actuellement lieu dans le monde. » Quelque temps plus tard, Gandhi baptisera « ferme Tolstoï » son second projet de vie communautaire. On en arrive à Ruskin.Unto This Lastest pour Gandhi une révélation. L’ouvrage le pousse à quitter la ville pour la campagne. En 1904, avec son ami Hermann Kallenbach, il acquiert à cette fin plusieurs hectares de terrain près de Durban et crée la communauté de Phoenix. Il s’agit là de faire l’expérience d’une vie collective où la simplicité règne. Les positions que chacun occupe au sein de la société doivent s’effacer, le travail agricole et artisanal doit acquérir une place centrale. Les locaux d’Indian Opinion sont aussi installés à cet endroit. Au fil des textes, on verra le choix d’un tel mode de vie se joindre à l’argumentaire sur le combat non violent ; il sera présenté comme son aspect constructif. Ces auteurs, Gandhi ne se contente pas de les lire : il étaie ses arguments en les citant abondamment et traduit certaines de leurs œuvres en gujarati. La traduction, chez Gandhi, n’est pas simplement une pratique textuelle, c’est aussi l’une des opérations fondamentales grâce auxquelles les concepts s’affinent et la pensée chemine. Pour qualifier la lutte qu’il invite à mener en Afrique du Sud, il parle d’abord de « résistance passive». Mais l’expression, selon lui trop étriquée, a des connotations ambiguës : elle semble désigner « l’arme des faibles ». Invoquer, à l’instar de Thoreau, la « désobéissance civile » s’avère plus pertinent. Une telle appellation, néanmoins, malgré le génie de son auteur, ne suffit pas à décrire toute la portée de la révolte en cours. Comme « résistance passive », en outre, elle provient de la langue des colons. Si Gandhi utilise abondamment l’anglais, c’est à son grand dam ! Le respect de sa langue maternelle et de la pensée qui s’y déploie lui commande de ne pas employer de termes qui ne s’y laisseraient traduire. Gandhi organise donc en 1907, prix à la clef, un concours dans lequel il invite à trouver des équivalents à « résistance passive », « désobéissance civile » et leurs dérivés. L’appel est lancé, en gujarati, dans Indian Opinion. Avec sa précision de juriste, Gandhi commente l’ensemble des propositions qui lui sont faites, et n’en retient qu’une : la sienne.Satyagraha [être arrimé à la vérité], ainsi seront condensés en un mot les multiples aspects de la lutte non violente qu’il entend mener. Ironie de l’histoire, celui-là sonnera si juste à ses oreilles 7 que fréquemment, lorsqu’il s’exprimera en anglais, il le restituera tel quel.Il en viendra même à distinguer satyagraha et désobéissance civile, invitant à imaginer le premier comme un arbre et la seconde comme l’une de ses multiples branches. En bref donc, parsatyagrahaon entend le refus de se soumettre à une loi, un règlement ou aux autorités, tout en menant un combat et une action pacifiques. Le but d’une « action de satyagraha » est devaincre l’injustice et de se libérer de l’oppresseur.L’idéologie non violente de Gandhi revient à rejeter tout ce qui détruit la personne humaine.Pour ce faire, elle emprunte plusieurs voies : la vérité, la justice, l’amour et le sacrifice de soi. Cette forme de résistance a été instaurée par Gandhi afin de lutter pour la libération de son peuple face à la couronne britannique et de la diaspora indienne, victime d’apartheid, en Afrique du Sud. Gandhi perçoit la lutte armée comme un acte de barbarie car celle-ci utilise la force des armes afin de faire taire l’adversaire ou de lui imposer son point de vue. Cause de souffrances et de nuisances, la violence est l’expression du mal. Elle entraîne une réplique de la part de celui qui la subit, s’engage alors un cycle infernal de violences successives. A l’inverse,la non-violence prônée par le Mahatma Gandhi est l’absence totale de malveillance à l’égard de tout ce qui vit. Par sa stratégie, Gandhi propose une autre façon de résoudre les conflits. Pourtant l’homme accorde aujourd’hui encore une plus grande confiance dans la lutte armée. Peut-on au contraire considérer avec Gandhi que la non-violence est une forme de lutte plus efficace que la lutte armée ? Selon Gandhi, la non-violence est préférable à la lutte armée évidemment car toute violence, de quelque nature qu’elle soit, est contraire à la vérité. 0.5 Retombées sur le plan politique et social [6] L’importance et l’influence de Gandhi sur le monde contemporain ne font aucun doute. Il est parmi les personnes ayant marqué le XXe siècle et cette influence ne s’est pas tarie avec le temps. Il s’agit d’une pensée riche et complexe qui n’a pas encore été totalement épuisée malgré les très nombreux commentaires dont elle n’a cessé de faire l’objet. 8 0.5. RETOMBÉES SUR LE PLAN POLITIQUE ET SOCIAL [?] Si l’on considère Gandhi comme l’homme qui a mené le pays à l’indépendance et voulait proposer un mode original de développement du pays, force est de déplorer un bilan plus que négatif. La condamnation à mort et l’exécution de ses assassins constituaient en elles-mêmes les preuves d’un rejet de ses idées. Au sens strict, l’Inde n’a adopté aucune des options politiques, économiques et sociales propres à la pensée de Gandhi : si l’on s’en tient à ce constat, on peut légitimement parler d’échec. Néanmoins, de son vivant, il a énormément réussi. De l’abolition des lois ségrégationnistes à l’égard des indiens en Afrique du Sud à l’indépendance de son pays, en passant par l’obtention d’une adoption unanime de ses vues, Gandhi a énormément aidé son peuple et l’humanité en général, par l’espoir qu’il fit renaître auprès des opprimés. La pensée de Ganghi est une inépuisable source de réflexion pour des millions de gens et, parmi ces derniers, de très nombreuses personnalités de toute sorte, qu’elles soient activistes, philosophes voire politiques. Parmi ces derniers, une figure vient immédiatement à l’esprit dont l’action et la personnalité furent inlassablement associées à Gandhi. Aux États-Unis, en effet, Martin Luther King est considéré comme une personnalité de premier plan et la pensée gandhienne est très présente dans son approche, justifiée aussi par les évangiles. Il fut impliqué dans le mouvement d’émancipation des noirs américains et y joua un rôle remarquable. On peut également évoquer Nelson Mandela, une autre grande figure de la non violence et de la libération des peuples. Ainsi, l’héritage de Gandhi n’est pas moindre. Une autre grande figure, et pas des moindres, inspiré fortement de la pensée gandienne est léconomiste Ernst Friedrich Schumacher. Selon Schumacher, l’économie doit se plier aux besoins de la nation et le libéralisme n’est pas adapté aux pays en dé- veloppement. Elle doit aussi tenir compte de l’ensemble des ressources de la planète et c’est ainsi qu’il fut un des premiers à parler de « développement durable », concept qui fait florès aujourd’hui. Gandhi, poursuit-il, proposait trois remèdes à la maladie de l’économie : taille réduite (smallness), simplicité et non-violence. Et il prend pour autre fondement ce principe énoncé par Gandhi lui-même : « La Terre fournit assez pour satisfaire les besoins de chaque homme, mais pas pour l’avidité de chacun ». C’est encore Gandhi qui considérait qu’il fallait privilégier la production pour les masses davantage 9 que la production de masse.Schumacher montre surtout que les principes gandhiens de l’économie fondent les besoins de l’économie moderne pour un développement durable. Il faut, par exemple, recentrer le transport et la distribution sur le local pour éviter des coûts humains et environnementaux excessifs. Comme déjà mentionné, Gandhi a toujours été une source d’inspiration sans précédent pour tout adepte de la non violence et l’écho de sa pensée est toujours présent aujourd’hui. Bien que sa pensée ne s’applique explicitement ni directement par ceux qui se réclament de lui, c’est une icône mondiale centrale dans la lutte non violente. 0.6 Conclusion La pensée de Gandhi est très profonde et ne se limite pas à l’aspect pratique qui l’a accompagnée. En fait, au-delà d’être une pensée en mouvement, une pensée mise directe- ment en pratique par son auteur, la pensée gandhienne est tout d’abord une idéologie forte. Cette pensée tient beaucoup plus compte de la source profonde des principes véhiculées que de leur mise en pratique qui peut être victime des aléas de la vie. Toute la pensée de Gandhi tourne autour de lavérité. Il dit d’ailleurs que, s’il devait choisir entre non-violence et vérité, il choisirait cette dernière en lieu et place de celle-là [5]. C’est en ce sens que, paradoxalement, bien que s’étant réclamé inspiré de l’hindouisme, Gandhi peut être considéré comme un disciple directe de la pensée de Jésus. |
C’est ainsi que, des avancées récentes en traitement automatique du langage naturel ont prouvé que le traitement du texte par l’ordinateur peut être raffiné autant qu’on veut, dans les limites du possible.
Cela est en fait une bonne nouvelle car, il s’avère que des nombreux sujets restent fermés à la majorité des gens suite au manque de temps, au regard de la quantité d’informations à consulter pour espérer avoir ne fusse qu’une lueur d’idée du domaine ou du sujet qu’on veut rapidement explorer.
Il est souvent inintéressant de passer du temps à lire des textes très longs, surtout quand on veut juste avoir une compréhension suffisante en peu de temps de ce qui est écrit, ou quand le sujet traité ne fait pas partie de notre domaine de prédilection.
Il est donc intéressant de mettre au point un système qui pourra assister l’homme dans la tâche de synthèse des connaissances afin de promouvoir par là-même un échange entre disciplines, ce qui est souvent très enrichissant.
L’inclusion des traitements basés sur l’intelligence artificielle dans les modules de synthèse est-elle obligatoire pour atteindre des bonnes performances ?
Étant donné que, par définition, le langage naturel est difficile à formaliser complètement, on ne pourrait pas se passer de l’intelligence artificielle pour parvenir à réaliser un système performant;
Une architecture basé essentiellement sur des modèles du type transformer, joint à l’utilisation de quelques règles inspirées de la linguistique permettrait d’avoir un système de synthèse performant.
Nombreux sont des textes (livres, articles, pages web et autres documents) dont on voudrait avoir des bonnes synthèses, qu’on ne trouve que très rarement si on ne s’est pas découragé avant.
C’est la raison pour laquelle, nous nous sommes fixé comme objectif de répondre à ce besoin précis en mettant au point une application web de synthèse des textes.
Les plus prometteuses de ces solutions se limitent à des tailles bien réduites de texte, ce qui est déjà un grand pas mais pas suffisant évidemment.
Cette recherche a pour objectif principal de concevoir et réaliser un système (une application web) qui facilitera la génération automatique des synthèses de niveau humain.
Pour la mise au point du système, nous comptons utiliser les méthodes d’analyse moyennant les techniques expérimentale (pour vérifier l’adéquation du fonctionnement de l’application mise sur pied avec le problème posé), et documentaire (pour une vision approfondie des techniques couramment utilisées et d’éventuelles améliorations nécessaires).
Au second chapitre, Présentation du résumé automatique et conception de l’architecture du système, nous y présenterons les aspects du résumé automatique essentiels à notre travail et y concevrons pas à pas le système de synthèse automatique des textes dans tous ses aspects (pas uniquement le côté synthèse).
Dans ce chapitre, nous allons présenter brièvement le traitement automatique du langage naturel, ainsi que les techniques de traitement qui seront utiles pour la réalisation de l’objectif principal de ce travail.
Nous allons donc y présenter une vue d’ensemble des architectures généralement utilisées, en nous focalisant essentiellement sur l’aspect intelligence artificielle du NLP (Natural Language Processing).
Après cela, nous parcourons divers modèles qui nous permettrons d’aborder le modèle le plus adapté à la tâche de synthèse automatique des textes, qui est l’objectif de ce travail.
Le NLP est une discipline rattachée à l’intelligence artificielle et ayant pour principal objectif, l’étude des possibilités du traitement du langage humain par des machines.
C’est ainsi que des tâches comme la traduction automatique, la génération automatique des textes ou aussi la synthèse automatique qui va nous intéresser dans ce travail, produisent directement du texte en sortie.
Mais, dans tous les cas, la sortie est soit immédiatement utilisable, soit alors elle est prise comme entrée d’un autre système dans la chaîne de traitement du texte.
On peut donc comprendre directement que le mot "naturel" est ici utilisé pour faire une distinction avec les langages formels.
C’est donc dans ce sens que toutes les langues parlées peuvent être vues comme des langages naturels.
Les langages formels ont une syntaxe précise et sont spécifiquement conçus pour des objectifs bien cernés (penser à tous les langages de programmation par exemple).
Ainsi, les développements, récents d’ailleurs, des réseaux de neurone et du deep learning ont donné des nouveaux outils, pour approcher dans une large mesure les performances humaines en terme de traitement de langage.
A notre avis, ces techniques sont les plus adaptées car, tout d’abord elles se rapprochent beaucoup plus des méthodes de traitement d’information par le cerveau humain, et ensuite, il serait autrement très couteux, voir impossible, d’élaborer des modèles capables d’embrasser toute la complexité du langage humain.
En considérant la décomposition en mots, pour diminuer au maximum les difficultés de traitement et l’ambiguïté, on ajoute à la tokenisation d’autres traitements qui sont en général : la désaccentuation, le passage aux minuscules, la suppression des stopwords, la racinisation et la lemmatisation appliqués aux tokens obtenus [22].
Les stopwords sont, pour une langue donnée, des mots qui permettent de réaliser des phrases correctes mais qui n’apportent pas directement d’information significative sur l’ensemble (du point de vu traitement).
Pour illustration, on voudrait par exemple que si on retrouve les éléments "manger", "mange", "mangeable", "mangeons" dans un corpus, qu’ils soient transformés en un seul terme "mange".
Elle réalise en fait ce qui n’est pas réalisé par le stemming en ce sens que lemmatiser un token consiste à la transformer en sa racine, et cette dernière doit être présente dans le dictionnaire.
Elle est fortement facilitée par des approches basées sur le deep learning comme c’est le cas aussi pour la reconnaissance d’entités nommées.
Nous allons passer sous silence certains autres concepts du NLP comme le sacs de mots et le word embeddings dont nous parlerons dans la partie qui va suivre et qui présentera le résumé automatique, en tant que tâche du NLP.
Comme cela a été maintes fois mentionné, deux approches majeures sont d’usage pour traiter automatiquement les données de langage naturel.
D’ailleurs, concernant ces dernières techniques, les modèles de l’état de l’art les plus adaptés sont les transformers et leur présentation exige une revue chronologique car en effet, pour y arriver, des modèles classiques basés sur des réseaux de neurones récurrents (RNN) ont été utilisés car plus adaptés aux données séquentielles que sont les textes.
Furent ensuite introduits les mécanismes d’attention qui améliorèrent les techniques, aboutissant finalement aux modèles dits transformers, plus adaptés à des tâches de NLP élaborées.
Les réseaux de neurones artificiels (Artificial Neural Network ou ANN) sont un ensemble de neurones (artificiels) assemblés pour résoudre des tâches considérées comme requérant une certaine intelligence.
Il s’agit essentiellement d’une fonction d’agrégation ayant pour rôle de réaliser une somme pondérée des entrées qui lui sont présentées et d’une fonction d’activation qui formate la sortie de la fonction d’agrégation selon les valeurs attendues en sortie [12].
Les neurones sont généralement assemblés par couche comme présenté sur la figure qui suit :
On n’entrera pas dans le détail, vu que ce n’est pas exactement le sujet du travail mais, pour entamer la partie qui suit, il nous faut préciser que, comme pour les réseaux de neurones simples, l’entraînement exige d’appliquer une fonction de différentiation sur l’erreur produite par le système.
Mais on doit aussi remarquer que, l’état est défini par deux paramètres au lieu d’un seul comme pour les RNN simples.
On sait aussi que, si on veut une mémoire à long terme contrôlée, la valeur finale de ct doit être mise à jour en repérant ce qui doit être oublié parmi les éléments qui étaient précédemment dans la mémoire, pour y ajouter ensuite ce qui est sélectionné comme pertinent à l’entrée.
Et de cela on peut conclure que c’est plus intéressant d’avoir Ft et It qui prennent des valeurs entre 0 et 1 (pour modéliser la sélection) et ct devra dépendre de ces deux éléments, avec aussi l’état précédent de la mémoire à long terme.
Il va ici s’agir de ht vu que la cellule est développée par analogie avec le processus de mémorisation des systèmes naturels (mémoire à court terme correspondant à la mémoire de travail).
Cette implémentation peut être modifiée, surtout en ce qui concerne les fonctions d’activation utilisées (σ et tanh), et en particulier la fonction d’activation de finalisation tanh ici, mais c’est l’une des plus optimales.
Il faut noter que sur cette image (figure I.5), l’implémentation de la mise à jour est l’inverse de celle que nous avons décrit par les équations I.4.
Parmi les techniques d’amélioration des performances, une peut être considérée car elle a un rapport direct avec notre travail.
Les mécanismes d’attention sont en bref des techniques permettant de lutter contre la perte de mémoire qu’on constate par exemple dans les cellules récurrentes ci-haut décrites, en se focalisant sur des éléments les plus importants à chaque traitement.
Pour l’expliquer, nous allons considérer une architecture jusque là passée sous silence, mais qui permet aux modèles introduits là haut de s’utiliser efficacement pour les tâches courantes du NLP en particulier.
Ainsi, si par exemple on est entrain de vouloir traduire une longue phrase, on peut finir par transmettre un vecteur de contexte qui a perdu toute information sur les premiers éléments de la séquence passée en entrée.
C’est pour cela qu’au lieu de passer un vecteur de contexte général, les mécanismes d’attention permettraient ici de ne se focaliser que sur certaines informations lors du traitement d’un élément particulier de la séquence (en ayant évidemment passé tous les états internes passés au décodeur).
Pour le réaliser concrètement, le mécanisme d’attention global consiste à formater le vecteur de contexte en fonction des éléments de l’encodeur à prendre en compte lors du traitement par le décodeur.
Considérons que Ω, dont les termes sont représentés par wij, est la matrice des poids d’attention normalisés par une fonction softmax pour chaque ligne.
Et que Π, dont les termes sont représentés par αij, est la matrice des poids d’attention générée par le mécanismes avant normalisation.Si les éléments ci représentent à chaque fois le vecteur contexte final à l’étape i de décodage et les hj sont les vecteurs d’état interne de l’encodeur, l’attention globale revient à réaliser la manipulation suivante, pour formater le vecteur de contexte à prendre en compte pour l’élément en cours de traitement [30] :
La réponse est oui, avec des ajustements adéquats pour résoudre les faiblesses des modèles classiques dans le traitement des données séquentielles.
Les transformers sont des modèles du type encodeur-décodeur comme on peut le constater sur la figure ci-dessus (bien que certaines implémentations n’en utilisent qu’une partie selon la tâche).
Un choix intuitif, et qui s’avère être performant, est de tout faire pour que si deux termes ont des sens proches, ils aient aussi des représentations vectorielles proches.
Cela est réalisé par différentes techniques que nous présenterons dans le chapitre suivant, mais c’est là le rôle de la couche d’enchâssement (embedding).
L’opération est réalisée pour permettre au modèle d’avoir une représentation de l’importance des termes dans la séquence d’entrée, les uns par rapport aux autres.
Il est important que ce lien soit implicitement présent dans les représentations, pour que le traitement soit efficace comme on l’a mentionné lors de la présentation des mécanismes d’attention.
En effet, très brièvement, l’idée du scaled dot-product attention consiste à opérer une recherche des termes sur lesquels focaliser l’attention de la même façon qu’on réalise la recherche de la signification d’un mot dans un dictionnaire.
Si on supposait qu’il existe plusieurs termes du dictionnaire qui s’orthographient presque de la même façon que le mot qu’on cherche, on devra passer par une mesure de similarité avant de se décider sur le sens le plus probable.
Il faut aussi noter que l’on utilise parallèlement plusieurs modules d’attention pour capture toutes les caractéristiques des séquences (on parle de multi-head attention).
7°) Module linéaire final : Il s’agit d’un réseau de neurones classique pour réaliser la déduction finale, le tout étant passé à la fin à travers une opération softmax qui permet de transformer les résultats en probabilité d’éléments générés (cela permet de choisir le terme le plus vraisemblable à générer comme sortie).
Les transformers, ici succinctement présentés, sont un modèle très adapté aux tâches de traitement automatique du langage naturel.
Ce qui précède nous a finalement conduit à présenter les modèles courants du NLP basés sur les RNNs et, nous avons terminé par la présentation de l’architecture transformer, modèle que nous utiliserons pour ce travail (les précisions sur les modèles particuliers seront données au chapitre suivant).
Les transformers constituent un type de modèle qui s’avère être le plus adapté (pour le moment) au résumé automatique du texte et, dans le chapitre suivant, nous commencerons par présenter les diverses spécificités du résumé automatique comme tâche du NLP, pour finir par présenter l’architecture globale du système que nous comptons élaborer.
Le résumé automatique étant le sujet principal de ce mémoire, dans cette partie nous le présentons alors en détail en tant que discipline et tâche du NLP.
Nous allons ici présenter les théories sur la synthèse automatique des textes, en classifiant les diverses méthodes utilisées pour pouvoir situer notre système dans l’ensemble des travaux jusque-là menés sur ce sujet.
Ensuite, nous présenterons les diverses approches utilisées pour le résumé automatique, sans oublier d’approfondir notre présentation des modèles de type transformer adaptés à cette tâche, pour finalement mentionner le modèle que nous estimons le plus adapté concernant l’approche basée sur le deep-learning pour la synthèse automatique.
Une définition assez valable est celle de TORRES-MORENO Juan-Manuel qui dit qu’un résumé automatique est un texte généré par un logiciel, cohérent et contenant une partie importante des informations pertinentes de la source, et dont le taux de compression est inférieur au tiers de la taille du(des) document(s) source(s) [48].
En effet, les études de [26] montrent que les meilleures performances des systèmes de résumé automatique sont généralement atteintes pour des taux de compression compris entre 15 et 30% [48].
Tel une table des matières, un résumé indicatif renseigne le lecteur sur les thèmes abordés dans un document.
En effet, on sait par exemple que dans le domaine journalistique, les informations les plus importantes sont souvent mentionnées au début du texte.[36]
Le problème consiste donc à repérer les segments de texte qui semblent être les plus pertinents pour faire partie du résumé final.
Il existe aussi des résumés dits semi-extractifs, et même aussi des résumés dits par compression [48] mais nous estimons inutile de les décrire ici étant donné que la distinction abstractif-extractif suffit pour notre contexte.
L’idée majeure des techniques qui utilisent ce critère consiste à considérer que les mots les plus fréquents sont les plus liés au sujet principal du texte à résumer.
L’intuition derrière cette approche est basée sur le constat que dans un texte, les éléments ne sont pas présentés de façon arbitraire.
Le résumé des articles scientifiques par contre, peut essentiellement se former en se basant sur les contenus des parties résumé et introduction (sous l’hypothèse que ces dernières parties sont bien faites).
Les méthodes que nous venons de présenter sont assez intuitives mais constituent la base des processus de synthèse.
Nous devons toutefois signaler que les résumés abstractifs se basent au fond sur les mêmes principes, soit en partant des résumés extractifs pour ensuite réaliser des paraphrases, insérer des connecteurs appropriés et éliminer les références anaphoriques dans les résumés, soit en implémentant indirectement toutes ces techniques à travers un modèle d’apprentissage automatique ou un modèle basé sur les graphes capables de capturer d’un seul coup tous ces aspects (ou une grande partie d’entre-eux).
Comme nous venons de l’introduire dans la section précédente, le résumé automatique est abordé essentiellement selon deux approches qui sont [31] :
L’approche qui se base naïvement sur la fréquence d’apparition des mots dans les textes pour juger de leur importance relative, accorde à chaque mot un poids égal à T F(i,j).
L’application de cette méthode pour le résumé consiste finalement à calculer le poids de chaque phrase en additionnant les poids des termes la constituant, puis à normaliser le résultat en fonction de la taille de la phrase considérée.
Après tout, on définit un seuil qui permet de soutirer les phrases selon leur pertinence ainsi évaluée (en considérant évidemment plus pertinente une phrase dont le résultat de la sommation des poids est élevé).
Il s’agit en fait d’une matrice d’adjacence dans laquelle on pose au préalable que Mii = 0, pour tout i (c’est la même idée pour l’algorithme PageRank étant donné qu’il est logique de considérer qu’une page ne peut s’auto-référencer).
On applique la formule II.5 itérativement et à la convergence, on choisit les phrases qui vont former le résumé selon leur importance ( valeurs des T extRank(P hri) pour toute valeur de i).
Il considère la position et la longueur des phrases dans le calcul de leur pertinence; - Il est optimisé pour le résumé multi-document.
Même si, ces traitements peuvent être mélangés avec les techniques de résolution d’anaphores et les paraphrases pour obtenir des synthèses qui tendent vers la synthèse abstractive, nous devons souligner que les techniques jusque là les plus performantes pour la synthèse abstractive sont essentiellement basées sur le deep learning [36].
Ainsi donc, nous abordons les méthodes de deep learning utilisées pour cet effet dans les parties qui suivent.
Une autre approche, plus classique, consiste à représenter chaque mot par un vecteur de dimension égale à la taille du dictionnaire et dont tous les termes sont nuls, sauf à la position, dans le dictionnaire, du mot qu’on est entrain de vouloir représenter (on parle du one-hot encoding).
Étant artificiellement construites, sans tenir compte du sens des mots, ni de leur contexte, ces méthodes de représentation rendent la tâche de découverte des caractéristiques par les systèmes de machine learning encore plus difficile.
Ainsi, tout mot est représenté en réalisant une statistique (implicitement bien sûr) sur les divers mots qui l’accompagnent souvent, de telle sorte que les mots aux sens proches aient aussi des vecteurs très proches.
Comme nous l’avons déjà bien mentionné au précédent chapitre, nous n’allons parler que des modèles Seq2Seq de type transformer car actuellement, ils sont les plus adaptés à la tâche que nous voulons réaliser (celle de synthèse automatique).
Les transformers (voir la figure I.7) sont un modèle très avantageux car en fait, au-delà de leurs performances et autres avantages, ils facilitent encore plus la recherche en NLP en rendant effectif le transfer learning (apprentissage par transfert) dans ce domaine.
Ces modèles sont très bons pour les tâches de compréhension du langage comme la classification par exemple.
Ils sont bons pour les tâches demandant à la fois la compréhension et la génération des textes.
2°) Like-GPT : donc semblables au transformer dénommé GPT (Generative Pre-trained Transformer) qui n’ont que la partie décodeur et sont dits auto-regressifs car, seules les parties précédant le mot en cours de traitement sont connues du modèle et il y a chaque fois réinjection des sorties à l’entrée.
Ces modèles sont principalement bons pour les tâches de NLU (Natural Language Understanding) comme la classification, le NER (Name Entity Recognition), l’extractive question-answering,...
tégralité de l’architecture des transformers et sont ainsi bons pour les tâches demandant à la fois du NLU et du NLG comme la synthèse automatique abstractive, le generative question-answering et la traduction automatique.
allons privilégier (les modèles dérivés de BART principalement) pour réaliser cette tâche dans notre système.
Dans ce second chapitre, nous ne présenterons que les spécifications du système ainsi qu’une ébauche de conception avec une présentation de l’architecture globale.
Nous prévoyons, dans un premier temps, ne l’utiliser que pour des petits documents (la taille optimale sera déterminée avec les expérimentations au chapitre suivant).
Module de synthèse abstraite : ce module donnera une synthèse abstraite en utilisant l’un des transformers affinés pour la synthèse ou bien par le module qui sera en train de s’auto-améliorer au cours de l’utilisation du système (on l’a nommé expérimental, voir la figure II.7).
Nous comptons réaliser l’entraînement par transfer learning avec les transformers mT5[53] ou mBART [27] comme base.
N’ayant pas encore testé cette partie, nous serons fixé sur la méthode à utiliser ainsi que le modèle de base à choisir au chapitre suivant, après les expérimentations.
Comme nous pouvons le voir, un traitement sera fait pour adapter les données reçues à ce qui peut être traité par le système.
Nous implémenterons plusieurs modèles (BART, BARThez, PEGASUS, mBART ou mT5 entraîné avec nos données, ainsi que tous ceux qui nous paraîtrons utiles durant les essais); Chaque module de synthèse se présentera néanmoins comme suit :
Dans cette partie, nous venons de présenter le résumé automatique des textes, tout en réalisant une vue d’ensemble des méthodes utilisées dans la littérature à cet effet.
Nous avons également listé les divers modèles de transformer adaptés à la tâche de synthèse automatique abstraite, et nous avons mentionné devoir privilégier les modèles du type BART pour des raisons qui serons précisées dans le chapitre suivant.
Le chapitre suivant nous permettra donc finalement de préciser, réaliser et tester les méthodes que nous avons jusque-là adoptées pour la mise au point de notre système de synthèse automatique des documents.
Barry Schiffman, Ani Nenkova, and Kathleen McKeown. | UNIVERSITELIBREDESPAYSDESGRANDSLACS
FACULTE DES SCIENCES ET DES TECHNOLOGIES
APPLIQUEES
DEPARTEMENT DE GENIE ELECTRIQUE ET INFORMATIQUE
B.P 368 GOMA
www.ulpgl.net
CONCEPTION ET REALISATION D’UN
SYSTEME BASE SUR L’INTELLIGENCE
ARTIFICIELLE POUR RESUMER
AUTOMATIQUEMENT LES TEXTES
Par : KRAME KADURHA David
Travail présenté en vue de l’obtention du Diplôme d’ingénieur civil en génie électrique et informatique
Option : Génie informatique
Directeur : Prof BARAKA MUSHAGE Olivier
Encadreur : Ir MUHINDO WAMUHINDO Abdenego
ANNEE ACADEMIQUE 2021−2022
Dédicaces
Remerciements
Résumé
Sigles et abréviations
Table des matières
Dédicaces i
Remerciements ii
Résumé iii
Sigles et abréviations iv
Introduction générale 1
0.1 Contexte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
0.2 Identification et formulation du problème . . . . . . . . . . . . . . . . . . . 1
0.3 Questions de recherche . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
0.4 Hypothèses de travail . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
0.5 Justification du choix du sujet et motivations . . . . . . . . . . . . . . . . . 3
0.6 Objectifs de la recherche . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
0.6.1 Objectif général . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
0.6.2 Objectifs spécifiques . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
0.7 Méthodologie de recherche et délimitation du travail . . . . . . . . . . . . . 5
0.8 Subdivision du travail . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
Généralités sur le NLP 6
Introduction partielle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
Présentation et définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
Nécessité de l’approche par deep learning . . . . . . . . . . . . . . . . . . . 8
Quelques techniques courantes de traitement des textes . . . . . . . . . . . 9
La tokenisation (tokenization) . . . . . . . . . . . . . . . . . . . . . . 9
Les stopwords[44] . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
La racinisation (stemming) . . . . . . . . . . . . . . . . . . . . . . . . 10
La lemmatisation (lemmatization) . . . . . . . . . . . . . . . . . . . . 10
SYNTHESE AUTOMATIQUE DES TEXTES
Reconnaissance d’entités nommées (NER)[44] . . . . . . . . . . . . . 11
L’étiquetage morpho-syntaxique (POS tagging) . . . . . . . . . . . . 11
Approches du NLP . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
Les réseaux de neurones artificiels (ANN) . . . . . . . . . . . . . . . 12
Les réseaux de neurones récurrents (RNN) . . . . . . . . . . . . . . . 13
Mécanismes d’attention . . . . . . . . . . . . . . . . . . . . . . . . . 20
Les transformers . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
Conclusion partielle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
Résumé automatique et conception 29
Introduction partielle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
Présentation et définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
Catégorisation des résumés . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
Selon la fonction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
Selon le nombre de documents source . . . . . . . . . . . . . . . . . 32
Selon le genre des documents . . . . . . . . . . . . . . . . . . . . . . 32
Selon le type de sortie (résumé obtenu) . . . . . . . . . . . . . . . . . 33
Selon le type de résumeur . . . . . . . . . . . . . . . . . . . . . . . . 34
Selon le contexte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
Selon le destinataire du résumé . . . . . . . . . . . . . . . . . . . . . 35
Approches de résumé automatique . . . . . . . . . . . . . . . . . . . . . . . 35
Techniques intuitives de résumé [36] . . . . . . . . . . . . . . . . . . 35
Algorithmes classiques de résumé automatique . . . . . . . . . . . . 38
Modèles Seq2Seq . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
Methodes du Word-Embedding . . . . . . . . . . . . . . . . . . . . . 45
Modèles séquence-à-séquence proprement dits . . . . . . . . . . . . 46
Modèle BART pour la synthèse abstractive . . . . . . . . . . . . . . . 50
Conception de l’architecture globale du système . . . . . . . . . . . . . . . . 51
Spécifications du système . . . . . . . . . . . . . . . . . . . . . . . . 52
Présentation des éléments du système . . . . . . . . . . . . . . . . . 52
vi sur 68
TABLE DES MATIÈRES
Architecture du module de synthèse extractive . . . . . . . . . . . . 54
Architecture du module de synthèse abstractive . . . . . . . . . . . 56
Présentation des interfaces . . . . . . . . . . . . . . . . . . . . . . . . 58
Conclusion partielle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
Conception finale, réalisation et tests 60
Conclusion générale 61
Annexes 68
vii sur 68
Liste des figures
I.1 Réseau de neurones à une couche cachée et sans boucle [47] 13
I.2 Illustration de ce qu’est un RNN [22] 14
I.3 Comparaison entre cellules RNN classique et LSTM [18] 15
I.4 Vue fonctionnelle d’une cellule LSTM [18] 16
I.5 Cellule GRU [18] 19
I.6 Réseaux série-vers-série (en haut à gauche), série-vers-vecteur (en haut à
droite), vecteur-vers-série (en bas à gauche) et encodeur-décodeur (en bas àdroite) [16] 21
I.7 Architecture générique des transformers [50] 23
I.8 Vue éclatée d’un transformer [51] 27
II.1 Diagramme des fréquences des mots et le choix de Luhn [29] 40
II.2 Comparaison simplifiée entre BERT, GPT et BART [25] 50
II.3 Transformations de bruitage expérimentées pour BART [25] 50
II.4 Architecture globale de notre système 52
II.5 Architecture globale du système de synthèse abstractive 57
II.6 Architecture interne du modèle mentionné sur la figure II.5 57
II.7 Ébauche d’interface 58
viii
Introduction générale
0.1 Contexte
A l’ère du numérique, comme depuis l’invention de l’écriture, le texte est l’un des principaux moyens de communication et surtout, de transmission des connaissances.
Des livres aux SMS, en passant par diverses pages web, les données textuelles sont partout. En 2018, il s’agissait d’environs 80% de l’information qui circulait sur le web [23]. L’évolution de l’informatique continue à démontrer la possibilité de simplifier toujours grandement la vie de l’homme en automatisant de plus en plus l’accomplissement des tâches rébarbatives.
Certaines tâches comme celles liées explicitement à l’arithmétique semblent mieux se prêter à cette vague d’automatisation, les données numériques étant par essence celles prises en compte par les plateformes numériques.
Néanmoins, des transformations adéquates permettent de prendre en compte tout type de donnée, et le texte n’est pas exclu. C’est ainsi que, des avancées récentes en traitement automatique du langage naturel ont prouvé que le traitement du texte par l’ordinateur peut être raffiné autant qu’on veut, dans les limites du possible.
Cela est en fait une bonne nouvelle car, il s’avère que des nombreux sujets restent fermés à la majorité des gens suite au manque de temps, au regard de la quantité d’informations à consulter pour espérer avoir ne fusse qu’une lueur d’idée du domaine ou du sujet qu’on veut rapidement explorer.
C’est en ce sens que la mise au point des technologies pouvant faciliter l’exploration des connaissances présentées sous forme textuelle est salvatrice.
0.2 Identification et formulation du problème
Comme présenté dans la section précédente, la voie la plus privilégiée pour transmettre les connaissances est l’écriture. Mais, admettons que souvent, dans un long texte, la
1
SYNTHESE AUTOMATIQUE DES TEXTES
quantité d’information pertinente est moindre par rapport à la longueur du texte entier.
Comment faire donc pour identifier cette partie utile et gagner ainsi en temps ?
Il est souvent inintéressant de passer du temps à lire des textes très longs, surtout quand on veut juste avoir une compréhension suffisante en peu de temps de ce qui est écrit, ou quand le sujet traité ne fait pas partie de notre domaine de prédilection. Il est donc intéressant de mettre au point un système qui pourra assister l’homme dans la tâche de synthèse des connaissances afin de promouvoir par là-même un échange entre disciplines, ce qui est souvent très enrichissant.
0.3 Questions de recherche
Vu le problème que nous venons de présenter, une question se pose :
Est-il possible de mettre au point un système informatique capable de synthétiser les textes avec une performance de niveau humain ?
La précédente question nous amène aussi à nous demander ceci :
Un traitement purement linguistique ne pourrait-il pas nous permettre de générer des synthèses suffisamment bons pour atteindre notre objectif ?
L’inclusion des traitements basés sur l’intelligence artificielle dans les modules de synthèse est-elle obligatoire pour atteindre des bonnes performances ?
Quelle est l’architecture globale la plus adaptée pour réaliser un système de synthèse automatique performant ?
0.4 Hypothèses de travail
A la suite des questions que nous venons de soulever, nous postulons que :
Vu la complexité du langage naturel, un traitement purement linguistique ne nous permettrait pas de mettre au point un système de niveau humain en synthèse des textes;
0.5. JUSTIFICATION DU CHOIX DU SUJET ET MOTIVATIONS
Étant donné que, par définition, le langage naturel est difficile à formaliser complètement, on ne pourrait pas se passer de l’intelligence artificielle pour parvenir à réaliser un système performant;
Une architecture basé essentiellement sur des modèles du type transformer, joint à l’utilisation de quelques règles inspirées de la linguistique permettrait d’avoir un système de synthèse performant.
0.5 Justification du choix du sujet et motivations
Pour synthétiser un texte, il faut l’avoir aumoins lu! Et pourtant, pour lire un texte, il faut du temps, une denrée souvent rare.
Certains textes sont souvent fournis, accompagnés des synthèses qui sont parfois très bonnes, parfois incomplètes et parfois même très polarisées ou tout simplement mauvaises. Toutefois, avoir une synthèse à la demande serait mieux que de ne trouver que des synthèses de certains textes, sans d’ailleurs en avoir le plus souvent besoin. Nombreux sont des textes (livres, articles, pages web et autres documents) dont on voudrait avoir des bonnes synthèses, qu’on ne trouve que très rarement si on ne s’est pas découragé avant. C’est la raison pour laquelle, nous nous sommes fixé comme objectif de répondre à ce besoin précis en mettant au point une application web de synthèse des textes. Beaucoup de chercheurs en linguistique et en traitement automatique du langage naturel principalement se sont penché sur ce sujet [23, 48, 1, 21, 2].
Des solutions ont été proposées mais ne sont pas toujours à la hauteur de nos attentes (mettre au point un système de performance presqu’humaine en synthèse automatique des textes). Les plus prometteuses de ces solutions se limitent à des tailles bien réduites de texte, ce qui est déjà un grand pas mais pas suffisant évidemment. C’est pour cette raison qu’il nous semble pertinent d’étudier cette question en profondeur et de mettre au point un système complet et utilisable en dehors du monde de la recherche.
Socialement, la mise au point de ce système sera d’une très grande importance. Cela dans plusieurs axes dont principalement :
Pour les chercheurs, car il pourra faciliter le survol rapide des connaissances provenant SYNTHESE AUTOMATIQUE DES TEXTES
des filières liées à leurs domaines, sans être obligés de consulter à l’avance un tas de documents issus de ces domaines connexes;
Pour tout le monde alors, le système pourra permettre un gain de temps considérable chaque fois qu’il donnera la possibilité d’avoir accès à une synthèse de bonne qualité à la demande, en très peu de temps.
0.6 Objectifs de la recherche
Objectif général
Cette recherche a pour objectif principal de concevoir et réaliser un système (une application web) qui facilitera la génération automatique des synthèses de niveau humain.
Objectifs spécifiques
Pour arriver à bout de notre projet nous comptons :
Évaluer les failles et limites des techniques de synthèse automatique existantes;
Corriger les failles ou compléter les techniques de synthèse automatique existantes; • Établir des architectures logiques optimales pour obtenir des synthèses de qualité;
Élaborer une interface de programmation d’applications devant faciliter l’accès au service de synthèse automatique;
Mettre au point une base de données pour stocker les synthèses les mieux cotées par les usagers, en prévision d’une amélioration future du système;
Réaliser une interface web de qualité pour permettre l’accès au service par divers utilisateurs.
0.7. MÉTHODOLOGIE DE RECHERCHE ET DÉLIMITATION DU TRAVAIL
Méthodologie de recherche et délimitation du travail
Pour la mise au point du système, nous comptons utiliser les méthodes d’analyse moyennant les techniques expérimentale (pour vérifier l’adéquation du fonctionnement de l’application mise sur pied avec le problème posé), et documentaire (pour une vision approfondie des techniques couramment utilisées et d’éventuelles améliorations nécessaires).
Ce travail se focalisera sur la synthèse des documents du type informationnel (livres historiques, discours, articles de presse, lettres, nouvelles, romans et tout autre type de document ayant une faible densité d’expressions mathématiques) et il s’agira d’une synthèse mono-document.
Subdivision du travail
Excepté l’introduction et la conclusion générales, ce travail sera ainsi constitué :
Au premier chapitre, Généralités sur le traitement automatique du langage naturel, nous passerons en revu toute la théorie nécessaire à la compréhension de notre travail.
Au second chapitre, Présentation du résumé automatique et conception de l’architecture du système, nous y présenterons les aspects du résumé automatique essentiels à notre travail et y concevrons pas à pas le système de synthèse automatique des textes dans tous ses aspects (pas uniquement le côté synthèse).
Au troisième chapitre : Conception finale, réalisation et tests, nous y finaliserons la conception et expliquerons les points importants de l’implémentation en nous basant sur la conception faite, puis nous présenterons les résultats des tests que nous aurons effectué.
Chapitre I
Généralitéssurletraitementautomatique du langage naturel
Introduction partielle
Dans ce chapitre, nous allons présenter brièvement le traitement automatique du langage naturel, ainsi que les techniques de traitement qui seront utiles pour la réalisation de l’objectif principal de ce travail. Nous allons donc y présenter une vue d’ensemble des architectures généralement utilisées, en nous focalisant essentiellement sur l’aspect intelligence artificielle du NLP (Natural Language Processing).
Dans un premier temps, nous y présentons quelques techniques, souvent incontournables lorsqu’on veut réaliser une tâche de traitement du langage. Après cela, nous parcourons divers modèles qui nous permettrons d’aborder le modèle le plus adapté à la tâche de synthèse automatique des textes, qui est l’objectif de ce travail.
Présentation et définitions
Le NLP est une discipline rattachée à l’intelligence artificielle et ayant pour principal objectif, l’étude des possibilités du traitement du langage humain par des machines. La raison pour laquelle la discipline s’inscrit comme faisant partie du domaine d’intelligence artificielle est que le langage est considéré comme étant une aptitude centrale de l’intelligence humaine, étant donné que l’usage d’un langage si complexe est l’un des éléments distinctifs principaux entre humains et autres animaux.
Le NLP inclut l’ensemble d’algorithmes, des tâches et des problèmes prenant en entrée
6
I.2. PRÉSENTATION ET DÉFINITIONS
des textes produits par des humains, pour finalement ressortir des informations pertinentes à propos de ces derniers ou alors du texte modifié de façon approprié selon l’objectif poursuivi. C’est ainsi que des tâches comme la traduction automatique, la génération automatique des textes ou aussi la synthèse automatique qui va nous intéresser dans ce travail, produisent directement du texte en sortie.
Mais, dans tous les cas, la sortie est soit immédiatement utilisable, soit alors elle est prise comme entrée d’un autre système dans la chaîne de traitement du texte.
On peut toutefois se demander la raison pour laquelle on parle de traitement automatique du "langage naturel" (quitte à se demander ce qui distinguerait un langage naturel des autres langages).
Pour établir clairement cette différence, il est nécessaire de donner une définition de ce qu’est un langage formel. Pour caricaturer, un langage formel est celui pour lequel il existe un mécanisme fini, et explicite, permettant d’en faire une analyse, quand bien même il serait constitué d’un nombre infini de mots. Donc, c’est un ensemble de mots analysable par un automate (au sens mathématique du terme) [9].
On peut donc comprendre directement que le mot "naturel" est ici utilisé pour faire une distinction avec les langages formels. C’est donc dans ce sens que toutes les langues parlées peuvent être vues comme des langages naturels. Les langages formels ont une syntaxe précise et sont spécifiquement conçus pour des objectifs bien cernés (penser à tous les langages de programmation par exemple). Ils sont donc très précis tant au point de vu grammatical que sémantique.
Concernant les langues humaines usuellement utilisées, on ne peut pas dire, sans être démenti, qu’elles sont dénuées d’imprécisions. Elles regorgent en générale une grande richesse, ce qui a pour conséquence d’introduire très souvent une grande ambiguïté. Pour s’en convaincre, il suffirait par exemple de considérer la phrase suivante :
Je le vois avec mes jumelles.
Très vite on remarque que cette phrase peut s’interpréter selon le contexte. On ne sait pas, en effet, si le sujet affirme voir quelqu’un avec ses jumelles d’observation, se promenant avec ses enfants jumelles, ou si le sujet voit quelque chose en utilisant ses jumelles en tant qu’instrument.
Ceci n’est qu’un exemple particulier pour illustrer cette dichotomie inhérente à l’emploi de la langue quelle qu’elle soit, mais cela suffit pour qu’on s’aperçoive que le problème est bel et bien réel.
Ce n’est d’ailleurs pas juste au niveau des interprétations qu’on peut identifier ce problème. Il s’observe même quand on considère les règles de grammaire. Certaines règles sont ainsi admises par certains linguistes mais rejetées ou trouvées superflues par d’autres [20].
C’est tout ce qui précède qui rend le langage humain à la fois riche et challengeant quand il s’agit de doter les machines de cette aptitude. D’où la raison d’être d’une discipline à part entière dédiée à la mise au point des règles de traitement du langage naturel, le NLP
[17].
I.3 Nécessité de l’approche par deep learning
Avant l’avènement du deep learning, des techniques traditionnelles du NLP étaient utilisées pour des tâches comme la détection des spams, l’analyse des sentiments et le POS (Part Of Speech tagging). Ces approches utilisaient essentiellement des caractéristiques statistiques des séquences comme, la fréquence des mots et les co-occurences par exemple. Néanmoins, le principal désavantage de ces techniques était qu’elles ne parvenaient pas à capturer une grande partie de la complexité linguistique du langage humain, comme par exemple le contexte.
Ainsi, les développements, récents d’ailleurs, des réseaux de neurone et du deep learning ont donné des nouveaux outils, pour approcher dans une large mesure les performances humaines en terme de traitement de langage. A notre avis, ces techniques sont les plus adaptées car, tout d’abord elles se rapprochent beaucoup plus des méthodes de traitement d’information par le cerveau humain, et ensuite, il serait autrement très couteux, voir impossible, d’élaborer des modèles capables d’embrasser toute la complexité du langage humain.
Le deep learning pour le NLP est axé grosso-modo sur la représentation d’entités textu-
I.4. QUELQUES TECHNIQUES COURANTES DE TRAITEMENT DES TEXTES
elles et le traitement élaboré sur ces représentations, de manière à en tirer des informations pertinentes ou à réaliser des transformations appropriées. Cette représentation constitue d’ailleurs un problème fondamental car c’est d’elle que dépend toute la chaîne de traitement des systèmes de NLP [46].
I.4 Quelquestechniquescourantesdetraitementdestextes
Dans cette partie, nous allons présenter diverses techniques intervenant dans le traitement des données de langage naturel. Ces traitements seront présentés de manière à dégager un pattern presque récurrent en terme de structure de traitement pour divers systèmes de NLP. Pour cela, nous allons d’abord présenter certaines manipulations réalisées sur les données en guise de pré-traitement. Puis, nous évoquerons deux techniques utiles aux tâches relevant du NLU (Natural Language Understanding).
I.4.1 La tokenisation (tokenization)
Manipuler des longues chaînes de caractères ne serait pas envisageable. Mais en informatique on est habitué à traiter des structures en terme de listes, de tableaux, de vecteurs,... Le tout étant représenté numériquement. C’est pour cela que l’opération consistant à réduire un corpus de texte en ses tokens est centrale.
Dans notre contexte, la tokenisation est une opération qui consiste à décomposer un texte
(une suite de phrases) en ses phrases constitutives ou une phrase en ses mots constitutifs. Cela est une première étape pour diminuer la difficulté inhérente au traitement des textes. En considérant la décomposition en mots, pour diminuer au maximum les difficultés de traitement et l’ambiguïté, on ajoute à la tokenisation d’autres traitements qui sont en général : la désaccentuation, le passage aux minuscules, la suppression des stopwords, la racinisation et la lemmatisation appliqués aux tokens obtenus [22].
I.4.2 Les stopwords[44]
Les stopwords sont, pour une langue donnée, des mots qui permettent de réaliser des phrases correctes mais qui n’apportent pas directement d’information significative sur l’ensemble (du point de vu traitement). Il s’agit par exemple en français de mots comme de, la, le,... ce qui correspond en gros aux prépositions, aux articles, aux conjonctions,... Il faut néanmoins préciser qu’on peut très bien décider de ne pas supprimer certains stopwords.
I.4.3 La racinisation (stemming)
La racinisation ou stemming en anglais consiste à découper le token de manière à n’en conserver qu’une partie qui semble rendre mieux compte de ce dont dérive ledit token. Seulement, ceci est fait sans se fier à ce que le résultat obtenu en tant que racine fasse partie du dictionnaire de la langue considérée [44, 22].
Cela permet juste de maximiser la probabilité de confondre des mots semblables qui sont présentés différemment dans diverses phrases. C’est à des fins de comparaison de phrases et de réduction d’ambiguïté. Pour illustration, on voudrait par exemple que si on retrouve les éléments "manger", "mange", "mangeable", "mangeons" dans un corpus, qu’ils soient transformés en un seul terme "mange". Cela se fait en découpant tous les mots qui ajoutent
d’autres affixes au terme. C’est cela en bref le stemming et, contrairement à ce que le nom suggère, il ne s’agit pas exactement de trouver la racine des mots (les mots dont ils dérivent). L’opération consiste essentiellement à réaliser un découpage des mots de manière à en supprimer les affixes.
I.4.4 La lemmatisation (lemmatization)
La lemmatisation quant à elle est une opération plus soignée mais plus coûteuse en terme d’implémentation [44, 22]. Elle réalise en fait ce qui n’est pas réalisé par le stemming en ce sens que lemmatiser un token consiste à la transformer en sa racine, et cette dernière doit être présente dans le dictionnaire. Par exemple, pour un mot au pluriel, il s’agira de le remplacer par son singulier, un verbe conjugué, par son infinitif,... Pour illustration, la
I.4. QUELQUES TECHNIQUES COURANTES DE TRAITEMENT DES TEXTES
lemmatisation consisterait à transformer par exemple "va", "allions", "irons" et "allé" par "aller" et "une" et "des" par "un". Cette tâche est grandement facilitée par des techniques de deep learning.
L’obtention des tokens peut également conduire à des tâches plus élaborées comme la détection des entités nommées et l’étiquetage morpho-syntaxique. Il s’agit des tâches très importantes que nous devons nécessairement mentionner.
I.4.5 Reconnaissance d’entités nommées (NER)[44]
La détection des entités nommées (Named Entity Recognition ou NER) consiste à repérer tout ce qui correspond à des noms de personnes, des noms d’organisations ou d’entreprises, des noms de lieux, des quantités, des distances, des valeurs, des dates ou tout autre élément qui constitue une nomination d’une entité existante précise dans un texte donné. Cette tâche est visiblement très importante dans la phase d’interprétation des données textuelles et il s’agit d’un simple problème de classification.
I.4.6 L’étiquetage morpho-syntaxique (POS tagging)
Le Part-Of-Speech tagging est une tâche consistant en gros, à associer aux éléments des textes, des informations grammaticales. En général, il s’agit d’associer aux termes des textes, leur nature grammaticale. Cela consisterait à dire que tel élément est un nom, tel autre un verbe,...[44, 22]
Cette tâche n’est pas une fin en soi. En effet, c’est une première étape dans l’analyse structurelle des textes, permettant de déduire diverses dépendances du point de vu linguistique. Elle est fortement facilitée par des approches basées sur le deep learning comme c’est le cas aussi pour la reconnaissance d’entités nommées.
Nous allons passer sous silence certains autres concepts du NLP comme le sacs de mots et le word embeddings dont nous parlerons dans la partie qui va suivre et qui présentera le résumé automatique, en tant que tâche du NLP.
I.5 Approches du NLP
Comme cela a été maintes fois mentionné, deux approches majeures sont d’usage pour traiter automatiquement les données de langage naturel. Il s’agit de l’approche numérique et de l’approche symbolique ou linguistique. Mais les deux approches sont dans la majorité des cas complétées par certaines heuristiques [31].
En ce qui nous concerne, l’approche sera essentiellement numérique avec un penchant prononcé pour les techniques du deep learning. D’ailleurs, concernant ces dernières techniques, les modèles de l’état de l’art les plus adaptés sont les transformers et leur présentation exige une revue chronologique car en effet, pour y arriver, des modèles classiques basés sur des réseaux de neurones récurrents (RNN) ont été utilisés car plus adaptés aux données séquentielles que sont les textes. Ensuite, le constat de leur mémoire limitée a fait à ce qu’on les modifie pour obtenir des unités à mémoire plus large dont les LSTM(Long Short-Term Memory) et les GRU(Gated Recurrent Unit). Furent ensuite introduits les mécanismes d’attention qui améliorèrent les techniques, aboutissant finalement aux modèles dits transformers, plus adaptés à des tâches de NLP élaborées.
I.5.1 Les réseaux de neurones artificiels (ANN)
Les réseaux de neurones artificiels (Artificial Neural Network ou ANN) sont un ensemble de neurones (artificiels) assemblés pour résoudre des tâches considérées comme requérant une certaine intelligence. Le neurone artificiel est un algorithme élaboré en s’inspirant du modèle théorique simplifié d’un neurone naturel. Il s’agit essentiellement d’une fonction d’agrégation ayant pour rôle de réaliser une somme pondérée des entrées qui lui sont présentées et d’une fonction d’activation qui formate la sortie de la fonction d’agrégation selon les valeurs attendues en sortie [12].
Les neurones sont généralement assemblés par couche comme présenté sur la figure qui suit :
Figure I.1: Réseau de neurones à une couche cachée et sans boucle [47]
Ce qui vient d’être présenté est suffisant pour avoir une idée globale de ce qu’est réellement un réseau de neurones artificiel. Néanmoins, nous pousserons plus loin pour toucher le plus vite possible aux modèles qui nous intéressent dans ce travail.
I.5.2 Les réseaux de neurones récurrents (RNN)
Un RNN(Recurrent Neural Network) est un type de réseaux de neurones conçu en principe pour traiter les données séquentielles, comme les données textuelles,...
La principale différence structurelle entre les ANN simples et les RNN est l’existence des connexions de récurrence dans ces derniers. Il s’agit des boucles permettant la prise en compte des sorties passées dans le traitement final des données [16].
Pour l’illustrer, rien de mieux qu’une image représentant la structure fonctionnelle des réseaux de neurones récurrents :
Figure I.2: Illustration de ce qu’est un RNN [22]
Où xi, hi et A représentent respectivement les entrées (à chaque pas temporel i), les états internes qui en résultent et le module récurent utilisé.
Pour une meilleure compréhension, une présentation formelle serait plus commode : Soient Wx la matrice des poids associée au vecteur d’entrée x, Wy une matrice associée au vecteur de sortie y et Wh celle associée au vecteur représentant les états cachés du réseau, avec bh et by respectivement les vecteurs des biais des neurones pour l’état caché et pour la sortie. Si on nomme aussi par yt la sortie du réseau à un instant donné t, on aura [15] :
ht
yt
= fact (Wxxt +Whht−1 +bh)
= gact Wyht +by
(I.1)
On voit très bien que la sortie du système dépend non seulement de l’entrée, mais aussi de l’état du système (h).
Les fonctions d’activation fact et gact qui sont mentionnées dans les équations I.1 représentent respectivement la tangente hyperbolique tanh et la fonction dite sof tmax [15].
L’entraînement des réseaux de neurones récurrents se fait de la même façon que pour les réseaux de neurones simples (avec uniquement une différence due au fait que pour le RNN on prend en compte le temps). On n’entrera pas dans le détail, vu que ce n’est pas exactement le sujet du travail mais, pour entamer la partie qui suit, il nous faut préciser que, comme pour les réseaux de neurones simples, l’entraînement exige d’appliquer une fonction de différentiation sur l’erreur produite par le système. Il s’agit de la fonction gradient. Mais, comme ici le gradient tient compte des grandeurs précédentes dans le temps, il y a un certain nombre de termes multiplicatifs qui peuvent amener le modèle à ne jamais converger ou au contraire, à la saturation. C’est le problème classique d’évanouissement (disparition) des gradients ou d’explosion des gradients [15].
En réponse au problème de disparition des gradients, les cellules LSTM (Long Short-Term Memory) sont utilisées en lieu et place des cellules RNN normales.
Les cellules LSTM
Les cellules LSTM (pour Long Short-Term Memory) sont utilisées en lieu et place des cellules RNN classiques (dites vanilla) pour permettre au réseau de traiter des séquences de plus en plus longues sans perte rapide d’information [16]. Pour cela, des éléments de contrôle de la mémoire de la cellule sont ajoutés. Pour illustrer nos propos, voici une image qui nous permettra de différencier une cellule RNN classique d’une cellule LSTM :
Figure I.3: Comparaison entre cellules RNN classique et LSTM [18]
Présentée comme cela, la cellule LSTM semble superflue mais si on présentait les équations associées à un réseau fait de ces cellules, on se rendra compte que c’est plutôt intuitif. Pour aborder les équations associées, considérons l’image suivante :
Figure I.4: Vue fonctionnelle d’une cellule LSTM [18]
Une cellule LSTM se comprend en la considérant comme constituée d’un ensemble de portes avec des fonctions bien particulières. Il s’agit d’une porte d’entrée, une porte d’oubli et une porte de sortie.
Il est évident que, pour chacune de ces portes que nous nommerons, à un instant t donné par It, Ft et Ot, le système doit apprendre ses paramètres en fonction de l’entrée et de l’état interne. Mais on doit aussi remarquer que, l’état est défini par deux paramètres au lieu d’un seul comme pour les RNN simples. Il s’agit, à un instant t donné, de ht (considéré comme état à court terme) et de ct (qui est un état à long terme mais dont le contenu est contrôlé, au vu de l’architecture de la cellule).
De ce que nous venons de dire, nous pouvons conclure que Ft, It et Ot sont des fonctions de Xt et de ht−1 aux poids près. On sait aussi que, si on veut une mémoire à long terme contrôlée, la valeur finale de ct doit être mise à jour en repérant ce qui doit être oublié parmi les éléments qui étaient précédemment dans la mémoire, pour y ajouter ensuite ce qui est sélectionné comme pertinent à l’entrée. Cela revient à utiliser Ft et It comme des portes de contrôle (ou de sélection). Et de cela on peut conclure que c’est plus intéressant d’avoir Ft et It qui prennent des valeurs entre 0 et 1 (pour modéliser la sélection) et ct devra dépendre de ces deux éléments, avec aussi l’état précédent de la mémoire à long terme.
Il est aussi vraisemblable que, l’état à court terme doit provenir de la mémoire à long terme (ça correspondra à une sélection de ce qui doit être pris en compte directement dans la mémoire à long terme). Cet état ht doit par conséquent dépendre de ct (il faut néanmoins noter qu’une autre approche serait possible ici, mais celle-ci est déjà pertinente). Finalement, on sait que la sortie finale doit nécessairement dépendre de l’état interne de la cellule. Il va ici s’agir de ht vu que la cellule est développée par analogie avec le processus de mémorisation des systèmes naturels (mémoire à court terme correspondant à la mémoire de travail).
De ce qu’on vient de dire on peut tirer que, fondamentalement on doit avoir :
F
t
I t
O
t
c t
h t
y t
= F (Xt,ht−1) = G(Xt,ht−1) = J (Xt,ht−1)
= K(ct−1,Xt,ht−1)
= L(ct)
= M(ht)
(I.2)
Avec F ,G,J ,K,L,M des fonctions dépendant des coefficients considérés (poids et/ou éléments de sélection qui sont les diverses portes définies).
Une implémentation classique de ce raisonnement se présente comme suit [16, 15] :
F
t
I t
O
t
c t
h t
y t
= σ Wf xXt +Wf hht−1 +bf
= σ WixXt +Wf iht−1 +bi
= σ (WoxXt +Wohht−1 +bo)
= Ft ◦ct−1 +It ◦tanh(WcxXt +Wchht−1 +bc)
= Ot ◦tanh(ct)
= Wyhht +by
(I.3)
Il faut remarquer qu’on a utilisé la fonction sigmoïde σ pour restreindre les valeurs des sélecteurs (portes) entre 0 et 1, puis on a utilisé le produit de Hadamard (produit terme à terme des matrices) pour réaliser effectivement la sélection grâce aux portes, en diminuant les termes dont les valeurs correspondantes des portes sont proches de 0 et en essayant de conserver ceux dont les valeurs correspondantes des portes sont proches de 1.
Cette implémentation peut être modifiée, surtout en ce qui concerne les fonctions d’activation utilisées (σ et tanh), et en particulier la fonction d’activation de finalisation tanh ici, mais c’est l’une des plus optimales.
Le seul problème qui demeure est que le nombre de termes à apprendre est très grand. Cela a fait à ce qu’on puisse essayer de le diminuer en implémentant le GRU (Gated Recurrent Unit) poussant un peu plus loin l’abstraction des portes pour diminuer le nombre de paramètres.
Les cellules GRU
Les cellules GRU (Gated Recurrent Unit) sont une autre implémentation des cellules des réseaux de neurones récurrents comme les LSTM à la différence près que, bien que partant de la même idée fondamentale évoquée précédemment, les GRU apparaissent comme une simplification des LSTM.
Elles possèdent néanmoins des performances comparables en ce qui concerne la prédiction des séries temporelles,... Les simplifications sont réalisées au niveau des états cachés et des portes. On conserve un seul état caché h (quitte à le contrôler à l’interne pour implémenter la mémorisation à long terme et à court terme). Et pour les portes, on fusionne les portes de sélection des entrées avec celle des éléments à oublier (donc les portes I et F) pour former une porte dite de mise à jour (porte qui sera appelée update ou U). La porte de sélection des éléments de sortie quant à elle, est transformée en porte de réinitialisation.
Ces deux portes (de mise à jour et de réinitialisation) sont en fait implémentées de façon identique que celles des cellules LSTM. La particularité des GRU se situe principalement au niveau de la gestion de la mémoire (l’implémentation du processus de mémorisation) car, ayant supprimé la distinction long-terme/court-terme, il fallait bien trouver un mécanisme devant permettre de bien gérer les deux aspects de la mémoire avec un seul état interne conservé.
C’est ainsi que, la porte de mise à jour (porte U) est introduite dans le calcul de l’état h pour assurer la sélection du type de mise à jour à effectuer. Il s’agit de faire en sorte que, selon l’état interne et l’entrée, tout l’état interne précédent soit considéré mais que certains éléments soient complètement modifiés, selon le besoin, et d’autres presque conservés.
Ainsi donc, h devient une combinaison d’éléments provenant de l’état interne précédent avec ceux provenant des nouveaux calculs effectués par la cellule (en fonction de l’entrée et de l’état interne précédent). Le comportement est alors le suivant :
Quand le vecteur de mise à jour a un terme proche de 1, cet état interne est presque conservé. Par conséquent, sa mise à jour est presque ignorée. Quand c’est plutôt 0, l’état interne précédent est presque ignorée et une mise à jour complète de cet état est effectuée.
La formulation mathématique permet de mieux en saisir le fonctionnement [16, 15] :
U
t
R
t
h t
y t
= σ (WuxXt +Wuhht−1 +bu)
= σ (WrxXt +Wriht−1 +br)
= Ut ◦ht−1 +(1−Ut)◦tanh(WhxXt +Whr (Rtht−1)+bc)
= Wyhht +by
(I.4)
Et pour illustration, on peut considérer l’image suivante :
Figure I.5: Cellule GRU [18]
Il faut noter que sur cette image (figure I.5), l’implémentation de la mise à jour est l’inverse de celle que nous avons décrit par les équations I.4. C’est-à-dire que les termes Ut et (1−Ut) sont permutés. Mais aussi, ici Zt représente Ut.
Ces modèles fonctionnent très bien et certaines implémentations permettent d’améliorer encore leurs performances. Ils sont néanmoins lents à entraîner, surtout à cause de l’aspect temporel. Parmi les techniques d’amélioration des performances, une peut être considérée car elle a un rapport direct avec notre travail. Il s’agit des mécanismes d’attention [3].
I.5.3 Mécanismes d’attention
Les mécanismes d’attention sont en bref des techniques permettant de lutter contre la perte de mémoire qu’on constate par exemple dans les cellules récurrentes ci-haut décrites, en se focalisant sur des éléments les plus importants à chaque traitement. Le travail consiste donc à repérer, pour chaque entrée, les éléments sur lesquels se focaliser.
C’est là qu’interviennent donc ces mécanismes.
L’une des implémentations les plus commodes est l’attention globale [30].
Pour l’expliquer, nous allons considérer une architecture jusque là passée sous silence, mais qui permet aux modèles introduits là haut de s’utiliser efficacement pour les tâches courantes du NLP en particulier. Il s’agit des modèles dits encodeur-décodeur.
En effet, lorsqu’on a un modèle à séquence fonctionnel, les objectifs peuvent être multiples. On peut vouloir :
1°) fournir une série d’éléments en entrée et ressortir une autre série (utile pour la prédiction de la valeur des actions par exemple,... );
2°) fournir un série en entrée mais faire ressortir un seul élément ou vecteur (utile pour la classification des textes, l’analyse des sentiments,...);
3°) fournir un vecteur plusieurs fois en entrée et produire une série (pour la génération des légendes pour des images par exemple,...);
4°) on peut aussi avoir un réseau série-vers-vecteur, appelé encodeur, suivi d’un réseau vecteur-vers-série, appelé décodeur (très utile pour la traduction et la synthèse automatique par exemple,...). Il s’agit du modèle encodeur-décodeur.
Une illustration par image sera suffisante :
Figure I.6: Réseaux série-vers-série (en haut à gauche), série-vers-vecteur (en haut à
droite), vecteur-vers-série (en bas à gauche) et encodeur-décodeur (en bas à droite) [16]
.
L’élément (le vecteur d’état) passé entre l’encodeur et le décodeur est dit vecteur de contexte. Il représente en quelques sortes un condensé des informations passés à l’entrée de l’encodeur. Toutefois, plus la séquence d’entrée est longue, plus le risque que la mémoire de certaines séquences puisse s’étioler devient grand. Ainsi, si par exemple on est entrain de vouloir traduire une longue phrase, on peut finir par transmettre un vecteur de contexte qui a perdu toute information sur les premiers éléments de la séquence passée en entrée. C’est pour cela qu’au lieu de passer un vecteur de contexte général, les mécanismes d’attention permettraient ici de ne se focaliser que sur certaines informations lors du traitement d’un élément particulier de la séquence (en ayant évidemment passé tous les états internes passés au décodeur). Pour le réaliser concrètement, le mécanisme d’attention global consiste à formater le vecteur de contexte en fonction des éléments de l’encodeur à prendre en compte lors du traitement par le décodeur.
Considérons que Ω, dont les termes sont représentés par wij, est la matrice des poids d’attention normalisés par une fonction softmax pour chaque ligne. Et que Π, dont les termes sont représentés par αij, est la matrice des poids d’attention générée par le mécanismes avant normalisation.Si les éléments ci représentent à chaque fois le vecteur contexte final à l’étape i de décodage et les hj sont les vecteurs d’état interne de l’encodeur, l’attention globale revient à réaliser la manipulation suivante, pour formater le vecteur de contexte à prendre en compte pour l’élément en cours de traitement [30] :
wij = sof tmax(αij) = Pekαeijαik (I.5)
ci = Pj wijhj
La dernière relation du système I.5 revient à réaliser une somme pondérée des vecteurs d’état internes passés de l’encodeur, selon l’importance de chaque état pour le traitement en cours. De ces équations il faut aussi remarquer que la notation des sommations n’est pas rigoureuse. Cela est volontaire car c’est intuitif (on réalise des sommations sur tous les éléments).
Plusieurs techniques arrivant à réaliser l’attention existent. En général, comme on peut d’ailleurs le déduire des relations de l’attention globale, ces mécanismes étaient utilisés dans le cadre des réseaux récurrents. Une question s’est toutefois naturellement posée : ne pourrait-on pas se passer des RNN pour mettre au point des réseaux complètement basés sur l’attention ?. La réponse est oui, avec des ajustements adéquats pour résoudre les faiblesses des modèles classiques dans le traitement des données séquentielles. C’est cela qui a conduit aux modèles dits transformers [50].
I.5.4 Les transformers
Il s’agit des modèles dont l’architecture générique se présente comme suit :
Figure I.7: Architecture générique des transformers [50]
Les transformers sont des modèles du type encodeur-décodeur comme on peut le constater sur la figure ci-dessus (bien que certaines implémentations n’en utilisent qu’une partie selon la tâche). Ils sont essentiellement basé sur les mécanismes d’attention, se passant de la récurrence [16, 15].
Nous donnerons une explication succincte de chacun des modules présents dans l’image I.7. En effet, présentons les modules selon l’ordre dans lequel les données traversent le modèle :
1°) Moduled’embedding : Nous savons que les données textuelles doivent être présentées au modèle sous forme numérique. Elles doivent donc être transformées avant de les passer aux parties suivantes. Néanmoins, vu que la représentation des entrées a
un impact significatif sur les performances d’un modèle, cette représentation doit être bien choisie. Un choix intuitif, et qui s’avère être performant, est de tout faire pour que si deux termes ont des sens proches, ils aient aussi des représentations vectorielles proches. Cela est réalisé par différentes techniques que nous présenterons dans le chapitre suivant, mais c’est là le rôle de la couche d’enchâssement (embedding).
2°) L’encodage positionnel (positionnal encoding) : Ce module ajoute l’information sur la position relative de chacun des éléments placés en entrée par rapport aux autres. Cela pallie au problème de perte d’information sur la position des mots quand on utilise un réseau non séquentiel comme les réseaux récurrents. Donc, la position de chaque terme de la séquence placée en entrée est encodée dans un vecteur puis ajoutée à l’encodage global du terme. L’un des encodages les plus utilisés est celui basé sur les fonctions trigonométriques tel qu’introduit dans [50].
3°) Module d’auto-attention : La couche d’attention, présentée en première position dans la boîte de l’encodeur, est en fait une couche dite de self-attention car elle opère sur la même séquence d’entrée. L’opération est réalisée pour permettre au modèle d’avoir une représentation de l’importance des termes dans la séquence d’entrée, les uns par rapport aux autres.
Pour illustration, considérons la phrase suivante : Walter est malade, il préfère se reposer.
Dans cette phrase, l’un des constats qu’on peut faire est que, le nom "Walter" est beaucoup plus lié au pronom "il" qu’au verbe "préférer". C’est à l’établissement des tels liens dans les représentations que sert le module d’auto-attention ici présenté. Il est important que ce lien soit implicitement présent dans les représentations, pour que le traitement soit efficace comme on l’a mentionné lors de la présentation des mécanismes d’attention. Donc cette couche est en fait un prolongement de celle d’embedding. Ici, le mécanisme d’attention utilisé est différent de celui qui a été présenté là-haut (attention globale). Il s’agit ici d’un mécanisme plutôt basé sur le produit scalaire mis à l’échelle (scaled dot-product). En effet, très brièvement, l’idée du scaled dot-product attention consiste à opérer une recherche des termes sur lesquels focaliser l’attention de la même façon qu’on réalise la recherche de la signification d’un mot dans un dictionnaire. Supposons qu’on veuille avoir la signification d’un mot dont on ne connaît pas l’orthographe exacte. Pour retrouver ce dernier dans un dictionnaire, il suffit de rechercher le mot qui ressemble le plus à l’orthographe que nous estimons être la plus vraisemblable. Mathématiquement, cette recherche de similitude correspond à un produit scalaire.
Similairement, le scaled dot-product consiste à générer trois éléments qui sont la clé ou key k, la valeur ou value v et la requête ou query q. La requête correspond au mot
qu’on cherche (orthographié selon ce que nous pensons), la clé correspond au mot présent dans le dictionnaire et la valeur correspond à la signification associée. Si on supposait qu’il existe plusieurs termes du dictionnaire qui s’orthographient presque de la même façon que le mot qu’on cherche, on devra passer par une mesure de similarité avant de se décider sur le sens le plus probable. Cela correspond à réaliser le produit de tous les k par les q présents, puis à normaliser l’ensemble des résultats de manière à ce qu’ils représentent des mesures de probabilité, et finir par choisir le sens v le plus probable.
Pour aller plus vite, on implémente ce processus en considérant tous les k, q et v au même moment de manière à réaliser le calcul une fois pour toutes. Cela revient à regrouper tous les k, q et v dans des matrices K, Q et V . Ce qui donne la relation qui définit l’attention par produit scalaire mis à l’échelle [50] :
Q ·KT
Attention(Q,K,V ) = sof tmax p ·V (I.6) dk
Dans cette relation, expression I.6, le terme pdk permet de mettre à l’échelle le résultat du produit scalaire de Q par K, c’est-à-dire Q·KT . Il faut noter que dk est la dimension d’une clé, et que cette normalisation permet d’améliorer les performances du modèle mais elle n’est pas la seule envisageable.
Il est aussi important de remarquer que la couche d’attention utilise trois termes pour arriver à bout du problème. Ces trois termes sont obtenus par une transformation linéaire dont les poids sont appris à travers un réseau de neurones simple.
Il faut aussi noter que l’on utilise parallèlement plusieurs modules d’attention pour capture toutes les caractéristiques des séquences (on parle de multi-head attention). Pour une plus ample illustration, voir la figure I.8.
4°) Le module feed-forward : Il s’agit en fait d’un réseau de neurones de propagation avant classique (réseau à couches ajoutées de façon séquentielle). Il permet de réaliser le traitement qui fait suite à l’attention.
5°) Couche d’attention encodeur-décodeur : Il s’agit de la couche qui reçoit les données en provenance de l’encodeur. Il s’agit ici d’une couche d’attention et non d’autoattention comme c’était le cas pour la première couche de l’encodeur. En effet, contrairement à la couche de self-attention, pour laquelle tous les trois paramètres sont calculés à partir de la même séquence, la couche d’attention ici prend les clés K et valeurs V provenant de l’encodeur mais une requête Q provenant du décodeur.
Une autre couche feed-forward suit celle-ci et a le même rôle que celle de l’encodeur.
6°) Module d’attention masquée : Il s’agit de la première couche du décodeur. C’est aussi un module de self-attention auquel on ajoute le masquage. Ce module est dit masqué suite au fait que, comme le décodeur est un module de génération, on ne regarde que les termes précédemment générés, en masquant les termes qui seront probablement générés aux pas d’après. Cela est réalisé en rendant juste leurs probabilités nulles.
7°) Module linéaire final : Il s’agit d’un réseau de neurones classique pour réaliser la déduction finale, le tout étant passé à la fin à travers une opération softmax qui permet de transformer les résultats en probabilité d’éléments générés (cela permet de choisir le terme le plus vraisemblable à générer comme sortie).
Cette explication simplifiée se comprend mieux si on y joint la vue éclatée suivante :
I.6. CONCLUSION PARTIELLE
Figure I.8: Vue éclatée d’un transformer [51]
Les transformers, ici succinctement présentés, sont un modèle très adapté aux tâches de traitement automatique du langage naturel. C’est un modèle incontournable vu aussi que ses traitements peuvent être facilement parallélisés. Cela est rendu possible par le fait que l’architecture des transformers est parallèle par essence.
I.6 Conclusion partielle
Nous venons de réaliser une vue d’ensemble du domaine de traitement automatique du langage naturel, ainsi que diverses techniques couramment utilisées. Pour cela, nous avons tout d’abord justifié la préséance des modèles basés sur le deep learning pour diverses tâches du NLP.
Ensuite, nous avons évoqué les technique de pré-traitement des textes, souvent incontournables, comme la réduction des séquences en leurs tokens constitutifs, la suppression des mots fréquents mais n’apportant pas assez d’informations et la réduction des mots en leurs racines respectives. Nous y avons aussi joint quelques techniques utiles à la compréhension du langage humain comme le POS tagging et la reconnaissance d’entités nommées. Ce qui précède nous a finalement conduit à présenter les modèles courants du NLP basés sur les RNNs et, nous avons terminé par la présentation de l’architecture transformer, modèle que nous utiliserons pour ce travail (les précisions sur les modèles particuliers seront données au chapitre suivant).
Les transformers constituent un type de modèle qui s’avère être le plus adapté (pour le moment) au résumé automatique du texte et, dans le chapitre suivant, nous commencerons par présenter les diverses spécificités du résumé automatique comme tâche du NLP, pour finir par présenter l’architecture globale du système que nous comptons élaborer.
Chapitre II
Présentation du résumé automatique et conception du système
II.1 Introduction partielle
Le résumé automatique étant le sujet principal de ce mémoire, dans cette partie nous le présentons alors en détail en tant que discipline et tâche du NLP. Nous allons ici présenter les théories sur la synthèse automatique des textes, en classifiant les diverses méthodes utilisées pour pouvoir situer notre système dans l’ensemble des travaux jusque-là menés sur ce sujet.
Ensuite, nous présenterons les diverses approches utilisées pour le résumé automatique, sans oublier d’approfondir notre présentation des modèles de type transformer adaptés à cette tâche, pour finalement mentionner le modèle que nous estimons le plus adapté concernant l’approche basée sur le deep-learning pour la synthèse automatique. Enfin, nous allons réaliser une conception rapide mais suffisante de l’architecture globale de notre système, tout en précisant le rôle et le fonctionnement de chaque partie.
II.2 Présentation et définitions
Selon Le Petit Robert, résumer c’est reprendre en plus court un discours, le présenter brièvement en conservant l’essentiel. En d’autres termes, c’est l’abréger, l’écourter, le réduire. De même, en tant qu’exercice intellectuel, le résumé, consiste à réduire un texte tout en lui restant fidèle. Il exige donc de restituer les idées en un nombre déterminé de mots, en évitant au mieux de recopier le texte à résumer. Il faut alors composer un texte
29
plus court qui contienne l’essentiel du message initial.
De cela on tire que le résumé devient automatique s’il est généré par un logiciel ou un système informatique.
Cette définition est en fait correcte bien qu’elle ne soit assez précise pour notre contexte. Il nous faut une définition assez générale et précise, embrassant au mieux l’aspect automatique, ou mieux, l’aspect informatique, qui nous intéresse dans ce mémoire. Une définition assez valable est celle de TORRES-MORENO Juan-Manuel qui dit qu’un résumé automatique est un texte généré par un logiciel, cohérent et contenant une partie importante des informations pertinentes de la source, et dont le taux de compression est inférieur au tiers de la taille du(des) document(s) source(s) [48].
L’introduction du taux de compression dans la définition n’est pas anodine car, on s’est très vite rendu compte que la performance d’un système de résumé automatique dépendait fortement du taux de compression. En effet, les études de [26] montrent que les meilleures performances des systèmes de résumé automatique sont généralement atteintes pour des taux de compression compris entre 15 et 30% [48].
Nous allons adopter, dans ce travail, la définition de TORRES-MORENO Juan-Manuel ci-haut présentée.
Toutefois, on ne doit pas manquer de signaler que la génération automatique des résumés est un problème complexe en soi, tout comme l’évaluation des résultats. Le résumé est en effet une tâche cognitive requérant la compréhension du texte considéré et, les humains n’étant pas toujours bons dans les tâches de synthèse, le manque d’étalon explique qu’il y ait également une difficulté d’automatisation du processus.
II.3 Catégorisation des résumés
Les résumés peuvent être classifiés selon différents critères tels que leur fonction, le nombre de documents source, le genre de document, le type de résumé, le type de résumeur, le contexte,...
II.3. CATÉGORISATION DES RÉSUMÉS
Parcourons de manière succincte ces différents critères de classification [36, 31, 32, 38, 37, 48] :
II.3.1 Selon la fonction
Selon leur fonction, on classifie les résumés en deux groupes qui sont le résumé indicatif et le résumé informatif.
Résumé indicatif
Tel une table des matières, un résumé indicatif renseigne le lecteur sur les thèmes abordés dans un document. Il liste donc les sujets les plus importants évoqués par le texte. Certains systèmes de résumé guidé génèrent un résumé indicatif du texte comme étape initiale, l’utilisateur choisit alors parmi les sujets proposés par le résumé ceux qui l’intéressent et le système produit enfin un résumé informatif du texte guidé par la requête de l’utilisateur. La requête dans ce cas est l’ensemble des sujets sélectionnés à partir du résumé indicatif.
Résumé informatif
Il s’agit d’un modèle rétréci du texte d’origine, relatant le plus largement possible les informations contenues dans celui-ci. Ce type de résumé répond souvent à une attente en résumant de plus le contenu. La problématique ici est donc double : comprendre ce qui n’est pas information dans un texte et connaître le besoin de l’utilisateur final. Néanmoins, si on n’a pas de requête spécifique de la part de l’utilisateur, le résumé informatif est réalisé en veillant à ce que l’ensemble des principaux sujets du texte d’origine soit rapporté. Ainsi, les sujets principaux qui sont rappelés dans le résumé sont répartis de manière fidèle par rapport à l’organisation initiale afin de donner un juste aperçu du texte source.
II.3.2 Selon le nombre de documents source
Selon le nombre de documents source on a les résumés mono-document et multidocument.
Résumé mono-document
Il consiste à résumer un document isolé. Le corpus de documents source est donc ici constitué d’un seul et unique document.
Résumé multi-document
Il s’agit d’un résumé de plusieurs documents (un groupe de documents), très souvent liés thématiquement, en faisant attention à ne pas insérer des informations déjà évoquées.
II.3.3 Selon le genre des documents
Résumé des documents journalistiques
Il s’agit de résumer les documents du type article de presse (sachant qu’ils ont une structure particulière). En effet, on sait par exemple que dans le domaine journalistique, les informations les plus importantes sont souvent mentionnées au début du texte.[36]
Résumé des documents spécialisés
Il s’agit de résumer des documents en provenance d’un domaine précis (géologie, médecine, mathématique,...), fortement spécialisé.
Résumé des documents littéraires
C’est le résumé de documents du type narratif, des textes littéraires, des textes argumentatifs, ...
II.3. CATÉGORISATION DES RÉSUMÉS
Résumé des documents encyclopédiques
Ici il s’agit de résumer des documents de type encyclopédique (en général multithématiques de toute évidence) à l’exemple de Wikipédia...
II.3.4 Selon le type de sortie (résumé obtenu)
Cette classification est très importante et très utilisée. Il s’agit des :
Résumés extractifs (extractive summarization)
Le résumé extrait est formé de segments de texte extraits du(des) document(s) source(s). Ces segments peuvent être des phrases, des propositions ou n’importe quelle unité textuelle présent dans le(s) document(s) à résumer. Le problème consiste donc à repérer les segments de texte qui semblent être les plus pertinents pour faire partie du résumé final. Les éléments obtenus à la fin sont donc explicitement présents dans le(s) document(s) source(s).
Résumés abstractifs (abstractive summarization)
Les méthodes de résumé abstractives imitent, jusqu’à un certain degré, le processus naturel accompli par l’homme pour résumer un document. Par conséquent, elles produisent des résumés plus similaires aux résumés manuels (humains). Ce processus peut être décrit par deux étapes majeures : la compréhension du texte source et la génération du résumé. La première étape vise à analyser sémantiquement le contenu du texte et à identifier les parties à exprimer dans le résumé. C’est en quelques sortes une tâche d’extraction d’information liée au domaine abordé ou de regroupement des phrases du texte source. Vient ensuite la génération du texte.
Bref, on produit un résumé rapportant le contenu du(des) texte(s) source(s) en utilisant un vocabulaire différent et plus concis.
Il existe aussi des résumés dits semi-extractifs, et même aussi des résumés dits par compression [48] mais nous estimons inutile de les décrire ici étant donné que la distinction abstractif-extractif suffit pour notre contexte.
II.3.5 Selon le type de résumeur
Le résumeur est le système qui réalise le résumé. Il peut s’agir d’une entité naturelle (un humain) ou artificielle (un logiciel). On a donc essentiellement les deux cas suivants :
Résumé humain (manuel)
Il s’agit d’un résumé réalisé par un humain. Il peut être fait par l’auteur même du document (on parle souvent de résumé d’auteur), par un expert du domaine traité (on parle souvent de résumé d’expert) ou par un professionnel de résumé (on parle de résumé professionnel).
Résumé automatique
Il s’agit, comme on l’a maintes fois mentionné, d’un résumé fait par un système informatique.
II.3.6 Selon le contexte
Résumé générique
Ici on résume le document sans prendre en compte les besoins d’information de l’utilisateur. On produit juste un résumé complet et le plus mieux fait possible.
Résumé guidé
Pour ces types de résumé, l’utilisateur commande la génération du résumé en précisant les types d’information dont il a besoin.
Résumé mis à jour
Il s’agit d’un résumé de type dynamique par essence. Ici, un ensemble de documents sources est résumé en veillant minutieusement à ce que le document dont le résumé est ajouté à la suite d’un précédent résumé ne puisse pas créer une répétition d’information.
Il y a donc un contrôle de nouveauté.
II.3.7 Selon le destinataire du résumé
On peut aussi classifier un résumé selon le public auquel il est destiné.
Résumé sans profil
Il s’agit d’un résumé qui ne tient pas compte d’un quelconque profil utilisateur. Le résumé est donc généré sans tenir compte de la personnalité des utilisateurs.
Résumé avec profil
Il s’agit d’un résumé dont l’un des éléments guides (requête) est le profil des individus auxquels le résumé est destiné.
En ce qui concerne notre système, nous implémenterons à la fois un résumeur abstractif et un résumeur extractif et ce sera mono-document. En plus de cela, le résumé ne sera pas guidé, il s’agira de produire des résumés génériques, pour des documents de type littéraire (documents du type narratif, des textes littéraires, des textes argumentatifs,...).
II.4 Approches de résumé automatique
Nous allons présenter ici diverses approches algorithmiques pour résumer les documents textuels. Les approches seront abordées en supposant que les résumés sont principalement classés en abstractif et extractif.
II.4.1 Techniques intuitives de résumé [36]
Avec des critères centrés sur le contenu des textes, il existe un grand nombre d’algorithmes assez triviaux de résumé, qui sont basés entre autres sur : • La fréquence d’occurrence des mots et
• L’annotation en rôle sémantique.
Ces critères mettent l’accent sur le contenu du texte et le message qu’il communique.
Fréquence d’occurrence des mots
L’idée majeure des techniques qui utilisent ce critère consiste à considérer que les mots les plus fréquents sont les plus liés au sujet principal du texte à résumer. Cette approche assez simpliste mais fonctionnelle fut introduite en 1958 par Luhn [29], une première tentative de résumé automatique.
On affecte des scores aux phrases présentes dans le texte, en additionnant chaque fois les poids des mots les constituant (on attribue ce poids en fonction de la fréquence d’apparition du mot considéré dans le texte entier). Et, à la fin, le résumé est constitué avec les phrases extraites du texte source, et dont le score dépasse un certain seuil dépendant de la taille maximale imposée pour le résumé. Le tout est finalement réarrangé selon l’ordre d’apparition (des phrases sélectionnées) dans le texte d’origine.
L’annotation en rôle sémantique
Ici, l’idée est simple. En utilisant des techniques de repérage d’entités nommées (voir le chapitre précédent), on identifie les entités présentes dans le document. Après cela, l’entité la plus fréquente est identifiée et considérée comme entité principale. Par la suite, les phrases contenant cette entité sont sélectionnées. Enfin, seules les phrases où l’entité principale possède un rôle sémantique fondamental (non auxiliaire) sont gardées pour le résumé.
L’un des moyens les plus simples pour repérer les entités nommées est de passer par l’apprentissage profond comme on l’a précédemment mentionné.
Il existe tout de même des techniques qui ne se fient qu’à la forme et à la structure du texte, sans en considérer le contenu. L’intuition derrière cette approche est basée sur le constat que dans un texte, les éléments ne sont pas présentés de façon arbitraire. De manière usuelle, les techniques utilisées se basent sur :
La position des phrases;
La similarité avec le titre
La longueur des phrases ou sinon,
Les mots indices (cue word)
La position des phrases
Cette approche est à appliquer en fonction de la nature du document et de son genre. Pour certains types de documents (documents journalistiques par exemple), les phrases se trouvant au début sont généralement plus informatives et décrivent le sujet principal du document. De plus, les phrases situées au début de chaque paragraphe tendent à apporter plus d’informations pertinentes. Le résumé des articles scientifiques par contre, peut essentiellement se former en se basant sur les contenus des parties résumé et introduction (sous l’hypothèse que ces dernières parties sont bien faites). En revanche, dans le cas des revues intégratives (critique et comparaison des études), les phrases les mieux notées sont celles des parties résultats et discussion et conclusion.
Ces exemples suffisent pour illustrer dans quelle mesure cette approche peut s’appliquer.
La similarité avec le titre
Cette approche part du principe selon lequel un bon titre doit informer de manière brève du contenu principal du texte qu’il encadre. Cela permet alors de fixer comme mesure de pertinence des phrases, leur similarité avec les titres. Toute la problématique se réduit donc à la construction d’algorithmes capables de capturer efficacement la similarité.
La longueur des phrases
L’approche consistant à se baser sur la longueur des phrases est assez naïve mais fonctionnelle.
En effet, la longueur moyenne d’une phrase dans un texte dépend de son genre. Généralement, les phrases très courtes sont considérées comme peu informatives alors que les phrases très longues sont présumées favoriser la redondance. Cette caractéristique est exploitée en fixant un intervalle de longueur (entre 15 et 30 mots). Une phrase ayant une longueur en dehors de cet intervalle est pénalisée [45].
Les mots indices
Ici, on considère une liste de mots, constituée manuellement, et qui a comme rôle de permettre de se décider si une phrase doit être prise dans le résumé ou rejetée, selon qu’elle contient ou non un(des) mot(s) de la liste qualifié(s) inhibiteur(s) ou valorisant(s). Comme exemple des mots ou groupes de mots inhibiteurs on trouve : par exemple, accessoirement, ... Et pour les mots valorisants on peut citer : notez bien, ...
Nous devons quand même préciser encore une fois que tout dépend de celui qui écrit la liste.
Les méthodes que nous venons de présenter sont assez intuitives mais constituent la base des processus de synthèse. En effet, synthétiser un texte revient au fond à implémenter un certain nombre de règles, dont font parties évidemment celles que nous venons de mentionner. Néanmoins, ce que nous venons de présenter est décrit en se basant sur le concept de résumé extractif. Nous devons toutefois signaler que les résumés abstractifs se basent au fond sur les mêmes principes, soit en partant des résumés extractifs pour ensuite réaliser des paraphrases, insérer des connecteurs appropriés et éliminer les références anaphoriques dans les résumés, soit en implémentant indirectement toutes ces techniques à travers un modèle d’apprentissage automatique ou un modèle basé sur les graphes capables de capturer d’un seul coup tous ces aspects (ou une grande partie d’entre-eux). Les techniques intuitives ci-haut présentées ne sont pas les seules. Il en existe également d’autres, basées essentiellement sur les théories linguistiques. Entre autres les méthodes d’analyse du discours (par exemple la RST [31] ou Rhetorical Structure Theory)...
II.4.2 Algorithmes classiques de résumé automatique
Comme nous venons de l’introduire dans la section précédente, le résumé automatique est abordé essentiellement selon deux approches qui sont [31] :
1°) Les approches numériques, fondées sur les techniques à base des scores (poids), et
2°) Les approches symboliques fondées sur les techniques purement linguistiques, basées en premier sur une étude sémantique.
Il faut noter qu’on peut considérer aussi des approches basées sur la théorie des graphes comme intégrant les idées de ces deux approches de façon implicite, tout comme celles basées sur l’apprentissage automatique. Mais, dans tous les cas, une vue sur quelques heuristiques (méthodes basées sur le bon sens) est toujours à considérer (surtout en amont, puis en aval du processus de synthèse).
Ici, nous allons présenter les approches essentiellement numériques (on va y inclure celles basées sur l’apprentissage automatique et celles basées sur la théorie des graphes).
Algorithme de Luhn [29]
Il s’agit d’une méthode heuristique pour la synthèse des documents. C’est la plus ancienne méthode de résumé automatique (au sens moderne du terme).
Cette approche n’est pas considérée comme très bien formalisée. Elle exécute implicitement l’approche du TfIdf que nous allons décrire dans la sous-section qui suit celle-ci (sous-section II.4.2).
La sélection (des mots ici) se fait en considérant les hypothèses qui suivent :
la synthèse consiste à supprimer certains mots pour n’en conserver que les plus importants;
les mots se trouvant au début sont probablement importants;
les autres mots utiles respectent une certaine distribution. La figure II.1 montre, selon Luhn, comment choisir ces mots importants (partie hachurée de la courbe).
Figure II.1: Diagramme des fréquences des mots et le choix de Luhn [29]
Cette approche, comme on l’a mentionné au début, est assez moins précise et empirique, mais elle sous-entend les idées fondamentales appliquées plus tard.
Algorithme TF-IDF
Le tf-idf (time-frequency inverse document frequency est une approche essentiellement utilisée pour le résumé extractif. Il s’agit d’une correction de l’approche naïve consistant à poser que plus un mot est répété dans un corpus de texte, plus il y est important.
Soit donc un corpus constitué de D documents et Nj le nombre total de mots (termes) présents dans un document j donné du corpus. Nommons Freq(i,j) le nombre de fois qu’un terme i apparaît dans le document j.
On définit classiquement la fréquence d’apparition par :
Freq(i,j)
T F(i,j) = (II.1)
Nj
L’approche qui se base naïvement sur la fréquence d’apparition des mots dans les textes pour juger de leur importance relative, accorde à chaque mot un poids égal à T F(i,j). La grande faiblesse de cette approche est d’inclure ainsi des termes sans grande pertinence informationnelle comme des prépositions, des articles,... très présents au sein des documents.
Pour corriger cette faiblesse, on pose l’hypothèse que les termes importants apparaissent plusieurs fois dans un document (ou juste dans peu de documents du corpus) et non pas dans plusieurs documents. Puisque dans ce second cas, il est souvent question des éléments communs du langage, sans grande utilité informationnelle. Ceci constitue en fait la loi de Zipt [55] et c’est le fondement de l’approche du tf-idf.
A cet effet, on définit DFi comme étant le nombre de documents dans le corpus, qui contiennent le terme numéro i. Cela permet d’affecter alors le poids selon la formule [5] :
D !
T FIDF(i,j) = log(1+T F(i,j))·log (II.2)
DFi
Dans l’expression, II.2, en supposant que N est le dictionnaire des termes présents dans l’ensemble des documents, il faut noter que : i ∈ {1,...,N} et j ∈ {1,...,D}.
D’où finalement, le poids d’un terme i dans un document j est donné par :
wij = T FIDF(i,j) (II.3)
Pour notre cas, l’application de cette approche consiste à décomposer un long texte en ses phrases et de considérer que chacune de ces phrases est un document et que le texte entier constitue le corpus.
Plusieurs définitions des éléments T F(ij) et IDFi formant l’expression II.2 sont toutefois possibles selon les besoins en terme de performance.
Mais, dans l’ensemble, l’idée de base demeure la même car il ne s’agit en général que de changement des types de normalisation [55].
L’application de cette méthode pour le résumé consiste finalement à calculer le poids de chaque phrase en additionnant les poids des termes la constituant, puis à normaliser le résultat en fonction de la taille de la phrase considérée. Après tout, on définit un seuil qui permet de soutirer les phrases selon leur pertinence ainsi évaluée (en considérant évidemment plus pertinente une phrase dont le résultat de la sommation des poids est élevé).
Algorithme TextRank
TextRank est un algorithme de résumé extractif, basé sur la théorie des graphes et qui s’inspire de l’algorithme PageRank de Google [8, 4].
A la base, on considère un ensemble de N phrases donné, et on calcule les coefficients de liaison de chaque phrase aux N −1 autres. A la fin, on peut obtenir une matrice M de taille N ×N dont chaque terme Mij représente le degré de liaison entre la phrase numéro i et la numéro j. Il s’agit en fait d’une matrice d’adjacence dans laquelle on pose au préalable que Mii = 0, pour tout i (c’est la même idée pour l’algorithme PageRank étant donné qu’il est logique de considérer qu’une page ne peut s’auto-référencer).
Soit donc i ∈ {1,...,N}. Appelons P hri la phrase numéro i du corpus. Cela veut dire qu’on peut écrire :
Liaison P hri ↭ P hrj = Mij = Mji (II.4)
Les valeurs de Mij sont calculées au choix, selon le programmeur. Ce dernier implémente en effet une mesure de similarité selon sa définition de la liaison entre phrases et les besoins en performance.
C’est ainsi qu’on peut utiliser par exemple une mesure de similarité classique nommée similarité cosinus en la basant par exemple sur T FIDF [19].
Pour représenter les mots à comparer, on utilise les méthodes classiques de vectorisation des mots (word embedding). Nous esquisserons ces méthodes dans les sections qui vont suivre, parlant du word embedding ( II.5 ).
Le rang des phrases sont alors calculés de manière itérative en s’inspirant de la formule [33] :
N
Xh i
T extRank(P hri) = (1−K)+K · T extRank(P hrj) ·Mij (II.5)
j=1 j,i
Dans cette formule, K est une constante comprise entre 0 et 1.
Initialement, on prend en général une valeur identique de T extRank(P hri) pour toutes les phrases (souvent T extRank(P hri) = 1), mais la valeur initiale prise n’affecte pas les valeurs finales, juste le temps de convergence [33].
La formule II.5 n’est pas arbitraire, elle est d’ailleurs triviale si on s’inspire de l’algorithme de PagePank la plus simple. Pour cet algorithme (PageRank), on avait pris à l’origine K = 0.85 [8].
Justification de la formule Le principe de PageRank consiste à se dire que, si une page
P agi contient Ni références vers d’autres pages, la probabilité qu’on aille vers l’une de ces pages référencées est de N1i (avec l’hypothèse que les références ne sont pas répétées et que la distribution de leur importance est uniforme). On sait tout de même que plus une page est référencée, plus on doit lui donner de l’importance.
Si alors on pose que l’importance de la page P agi est connue, le calcul de l’importance d’une page P agj vers laquelle elle pointe se calculera logiquement par :
X 1
Importance(P agj) = Importance(P agi)· (II.6) i Ni
Avec i appartenant à l’ensemble des pages qui mentionnent la page P agj en leur sein.
Malheureusement, pour les phrases non référencées (pages dites isolées), on trouve une importance nulle. Pour lutter contre cela, la formule II.6 est un peu modifiée en y introduisant adéquatement une constante non nulle K.
Ce qui donne l’expression [8] :
X 1
Importance(P agj) = (1−K)+K · Importance(P agi)· (II.7) i Ni
On voit alors qu’il s’agit belle et bien de la formule utilisée pour TextRank (formule II.5).
Après initialisation des rangs de chaque phrase du texte ( les T extRank(P hri)) et après calcul de la matrice d’adjacence M. On applique la formule II.5 itérativement et à la convergence, on choisit les phrases qui vont former le résumé selon leur importance ( valeurs des T extRank(P hri) pour toute valeur de i).
A la fin, les phrases sélectionnées sont réarrangées pour former un résumé extrait plus ou moins cohérent.
Il existe également un algorithme nommé LexRank [14] qui est assez similaire à TextRank ici décrit, à la différence près que :
Il prend essentiellement en compte les métriques de similarité robustes;
Il considère la position et la longueur des phrases dans le calcul de leur pertinence; - Il est optimisé pour le résumé multi-document.
Plusieurs autres algorithmes populaires existent, par exemple les algorithmes LSA (Latent Semantic Analysis ou Analyse Sémantique Latente) et LDA (Latent Dirichlet Allocation ou Allocation Latente de Dirichlet) [5].
Le premier, la LSA, est un algorithme statistique, basé sur l’algorithme SVD (Singular Value Decomposition ou décomposition en valeurs singulières). Seulement, cette technique est très gourmande en ressources suite à la complexité de l’algorithme qui implémente le SVD. Le second, la LDA, basé sur la détection des thématiques, peut aussi être utilisé.
Toutefois, il faut remarquer que les algorithmes ici présentés sont essentiellement adaptés à la synthèse extractive. Même si, ces traitements peuvent être mélangés avec les techniques de résolution d’anaphores et les paraphrases pour obtenir des synthèses qui tendent vers la synthèse abstractive, nous devons souligner que les techniques jusque là les plus performantes pour la synthèse abstractive sont essentiellement basées sur le deep learning [36]. Le deep learning peut également être utilisé pour la synthèse extractive, permettant ainsi la génération des synthèses extraites plus cohérentes (avec résolution d’anaphores). Ainsi donc, nous abordons les méthodes de deep learning utilisées pour cet effet dans les parties qui suivent.
II.5 Modèles Seq2Seq
II.5.1 Methodes du Word-Embedding
Tout traitement commence par une représentation numérique des termes (des mots ici) pour qu’ils soient assimilables par le modèle. Une approche naïve consisterait à regrouper tous les mots de notre vocabulaire dans une liste (un dictionnaire) et de les représenter chacun par un nombre unique (un identifiant). Une autre approche, plus classique, consiste à représenter chaque mot par un vecteur de dimension égale à la taille du dictionnaire et dont tous les termes sont nuls, sauf à la position, dans le dictionnaire, du mot qu’on est entrain de vouloir représenter (on parle du one-hot encoding).
Ces représentations, et toutes celles qui s’y apparentent, ont la grande faiblesse d’être peu informatives (au point de vu sémantique). Étant artificiellement construites, sans tenir compte du sens des mots, ni de leur contexte, ces méthodes de représentation rendent la tâche de découverte des caractéristiques par les systèmes de machine learning encore plus difficile. D’ailleurs, l’une des faiblesses de la seconde méthode décrite (le one-hot encoding) est que les vecteurs sont creux (une majorité de valeurs nulles) et de dimension inutilement très grande. On pourrait directement songer à une représentation plus judicieuse pour éviter ces deux soucis, et qui consisterait à réaliser une représentation binaire des termes mais, le problème de la sémantique sera toujours là.
On recourt donc à des méthodes de représentation plus élaborées, partant du principe selon lequel le contexte d’un mot suffit pour en appréhender le sens. Ainsi, tout mot est représenté en réalisant une statistique (implicitement bien sûr) sur les divers mots qui l’accompagnent souvent, de telle sorte que les mots aux sens proches aient aussi des vecteurs très proches. Bref, on en arrive à réaliser la proposition : "Similarité sémantique implique similarité de représentation". Ce sont les méthodes classiques du word embedding (ou plongement lexical). Il s’agit par exemple des méthodes comme le Word2Vec [34, 35], Glove [39], fastText [6]...
II.5.2 Modèles séquence-à-séquence proprement dits
S’agissant des modèles séquence-à-séquence (Seq2Seq), ils ont été présentés dans la section I.5.3 (voir particulièrement la figure I.6). Il s’agit bel et bien des modèles adaptés aux tâches de synthèse, vu qu’en entrée on reçoit une séquence pour ressortir une autre séquence en sortie.
Comme nous l’avons déjà bien mentionné au précédent chapitre, nous n’allons parler que des modèles Seq2Seq de type transformer car actuellement, ils sont les plus adaptés à la tâche que nous voulons réaliser (celle de synthèse automatique). Les transformers (voir la figure I.7) sont un modèle très avantageux car en fait, au-delà de leurs performances et autres avantages, ils facilitent encore plus la recherche en NLP en rendant effectif le transfer learning (apprentissage par transfert) dans ce domaine.
L’entraînement des transformers est semi-supervisé. Il se fait en deux crans (nous les décrirons dans le cadre du NLP) :
1°) Pré-entraînement : il s’agit d’un apprentissage non supervisé, qui consiste à donner au modèle une masse colossale de données textuelles, non étiquetées, pour qu’il développe une compréhension statistique du langage qu’on veut qu’il puisse assimiler.
Au final, on obtient un modèle pré-entraîné.
2°) Affinage de l’apprentissage (fine-tuning) : Ça consiste à finaliser l’apprentissage du modèle pré-entraîné de manière supervisée pour qu’il soit en mesure de réaliser une tâche donnée du NLP (il s’agit du transfer learning en fait). Cette spécialisation, requiert une très faible quantité de données car le modèle aura déjà une représentation assez bonne de la langue. Cela pallie à la fois au problème de manque des données labellisées en NLP et de la consommation en terme de ressource énergétique des gros modèles lors de leur entraînement.
Les méthodes de pré-entraînement sont très déterminantes pour les performances finales du modèle. Ce premier entraînement du modèle a pour rôle de l’amener à construire un modèle de langage [25].
Il existe ainsi plusieurs objectifs de de pré-entraînement (pour construire le modèle de langue). On peut par exemple entraîner le modèle à :
Prédire le mot suivant : donc, lors de cet entraînement non supervisé, on fournit chaque fois au modèle une séquence de mots en lui demandant de prédire le suivant. Il s’agit d’un objectif d’entraînement dit NSP (Next Sentence Prediction) visant à transformer implicitement le transformer en un modèle de langue [11];
Deviner le mot caché (masqué) : on fournit au modèle du texte dont certaines parties (mots ou suite de mots) sont cachées. L’objectif assigné au modèle est alors de retrouver les mots masqués. On parle du MMLMasked Language Modelling [11].
Ainsi, au fur et à mesure, les paramètres du modèle s’affinent, le transformant en un modèle de langue performant. Mais, à part les deux que nous venons de mentionner, il existe d’autres objectifs de pré-entraînement [25, 54] selon les variantes de transformers et les objectifs finaux de spécialisation du modèle.
Bien que la forme classique des transformers est bel et bien celle de la figure I.7, il existe 3 types d’implémentation selon les types de tâche visées en dernier lieu :
1°) Modèles à encodeur seul : on supprime la partie décodeur. Ces modèles sont très bons pour les tâches de compréhension du langage comme la classification par exemple.
2°) Modèles à décodeur seul : on supprime alors la partie décodeur du modèle. Ils sont bons pour les tâches de génération de texte.
3°) Modèles encodeur-décodeur : ou encore modèles seq2seq proprement-dits. Ils sont bons pour les tâches demandant à la fois la compréhension et la génération des textes.
Pour illustrer ce fait, on va considérer donc 3 types de transformers [49, 52] :
1°) Like-BERT : semblables au transformer dénommé BERT Bidirectional Encoder Representations from Transformers. Ce sont des modèles du type encodeur seul. Ils sont également bidirectionnels. Donc, les phrases sont lues dans les deux sens pour mieux saisir tout le contexte.
2°) Like-GPT : donc semblables au transformer dénommé GPT (Generative Pre-trained Transformer) qui n’ont que la partie décodeur et sont dits auto-regressifs car, seules les parties précédant le mot en cours de traitement sont connues du modèle et il y a chaque fois réinjection des sorties à l’entrée.
3° Like-BART/T5 : semblables à BART (Bidirectional and Auto-Regressive Transformers) ou à T5 (Text-To-Text Transfer Transformer). C’est donc ceux du type encodeur-décodeur.
Modèles encodeurs (encoder-model) : Comme on l’a dit, pour ces modèles, on n’implé-
mente que la partie encodeur du transformer d’origine (celui de Vaswani et al. [50]). En plus de cela, ces modèles ont une couche d’attention bidirectionnelle et sont généralement appelés auto-encodeurs (auto-encoding model). Ces modèles sont principalement bons pour les tâches de NLU (Natural Language Understanding) comme la classification, le NER (Name Entity Recognition), l’extractive question-answering,...
Dans ce groupe, les modèles les plus connus sont :
ALBERT [24],
BERT [11],
DistilBERT [43],
RoBERTA [28],
Etc.
Modèles décodeurs (decoder-models): Utilisent seulement la partie décodeur, sont auto-
regressifs et par conséquent les têtes de self-attention n’accèdent qu’aux mots précédant l’étape à laquelle elles sont (pas de regard dans le futur) comme on l’a déjà un peu mentionné. Ces modèles sont particulièrement bons pour les tâches liées fortement au NLG (Natural Language Generation).
Dans ce groupe, les modèles les plus connus sont :
Les GPT (1, 2 et 3) [41],
TransformerXL [10],
Etc.
Modèles encodeur-décodeur (sequence-to-sequence models): Ces modèles utilisent l’in-
tégralité de l’architecture des transformers et sont ainsi bons pour les tâches demandant à la fois du NLU et du NLG comme la synthèse automatique abstractive, le generative question-answering et la traduction automatique.
Ici nous pouvons particulièrement mentionner les modèles comme :
BART [25],
mBART [27],
BARThez [13],
T5 [42],
mT5 [53], • PEGASUS [54],
Etc.
II.5.3 Modèle BART pour la synthèse abstractive
Le modèle BART est comme une combinaison de BERT [11] et de GPT-2 [40, 41] en terme
d’architecture et d’objectif de pré-entraînement, avec quelques optimisations supplémentaires [25]. Pour illustration, voici une image de comparaison :
Figure II.2: Comparaison simplifiée entre BERT, GPT et BART [25]
L’image II.2 étant claire, nous pouvons illustrer les diverses corruptions que peuvent subir les données pour le pré-entraînement. L’image ci-dessous l’illustre :
Figure II.3: Transformations de bruitage expérimentées pour BART [25]
Le modèle BART est bien adapté à la tâche de synthèse abstractive. C’est celui que nous
allons privilégier (les modèles dérivés de BART principalement) pour réaliser cette tâche dans notre système.
Justification du choix de BART
Le choix de BART est dû au fait que c’est le modèle que nous avons trouvé réalisant un bon compromis poids-performances. Aussi, après quelques tests, ses résultats nous ont paru être plus intéressants. En outre, l’objectif d’entraînement utilisé pour BART nous paraît assez général pour construire un modèle de langage performant. Nous justifierons plus précisément ce choix dans le chapitre qui suit, en présentant également quelques résultats des tests.
II.6 Conception de l’architecture globale du système
Il existe un large éventail des méthodes de développement des systèmes informatiques mais, en règle générale, toutes suivent les étapes suivantes [7] :
1°) Spécifications : on définit avec précision ce que fera le système (à quoi est-il destiné?);
2°) Conception et mise en oeuvre : on conçoit et on réalise le système;
3°) Validation : on teste le système pour voir s’il correspond aux objectifs précisés dans les spécifications;
4°) Évolution : ça correspond à tout ce qui vient après la livraison du produit (versionning, maintenances,...).
Ici, on ne va pas utiliser une méthode de conception particulière. Pour pouvoir tout de même y aller méthodiquement, nous nous inspirerons de ces étapes classiquement suivies lors de la conception des systèmes informatiques.
Dans ce second chapitre, nous ne présenterons que les spécifications du système ainsi qu’une ébauche de conception avec une présentation de l’architecture globale. La suite sera traitée dans le chapitre suivant.
II.6.1 Spécifications du système
Le système devra pouvoir permettre de réaliser ce qui suit :
Synthétiser les textes qui lui sont fournis en entrée (saisis directement ou importés dans fichiers .pdf non scannés, des fichiers .docx et .txt);
Servir les synthèses directement ou à travers un fichier .pdf à télécharger;
Obtenir des synthèses produites par plusieurs algorithmes et les évaluer;
Stocker les couples document-synthèse;
Faciliter le parcours des documents en soulignant les parties saillantes;
Permettre l’affinage d’un modèle de synthèse automatique (ici nous réaliserons le fine-tuning du modèle mBART ou du modèle mT5 selon celui qui se prêtera mieux à cet affinage).
C’est cela le minimum de besoins que le système devra être capable de combler.
II.6.2 Présentation des éléments du système
L’architecture globale de notre système est un trois-tiers classique. Elle se présente comme sur la figure II.4 :
Figure II.4: Architecture globale de notre système
La figure II.4 presente l’architéture du système qui est d’une architecture 3 − tiers classique. Il y a toutefois une partie qui n’est pas ici représentée car nous voulons nous donner une grande liberté de conception à son sujet. Il s’agit en fait de l’interface d’accès à l’API (Application Programming Interface), qui permettra aux développeurs de s’authentifier et générer éventuellement un token à utiliser pour implémenter leur propres interfaces devant permettre d’utiliser les services de cette API. Il s’agit donc d’une API privée.
Cette interface permettra aussi de voir toute la documentation de l’API (pour les développeurs) pour mieux utiliser ses services.
Quant au bloc interface que nous venons de présenter sur la figure II.4, c’est en nous mettant à la place d’un développeur lambda qui exploite les services de l’API.
Notre API quant à elle, est une API REST (REpresentationnal State Transfer qui aura 4 end-points principaux dédiés à la synthèse automatique (selon les besoins d’implémentation, on pourra en insérer d’autres mais qui ne concernerons probablement pas la synthèse).
Module de synthèse extraite : ce module réalisera une synthèse en combinant divers résultats d’algorithmes de synthèse extraite. Nous prévoyons, dans un premier temps, ne l’utiliser que pour des petits documents (la taille optimale sera déterminée avec les expérimentations au chapitre suivant).
Module de synthèse abstraite : ce module donnera une synthèse abstraite en utilisant l’un des transformers affinés pour la synthèse ou bien par le module qui sera en train de s’auto-améliorer au cours de l’utilisation du système (on l’a nommé expérimental, voir la figure II.7). Comme les transformers réalisent des synthèses de documents de taille généralement limitée à environ une page, nous mettrons au point, dans cette partie, une pipeline qui nous permettra d’augmenter le nombre de pages (nous pensons à 100 pages mais les expérimentations nous permettrons de choisir une taille optimale, tenant compte surtout de la rapidité).
Module de synthèse extrait simplifié : Il s’agira d’un module qui permettra la réalisation de la synthèse mais en utilisant l’un des algorithmes de synthèse extraite implémentés (soit de manière aléatoire, soit par choix de l’utilisateur).
Module expérimental : Il s’agira d’un module de synthèse abstraite qui sera essentiellement utilisé pour la synthèse des petits documents (quelques pages). Pour ce module, nous comptons mettre au point une routine d’entraînement à partir des synthèses collectées par le système, pour améliorer au fur et à mesure les performances de ce module. Nous comptons réaliser l’entraînement par transfer learning avec les transformers mT5[53] ou mBART [27] comme base. N’ayant pas encore testé cette partie, nous serons fixé sur la méthode à utiliser ainsi que le modèle de base à choisir au chapitre suivant, après les expérimentations.
On peut aussi remarquer qu’il y a un module pre-processing dans la partie interfaces. C’est par suite du fait que, pour des raisons de performance, on devra envoyer à l’API le fichier sous un format particulier. Il faudra réaliser l’acquisition des données dans divers formats (pdf,docx,...) mais les données acquises seront envoyées dans un format plus léger à l’API (du JSON pour notre cas).
La base des données, que nous avons mentionné dans la figure II.4, a un double rôle :
1°) Le stockage des données de l’utilisateur (il s’agira en fait des identifiants des interfaces qui utiliseront l’API);
2°) Le stockage des paires document-synthèse, ainsi que l’appréciation de l’utilisateur (évaluation par les utilisateurs).
II.6.3 Architecture du module de synthèse extractive
Le module de synthèse extractive se présente comme suit :
Comme nous pouvons le voir, un traitement sera fait pour adapter les données reçues à ce qui peut être traité par le système. Ce traitement consistera à ne retenir que des symboles alphanumériques, à réaliser la tokenisation des textes (chaque token sera une phrase pour cette partie) et à affecter un identifiant unique à chaque phrase.
Après cela, les données seront invariablement passées aux algorithmes de synthèse extractive, qui générerons chacun un groupe de poids des phrases. Après cela, le module de pondération et sélection réalisera successivement ce qui suit :
Acquisition des sorties de chaque algorithme de synthèse extractive (il s’agira des dictionnaires dont les clés seront les identifiant uniques des phrases et les valeurs seront les poids affectés par l’algorithme). A chaque algorithme, on donnera un poids qu’on nommera WNomdel′algo compris entre 0 et 1, selon la confiance qu’on lui porte (la somme des poids sera égale à 1 et par défaut, tous les algorithmes pourront avoir le même poids) ;
Élimination des phrases de poids faible (avec comme seuil, la taille maximale de résumé précisée par l’utilisateur);
Réarrangement de chaque dictionnaire obtenu après expulsion des phrases non significatives (les éléments seront arrangés par ordre décroissant des poids pour chaque sortie);
Donner des propabilités aux espaces des poids de chaque dictionnaire par application d’un softmax sur chacun d’eux. Ce qui donnera, pour chaque phrase de chaque dictionnaire, un nouveau poids ωphri, avec i le numéro du dictionnaire et phr le numéro de la phrase considérée dans ce dictionnaire ;
Listage complet des éléments (leurs identifiants) de tous les dictionnaires.
Pour chaque élément de la liste globale ainsi établie, appliquer la formule suivante pour obtenir un nouveau poids :
X
W = Wi ·ωphri (II.8) j
i∈D
Avec Wj le nouveau poids affecté à la phrase ayant un identifiant global j (l’identifiant là d’origine) et D la liste des dictionnaires (les sorties de chaque algorithme);
Arranger toutes les phrases par ordre décroissant dans une unique liste et sélectionner les plus haut dans la liste jusqu’à atteindre le seuil fixé (nombre de mots fixé pour la synthèse).
Constituer une liste avec les éléments sélectionnés.
Réarranger les phrases de la liste selon leur ordre de succession dans le texte d’origine.
Constituer la synthèse extraite.
Ce qui précède constitue en fait l’algorithme que nous allons implémenter pour le module de pondération et sélection.
II.6.4 Architecture du module de synthèse abstractive
Le module de synthèse abstraite n’est pas unique. Nous implémenterons plusieurs modèles (BART, BARThez, PEGASUS, mBART ou mT5 entraîné avec nos données, ainsi que tous ceux qui nous paraîtrons utiles durant les essais); Chaque module de synthèse se présentera néanmoins comme suit :
Figure II.5: Architecture globale du système de synthèse abstractive
Comme nous pouvons le remarquer, il y a toujours un module de mise en forme initial (pre-processing) qui nous permettra en gros de supprimer tous les caractères que nous ne pourrons pas gérer. Vient ensuite le module de tokenisation (le tokenizer ou tokeniseur) [49] qui consistera ici à diviser tout le texte en ses mots constitutifs et à leur affecter des identifiants numériques. Ce sont ces identifiants qui seront fournis au modèle et transformés en vecteurs par la couche d’embedding du modèle.
Le modèle quant à lui, aura toujours une architecture pareille :
Figure II.6: Architecture interne du modèle mentionné sur la figure II.5
Il s’agit en effet de l’architecture classique d’un transformer, comme présenté sur la figure I.7 à l’exception du fait qu’ici on fait explicitement apparaître l’existence de la sortie du modèle. Ça correspond au réseau linéaire suivi d’une couche de softmax tel que présenté sur la figure
I.7. Cette partie, que nous avons nommé head est différente selon les tâches [52], c’est pourquoi nous avons voulu la mentionner explicitement car, selon le besoin, on peut la modifier.
Nous devons finalement mentionner que les modules de tokenisation (nommés tokenizer en anglais) dépendront explicitement des modèles utilisés.
II.6.5 Présentation des interfaces
La partie interface nous permettra juste d’utiliser le service que nous aurons élaboré et d’évaluer par la même occasion ses performances. Elle n’est pas donc cruciale. Toutefois, voici une ébauche d’interface que nous comptons utiliser pour exploiter le service :
Figure II.7: Ébauche d’interface
Avec cette interface, on a une idée générale de la manière dont nous comptons servir le système aux utilisateurs.
II.7. CONCLUSION PARTIELLE II.7 Conclusion partielle
Dans cette partie, nous venons de présenter le résumé automatique des textes, tout en réalisant une vue d’ensemble des méthodes utilisées dans la littérature à cet effet. Nous avons mentionné que la classification des résumés que nous utiliserons sera celle les départageant en abstractive summarization et extractive summarization et que, pour notre cas, il s’agira de réaliser un système de résumé mono-document, avec une partie abstractive et une autre extractive, générant un résumé générique pour des documents de type narratif et argumentatifs.
Nous avons également listé les divers modèles de transformer adaptés à la tâche de synthèse automatique abstraite, et nous avons mentionné devoir privilégier les modèles du type BART pour des raisons qui serons précisées dans le chapitre suivant.
Enfin, nous avons réalisé la conception préliminaire du système tout en précisant que, concernant l’API, la BD (Base des Données) et les interfaces, les détails d’implémentation utiles seront précisés dans la partie dédiée à la conception proprement dite et aux tests, c’est-à-dire au chapitre suivant. Le chapitre suivant nous permettra donc finalement de préciser, réaliser et tester les méthodes que nous avons jusque-là adoptées pour la mise au point de notre système de synthèse automatique des documents.
GENERALEMENT
Place les références là où il le faut STP. Même si c’est une interpretation personnelle, elle tire la source quelque part.
Verifie aussi tous les commentaires que j’ai placé aux différents niveaux du texte
Chapitre III
Conception finale, réalisation et tests
Conclusion générale
Bibliographie
D. Adams. Combining State-of-the-art Models for Multi-document Summarization Using Maximal Marginal Relevance. University of Lethbridge, 2021.
Stergos D. Afantenos, Vangelis Karkaletsis, and Panagiotis Stamatopoulos. Summarization from medical documents: A survey. CoRR, abs/cs/0504061, 2005.
Dzmitry Bahdanau, Kyunghyun Cho, and Yoshua Bengio. Neural machine translation by jointly learning to align and translate. arXiv preprint arXiv:1409.0473, 2014.
Catherine Benincasa, Adena Calden, Emily Hanlon, Matthew Kindzerske, Kody Law, Eddery Lam, John Rhoades, Ishani Roy, Michael Satz, Eric Valentine, et al. Page rank algorithm. Department of Mathematics and Statics, University of Massachusetts, Amherst, Research, 2006.
Michael W Berry and Jacob Kogan. Text mining: applications and theory. John Wiley & Sons, 2010.
Piotr Bojanowski, Edouard Grave, Armand Joulin, and Tomas Mikolov. Enriching word vectors with subword information. Transactions of the association for computational linguistics, 5:135–146, 2017.
Boudjemaa Boudaa. Cours de génie logiciel (avec exercices résolus). Université IbnKhaldoun-Tiaret, Algérie, 02 2020.
Sergey Brin and Lawrence Page. The anatomy of a large-scale hypertextual web search engine. Computer networks and ISDN systems, 30(1-7):107–117, 1998.
O. Carton and D. Perrin. Langages formels : calculabilité et complexité : cours et exercices corrigés. Vuibert, 2014.
Zihang Dai, Zhilin Yang, Yiming Yang, Jaime Carbonell, Quoc V Le, and Ruslan Salakhutdinov. Transformer-xl: Attentive language models beyond a fixed-length context. arXiv preprint arXiv:1901.02860, 2019.
Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. Bert: Pretraining of deep bidirectional transformers for language understanding. arXiv preprint arXiv:1810.04805, 2018.
Youcef Djeriri. Les Réseaux de Neurones Artificiels. 09 2017.
Moussa Kamal Eddine, Antoine J-P Tixier, and Michalis Vazirgiannis. Barthez:
a skilled pretrained french sequence-to-sequence model. arXiv preprint arXiv:2010.12321, 2020.
Günes Erkan and Dragomir R Radev. Lexrank: Graph-based lexical centrality as salience in text summarization. Journal of artificial intelligence research, 22:457–479, 2004.
Thushan Ganegedara. Natural Language Processing with TensorFlow: Teach language to machines using Python’s deep learning library. Packt Publishing Ltd, 2018.
A. Géron. Deep Learning avec Keras et TensorFlow: Mise en oeuvre et cas concrets. Dunod, 2020.
M. Hagiwara. Real-World Natural Language Processing: Practical Applications with Deep Learning. Manning, 2021.
Patrick Hairy. Les réseaux de neurones récurrents pour les séries temporelles, Septembre 2021.
Nitin Indurkhya and Fred J Damerau. Handbook of natural language processing.
Chapman and Hall/CRC, 2010.
D. Jurafsky and J.H. Martin. Speech and Language Processing. Always learning.
Pearson, 2014.
SYNTHESE AUTOMATIQUE DES TEXTES
Min-Yen Kan, Kathleen R. McKeown, and Judith L. Klavans. Applying natural language generation to indicative summarization. CoRR, cs.CL/0107019, 2001.
Akshay Kulkarni and Adarsha Shivananda. Natural language processing recipes. Springer, 2019.
S. Lamsiyah, S. Ouatik El Alaoui, and B Espinasse. Résumé automatique guidé de textes: Etat de l’art et perspectives (guided summarization : State-of-the-art and perspectives ). In Actes de la Conférence TALN. Volume 2 - Démonstrations, articles des Rencontres Jeunes Chercheurs, ateliers DeFT, pages 55–72, Rennes, France, 5 2018. ATALA.
Zhenzhong Lan, Mingda Chen, Sebastian Goodman, Kevin Gimpel, Piyush Sharma, and Radu Soricut. Albert: A lite bert for self-supervised learning of language representations. arXiv preprint arXiv:1909.11942, 2019.
Mike Lewis, Yinhan Liu, Naman Goyal, Marjan Ghazvininejad, Abdelrahman Mohamed, Omer Levy, Ves Stoyanov, and Luke Zettlemoyer. Bart: Denoising sequence-to-sequence pre-training for natural language generation, translation, and comprehension. arXiv preprint arXiv:1910.13461, 2019.
Chin-Yew Lin. Training a selection function for extraction. In CIKM ’99, 1999.
Yinhan Liu, Jiatao Gu, Naman Goyal, Xian Li, Sergey Edunov, Marjan Ghazvininejad, Mike Lewis, and Luke Zettlemoyer. Multilingual denoising pre-training for neural machine translation. Transactions of the Association for Computational Linguistics, 8:726–742, 2020.
Yinhan Liu, Myle Ott, Naman Goyal, Jingfei Du, Mandar Joshi, Danqi Chen, Omer Levy, Mike Lewis, Luke Zettlemoyer, and Veselin Stoyanov. Roberta: A robustly optimized bert pretraining approach. arXiv preprint arXiv:1907.11692, 2019.
H. P. Luhn. The automatic creation of literature abstracts. IBM Journal of Research and Development, 2(2):159–165, 1958.
Minh-Thang Luong, Hieu Pham, and Christopher D Manning. Effective approaches to attention-based neural machine translation. arXiv preprint arXiv:1508.04025, 2015.
Mohamed Hedi Maaloul. Approche hybride pour le résumé automatique de textes. Application à la langue arabe. Theses, Université de Provence - Aix-Marseille I, December 2012. Date Soutenance 18-12-2012.
Inderjeet Mani. Automatic summarization, volume 3. John Benjamins Publishing, 2001.
Rada Mihalcea and Paul Tarau. Textrank: Bringing order into text. In Proceedings of the 2004 conference on empirical methods in natural language processing, pages 404– 411, 2004.
Tomas Mikolov, Kai Chen, Greg Corrado, and Jeffrey Dean. Efficient estimation of word representations in vector space. arXiv preprint arXiv:1301.3781, 2013.
Tomas Mikolov, Ilya Sutskever, Kai Chen, Greg S Corrado, and Jeff Dean. Distributed representations of words and phrases and their compositionality. Advances in neural information processing systems, 26, 2013.
Maali Mnasri. Résumé automatique multi-document dynamique. Theses, Université Paris-Saclay, September 2018.
Marie-Francine Moens. Automatic indexing and abstracting of document texts. Computational Linguistics, 27(1):149–149, 2001.
Ani Nenkova and Rebecca Passonneau. Evaluating content selection in summarization: The pyramid method. In HLT-NAACL 2004 - Human Language Technology Conference of the North American Chapter of the Association for Computational Linguistics, Proceedings of the Main Conference, HLT-NAACL 2004 Human Language Technology Conference of the North American Chapter of the Association for Computational Linguistics, Proceedings of the Main Conference, pages 145–152. Association for Computational Linguistics (ACL), 2004.
SYNTHESE AUTOMATIQUE DES TEXTES
Jeffrey Pennington, Richard Socher, and Christopher D Manning. Glove: Global vectors for word representation. In Proceedings of the 2014 conference on empirical methods in natural language processing (EMNLP), pages 1532–1543, 2014.
Alec Radford, Karthik Narasimhan, Tim Salimans, Ilya Sutskever, et al. Improving language understanding by generative pre-training. 2018.
Alec Radford, Jeffrey Wu, Rewon Child, David Luan, Dario Amodei, Ilya Sutskever, et al. Language models are unsupervised multitask learners. OpenAI blog, 1(8):9, 2019.
Colin Raffel, Noam Shazeer, Adam Roberts, Katherine Lee, Sharan Narang, Michael Matena, Yanqi Zhou, Wei Li, Peter J Liu, et al. Exploring the limits of transfer learning with a unified text-to-text transformer. J. Mach. Learn. Res., 21(140):1–67, 2020.
Victor Sanh, Lysandre Debut, Julien Chaumond, and Thomas Wolf. Distilbert, a distilled version of bert: smaller, faster, cheaper and lighter. arXiv preprint arXiv:1910.01108, 2019.
D. Sarkar. Text Analytics with Python: A Practitioner’s Guide to Natural Language Processing. Apress, 2019.
Barry Schiffman, Ani Nenkova, and Kathleen McKeown. Experiments in multidocument summarization. In Proceedings of the Second International Conference on Human Language Technology Research, HLT ’02, page 52–58, San Francisco, CA, USA, 2002. Morgan Kaufmann Publishers Inc.
S. Srivastava. Natural Language Processing with Python: Hands-On Labs to Apply Deep Learning Architectures to NLP Applications. Independently Published, 2021.
Brahim Tlili. Identification et commande des systèmes non linéaires : Utilisation des modèles de type NARMA. Theses, Ecole Nationale d’Ingénieurs de Tunis, July 2008.
Juan-Manuel Torres-Moreno. Automatic text summarization. John Wiley & Sons, 2014.
Lewis Tunstall, Leandro von Werra, and Thomas Wolf. Natural language processing with transformers. " O’Reilly Media, Inc.", 2022.
Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, Łukasz Kaiser, and Illia Polosukhin. Attention is all you need. Advances in neural information processing systems, 30, 2017.
Lilian Weng. Les réseaux de neurones récurrents pour les séries temporelles, Avril 2020.
Thomas Wolf, Lysandre Debut, Victor Sanh, Julien Chaumond, Clement Delangue, Anthony Moi, Pierric Cistac, Tim Rault, Rémi Louf, Morgan Funtowicz, et al. Transformers: State-of-the-art natural language processing. In Proceedings of the 2020 conference on empirical methods in natural language processing: system demonstrations, pages 38–45, 2020.
Linting Xue, Noah Constant, Adam Roberts, Mihir Kale, Rami Al-Rfou, Aditya Siddhant, Aditya Barua, and Colin Raffel. mt5: A massively multilingual pre-trained text-to-text transformer. arXiv preprint arXiv:2010.11934, 2020.
Jingqing Zhang, Yao Zhao, Mohammad Saleh, and Peter Liu. Pegasus: Pretraining with extracted gap-sentences for abstractive summarization. In International Conference on Machine Learning, pages 11328–11339. PMLR, 2020.
Jan Žižka, František Dařena, and Arnošt Svoboda. Text mining with machine learning:
principles and techniques. CRC Press, 2019.
Annexes
68 |
C'est de l'ignorance, et de l'ignorance seule que l'homme doit se libérer.C'est de l'ignorance, et de l'ignorance seule que l'homme doit se libérer....Nous voulons que tous les êtres humains, ensemble ou pris isolément, jeunes ou vieux, riches ou pauvres, nobles ou roturiers, hommes ou femmes, puissent pleinement s'instruire et devenir des êtres achevés. | Nous voulons que tous les êtres humains, ensemble ou pris isolément, jeunes ou vieux, riches ou pauvres, nobles ou roturiers, hommes ou femmes, puissent pleinement s'instruire et devenir des êtres achevés. Nous voulons qu'ils soient instruits parfaitement et formés non seulement sur tel ou tel point, mais également sur tout ce qui permet à l'homme de réaliser intégralement son essence. D'apprendre à connaître la vérité, à ne pas être trompé par des faux semblants. A aimer le bien, à ne pas être séduit par le mal, à faire ce qu'on doit faire et à se garder de ce qu'il faut éviter. A parler sagement de tout, avec tout le monde. Enfin, à toujours traiter les choses, les hommes et Dieu avec prudence et non à la légère. Et à ne jamais s'écarter de son but, le bonheur. Le Galilée de l'éducation comme on le surnommait s'est posé une question à la fois très simple et très révolutionnaire. Il s'était demandé en effet : 'Comment faire en sorte que tous les hommes accèdent à tout le savoir disponible ?'Comment offrir à tous un panorama complet de ce que les hommes savent ? C'est de l'ignorance, et de l'ignorance seule que l'homme doit se libérer.C'est de l'ignorance, et de l'ignorance seule que l'homme doit se libérer....Nous voulons que tous les êtres humains, ensemble ou pris isolément, jeunes ou vieux, riches ou pauvres, nobles ou roturiers, hommes ou femmes, puissent pleinement s'instruire et devenir des êtres achevés. Nous voulons qu'ils soient instruits parfaitement et formés non seulement sur tel ou tel point, mais également sur tout ce qui permet à l'homme de réaliser intégralement son essence. D'apprendre à connaître la vérité, à ne pas être trompé par des faux semblants. A aimer le bien, à ne pas être séduit par le mal, à faire ce qu'on doit faire et à se garder de ce qu'il faut éviter. A parler sagement de tout, avec tout le monde. Enfin, à toujours traiter les choses, les hommes et Dieu avec prudence et non à la légère. Et à ne jamais s'écarter de son but, le bonheur. Le Galilée de l'éducation comme on le surnommait s'est posé une question à la fois très simple et très révolutionnaire. Il s'était demandé en effet : 'Comment faire en sorte que tous les hommes accèdent à tout le savoir disponible ?'Comment offrir à tous un panorama complet de ce que les hommes savent ? C'est de l'ignorance, et de l'ignorance seule que l'homme doit se libérer.C'est de l'ignorance, et de l'ignorance seule que l'homme doit se libérer.... |
Les iReporters partagent leurs meilleurs clichés des endroits qu'ils souhaitent visiter dans la galerie d'instantanés de voyage d'iReport. Visitez CNN.com/Travel mercredi prochain pour une nouvelle galerie de photos de voyage la semaine prochaine. iReport.com présentera des photos iReporter dans une galerie hebdomadaire d'instantanés de voyage. Le "rêve messager" est le rêve dont le sens est fondamentalement clair, évident, celui pour lequel il n'y a pas de "clé" pour y entrer. Après le réveil, il y a eu quatre heures de travail intense, un "travail" qui s'ignorait, à "vider totosse" - aller au fond du rêve. Le travail est un travail d'approfondissement, une pénétration de la périphérie vers les profondeurs. L'esprit pénétrant joue le rôle actif, "masculin", là où l'esprit pénétrant est actif. Il prend la forme d'un insecte rongeur têtu, se frayant un chemin à travers les couches successives d'un gros oignon. Il y a un archétype commun à tous les processus de création, à tous les processus de découverte, quel que soit le plan sur lequel ils se déroulent et s'accomplissent. Il en existe deux, plus ou moins longues et laborieuses, pour lesquelles le "facteur temps" apparaît comme un ingrédient essentiel, tout comme pour la croissance d'une plante, la maturation d'un fruit ou pour la gestation du fœtus dans les replis de la mère. matrice. Cette émotion imprègne le grand rêve et le réveil qui le suit encore, est comme l'âme même et le souffle du rêve. Le signe principal qui distingue un tel travail, pénétrant au cœur d'une substance vivante, du simple faire semblant. Ce qui est commun, c'est la Mer, qui relie une goutte à une autre et les contient toutes les deux. Dans le premier rêve dont j'ai sondé le message, je savais qu'il y avait un "Rêveur" - une Intelligence supérieure. Cette découverte a été vécue comme une révélation soudaine, qui m'a rempli d'une joie exultante, et m'a immédiatement insufflé une nouvelle énergie. Dans les années qui ont suivi, j'étais loin d'être à la hauteur de mon choix, et j'en suis encore loin aujourd'hui. Il n'y a qu'un Rêveur - ou « l'Autre moi-même » (9 et 10 juin) Il est temps pour moi de reprendre enfin le fil de la réflexion, ou plutôt le récit d'une découverte. Le Rêveur en moi (ou en vous, c'est pareil) sait tout ce qu'une personne a jamais connu. La seule et unique base de la vision que je décris dans ce livre est cette expérience. Le Créateur est en chacun de nous et nous encourage à être des créateurs comme lui. Il a une science qui dépasse infiniment celle de chacun de nous, mais tout autant celle de tous les hommes réunis. Après l'arrivée au pouvoir d'Hitler en 1933, mes parents ont émigré en France, terre d'asile et de liberté. Ils ont été internés comme étrangers « indésirables », mon père à l'hiver 1939, ma mère avec moi au début des années 1940. Je suis resté deux ans au camp de concentration, puis j'ai été accueilli en 1942 par un foyer pour enfants. Dans ma nouvelle maison, il y a beaucoup de parfums religieux, que je perçois un peu - ici et là une visite à un couvent, où il y a des religieuses de la famille, même un service religieux ou deux. La vie de Friedel consistait à donner - que ce soit des vêtements de toutes sortes qu'il récupérait dans les caves et les greniers. Il s'acceptait comme il acceptait les autres, sans se poser de questions (probablement insolubles ! ) Friedel était croyant, et ces entretiens se faisaient dans la perspective d'une foi. Mais le nouveau « Church Scientist » est mille fois plus aveuglé par sa sacro-sainte doctrine. Ma mère venait d'être libérée du camp il y a quelques semaines et elle vivait en résidence surveillée dans la petite ville de Vabre. Dans sa façon de parler, de sentir et de faire, elle n'avait pas changé d'un iota - elle n'avait pas à s'inquiéter que je ne la reconnaisse pas ! Mais j'ai encore une longue lettre d'elle écrite six ans plus tard adressée à l'ancien pasteur qui m'a accueilli. "Je vivais d'idées toutes faites (même si c'étaient les miennes...) et de discours ad hoc, bien plus qu'une connaissance de la réalité, fruit d'une attention réelle" "Ma dégradation ne prend fin qu'avec l'entrée de la méditation dans mon vie (octobre 1976) - c'est alors que ce poids m'a pesé si lourdement pendant près de vingt ans, se détache enfin de moi" En 1976, près de vingt ans plus tard, j'ai dû faire confiance aux messages qui me parvenaient à travers mes rêves. La joie suscitée en moi par la pensée de tourner cette page bien remplie m'appelait déjà. Cette joie m'a montré, mieux que toute réflexion, que j'étais sur le bon chemin : le mien. faire, auquel personne n'avait pensé., bloqué par lui toute sa vie. Les voies de Dieu, je le reconnais, sont insondables. Le mieux que nous puissions faire de notre côté est d'acquiescer pleinement, par tout ce que nous sommes, à Celui qui agit en nous. Ce furent des années où, tout ce qui m'était alors donné, je vivais dans le présent. | LA CLEF DES SONGES ou Dialogue avec le Bon Dieu AlexanderGROTHENDIECK Table des matières 1 I TOUS LES REVES SONT UNE CREATION DU RE- VEUR3 1.1 1. Premières retrouvailles - ou le rêve et la connaissance de soi 3 1.2 2. Découverte du Rêveur . . . . . . . . . . . . . . . . . . . . . 5 1.3 3. L’enfant et la mamelle . . . . . . . . . . . . . . . . . . . . . 6 1.4 4. Tous les rêves viennent du Rêveur . . . . . . . . . . . . . . 7 1.5 5. Le rêve messager - ou l’instant de vérité . . . . . . . . . . . 9 1.6 6. La clef du grand rêve - ou la voix de la “raison”, et l’autre . 10 1.7 7. Acte de connaissance et acte de foi . . . . . . . . . . . . . . 14 1.8 8. La volonté de connaître . . . . . . . . . . . . . . . . . . . . 18 1.9 9. La porte étroite - ou l’étincelle et la flamme . . . . . . . . . 20 1.10 10. Travail et conception - ou le double oignon . . . . . . . . . 22 1.11 11. Le Concert - ou le rythme de la création . . . . . . . . . . 25 1.12 12. Quatre temps pour un rythme . . . . . . . . . . . . . . . . 28 1.13 13. Les deux cycles d’Eros - ou le Jeu et le Labeur . . . . . . . 30 1.14 14. Les pattes de la poutre . . . . . . . . . . . . . . . . . . . . 33 1.15 15. La frottée à l’ail . . . . . . . . . . . . . . . . . . . . . . . . 35 1.16 16. Emotion et pensée - ou la vague et la cognée . . . . . . . . 37 2 Dieu est le Rêveur41 2.1 17. Dieu est le Rêveur . . . . . . . . . . . . . . . . . . . . . . 41 2.2 18. La connaissance perdue - ou L’ambiance d’une “fin des temps” . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43 2.3 19. L’incroyable Bonne Nouvelle . . . . . . . . . . . . . . . . . 45 2.4 20. Frères dans la faim... . . . . . . . . . . . . . . . . . . . . . 47 2.5 21. Rencontre avec le Rêveur - ou questions interdites . . . . . 48 2.6 22. Retrouvailles avec Dieu - ou le respect sans la crainte . . . 53 2.7 23. Il n’y a qu’un Rêveur - ou l’“Autre moi-même” . . . . . . . 56 2.8 24. Le Créateur - ou la Toile et la pâte - . . . . . . . . . . . . 59 2.9 25. Dieu ne se définit ni ne se prouve - ou l’aveugle et le bâton 62 2.10 26. La nouvelle table de multiplication . . . . . . . . . . . . . 64 3 III LE VOYAGE à MEMPHIS (1) : L’ERRANCE68 3.1 27. Mes parents - ou le sens de l’épreuve . . . . . . . . . . . . 68 3.2 28. Splendeur de Dieu - ou le pain et la parure . . . . . . . . . 71 3.3 29. Rudi et Rudi - ou les indistinguables . . . . . . . . . . . . 74 3.4 30. La cascade des merveilles - ou Dieu par la saine raison . . 78 3.5 31. Les retrouvailles perdues . . . . . . . . . . . . . . . . . . . 82 3.6 32. L’appel et l’esquive . . . . . . . . . . . . . . . . . . . . . . 88 2 3.7 33. Le tournant - ou la fin d’une torpeur . . . . . . . . . . . . 91 3.8 34. Foi et mission - ou L’infidélité (1) . . . . . . . . . . . . . . 95 3.9 35. La mort interpelle - ou L’infidélité (2) . . . . . . . . . . . . 101 3.10 36. Dieu parle à voix très basse... . . . . . . . . . . . . . . . . 107 3.11 66. Années-ouvrables et années-dimanche - ou tâches et gestation . . . . . . . . . . . . . . . . . . . . . . . . 110 1 I TOUS LES REVES SONT UNE CREA- TION DU REVEUR 1.1 1. Premières retrouvailles - ou le rêve et la connais- sance de soi (30 avril 1987) Le premier rêve dans ma vie dont j’ai sondé et entendu le message a aussitôt transformé le cours de ma vie, profondément. Ce mo- ment a été vécu, véritablement, comme un renouvellement profond, comme une nouvelle naissance. Avec le recul, je dirais maintenant que c’était le mo- ment des retrouvailles avec mon âme, dont je vivais séparé depuis les jours noyés d’oubli de ma première enfance. Jusqu’à ce moment-là j’avais vécu dans l’ignorance que j’avais une “âme”, qu’il y avait en moi un autre moi-même, silencieux et quasi invisible, et pourtant vivant et vigoureux - quelqu’un bien différent de celui en moi qui constamment prenait le devant de la scène, le seul que je voyais et auquel je continuais à m’identifier bon gré mal gré : “le Patron”, le “moi”, celui que je ne connaissais que trop, à satiété. Mais ce jour-là a été un jour de retrouvailles avec l’autre, cru mort et enterré “une longue vie durant” - avec l’enfant en moi. Les dix années qui se sont écoulées depuis lors m’apparaissent maintenant, surtout, comme une suite de périodes d’apprentissage, se concrétisant par le franchissenent de “seuils” successifs dans mon itinéraire spirituel. C’étaient des périodes de recueillement et d’écoute intense, où je faisais connaissance avec moi-même, tant avec “le Patron”, qu’avec “l’Autre”. Car mûrir spiri- tuellement, ce n’est ni plus, ni moins, que faire et refaire connaissance de soi-même ; c’est progresser peu ou prou dans cette connaissance sans fin. C’est apprendre, et avant tout : s’apprendre soi-même. Et c’est aussi se re- nouveler, c’est mourir tant soit peu, se séparer d’un poids mort, d’une inertie, d’un morceau du “vieil homme” en nous - et renaître ! Sans connaissance de soi, il n’est pas de compréhension d’autrui, ni du 3 monde des hommes, ni des œuvres de Dieu en l’homme. Encore et encore j’ai eu à constater, chez moi-même, chez mes amis ou proches, comme aussi dans ce qu’on appelle les “œuvres de l’esprit” (y compris parmi les plus prestigieuses) : sans connaissance de soi, l’image que nous nous faisons du monde et d’autrui n’est que l’œuvre aveugle et inerte de nos fringales, nos espoirs, nos peurs, nos frustrations, nos ignorances délibérées et nos fuites et nos démissions et toutes nos pulsions de violence refoulée, et l’œuvre des consensus et des opinions qui font foi autour de nous et qui nous taillent à leur mesure. Elle n’a guère que des rapports lointains, indirects et tortueux avec la réalité dont elle prétend rendre compte, et qu’elle défigure sans vergogne. Elle est comme un témoin mi-imbécile, mi-véreux dans une affaire qui le concerne de plus près qu’il ne veut bien l’admettre, sans se douter que son témoignage l’engage et le juge... Quand je passe en revue ces grandes étapes de mon cheminement inté- rieur, tout au cours des dix années écoulées, je constate que chacune d’elles a été préparée et jalonnée, tout comme la première dont je viens de parler, par un ou plusieurs rêves. L’histoire de ma maturation vers une connaissance de moi-même et vers une compréhension de l’âme humaine se confond, à peu de choses près, avec l’histoire de mon expérience du rêve. Pour le dire autre- ment : la connaissance à laquelle je suis parvenu sur ma propre personne et sur la psyché en général, se confond quasiment avec mon expérience du rêve, et avec la connaissance du rêve qui en est un des fruits. Ce n’est pas là l’effet d’un hasard, certes. J’ai fini par apprendre, à mon corps défendant, que la vie profonde de la psyché est inaccessible au regard conscient, si intrépide, si avide de connaître soit-il. Réduit à ses propres moyens, et même secondé par un travail de réflexion serré et opiniâtre (par ce que j’appelle le “travail de méditation”), ce regard ne pénètre guère au delà des couches les plus superficielles. A présent, je doute qu’il y ait, ou qu’il y ait eu homme au monde (fut-il Bouddha en personne) chez qui il en soit différemment - chez qui l’état et l’activité des couches profondes de la psyché soit accessible directement à la connaissance consciente. Un tel homme ne serait-il pas, quasiment, égal à Dieu ? Je n’ai eu connaissance d’aucun témoignage qui puisse faire supposer qu’une faculté aussi prodigieuse ait jamais été dévolue à une personne. Il est vrai que tout ce qui se trouve et ce qui se meut dans la psyché cherche et trouve une expression visible. Celle-ci peut se manifester au ni- veau du champ de la conscience (par des pensées, sentiments, attitudes, etc.), ou celui des actes et des comportements, ou enfin au niveau (dit “psychoso- 4 matique” en jargon savant) du corps et des fonctions du corps. Mais toutes ces manifestations, psychiques, sociales, corporelles sont à tel point occultes, à tel point détournées, qu’il semble bien qu’il faille, là encore, une perspi- cacité et une capacité intuitive surhumaines, pour parvenir à en extraire un récit tant soit peu nuancé des forces et des conflits inconscients qui s’ex- priment à travers elles. Le rêve, par contre, se révèle comme un témoignage direct, parfaitement fiable et d’une finesse incomparable, de la vie profonde de la psyché derrière des apparences souvent déconcertantes et toujours énig- matiques, chaque rêve constitue en lui-même un véritable tableau, tracé de main de maître, avec son éclairage et sa perspective propres, une intention (toujours bienveillante), un message (souvent percutant). 1.2 2. Découverte du Rêveur Nous-mêmes sommes aveugles, autant dire, nous n’y voyons goutte dans cet embrouillamini de forces agissant en nous et qui, pourtant, gouvernent inexorablement nos vies (aussi longtemps, tout au moins, que nous ne faisons l’effort d’en prendre connaissance...). Nous sommes aveugles, oui - mais il y a en nous un œil qui voit, et une main qui peint ce qui est vu. Le silence assoupi du sommeil et de la nuit lui servent de toile, nous-mêmes sommes sa palette ; et les sensations, les sentiments, les pensées qui nous traversent en rêvant, et les pulsions et les forces qui agitent nos veilles, voilà Ses tubes de peinture, pour brosser ce tableau vivant qu’Elle seule sait brosser. Un tableau-parabole, oui, campé à la volée ou savamment composé, farce ou élégie et parfois drame inexorable et poignant... - gracieusement offert à notre attention ! A nous de le déchiffrer et d’en prendre de la graine, s’il nous chaut. A prendre ou à laisser ! Et presque à tous les coups, certes, on “laisse”. Même parmi ceux qui se piquent aujourd’hui (suivant une mode récente et de bon aloi) de “s’intéresser aux rêves”, en est-il un seul ou une seule qui ait pris le risque d’aller jusqu’au fond d’un seul de leurs rêves - d’aller jusqu’au fond, et “d’en prendre de la graine” ? Ce livre, que je commence à écrire aujourd’hui-même, s’adresse en tout premier lieu aux très rares (s’il s’en trouve à part moi) qui osent aller au fond de certains de leurs rêves. A ceux qui osent croire à leurs rêves et aux messages qu’ils leur portent. Si tu es un de ceux-là, je voudrais que ce livre te soit un encouragement, si besoin est, pour avoir foi en tes rêves. Et aussi, à avoir foi (comme j’ai eu foi) en ton aptitude à entendre leur message. (Et à voir se lézarder une à une et s’effondrer tes convictions les mieux assises, à 5 voir ta vie se transformer sous tes yeux...). Peut-être aussi la connaissance du rêve que j’essaye de communiquer pourra-t-elle t’éviter certains des tâtonnements et des détours par lesquels j’ai eu à passer, dans mon voyage à la découverte de moi-même. Sans que je m’en doute, ce voyage allait devenir aussi celui de la découverte du Rê- veur - de ce Peintre - Metteur-en-Scène bienveillant et malicieux, au regard pénétrant et aux moyens prodigieux, cet Œil et cette Main dont je viens de parler. Dès le premier rêve que j’ai scruté, me révélant à moi-même en un moment de crise profonde, je sentais bien que ce rêve ne venait pas de moi. Que c’était un don inespéré, prodigieux, un don de Vie, qu’un plus grand que moi me faisait. Et j’ai compris peu à peu que c’est Lui et nul autre qui “fait”, qui crée chacun de ces rêves que nous vivons, nous, acteurs dociles entre ses mains délicates et puissantes. Nous-mêmes y faisons figure de “rêvants”, voire de “rêvés” - créés dans et par ce rêve que nous sommes en train d’accomplir, animés par un souffle qui ne vient pas de nous. Qu’on me demande aujourd’hui, au sujet de mon travail sur les rêves, quel en est le fruit qui a pour moi le plus de prix, je répondrai sans hésiter : c’est de m’avoir permis de rencontrer le Maître du Rêve. En scrutant Ses œuvres, j’ai appris peu à peu à Le connaître tant soit peu, Lui à qui rien en moi n’est caché. Et tout dernièrement, comme aboutissement, sûrement, d’une longue quête qui s’ignorait elle-même, j’ai appris enfin à Le connaître par son nom. Peut-être en sera-t-il de même pour toi. Peut-être tes rêves aux mille vi- sages te feront-ils trouver, toi aussi, Celui qui te parle par eux. L’Un, l’Unique. Si ce livre peut t’y aider tant soit peu, il n’aura pas été écrit en vain. 1.3 3. L’enfant et la mamelle (1 er mai) Je suis venu à mes rêves comme un petit enfant : l’esprit vide, les mains nues. Ce qui me poussait vers certains parmi eux, ce qui me les faisait fouiller avec un tel acharnement avide, était autre chose que la curiosité d’un esprit alerte, intrigué par un “phénomène” étrange, ou fasciné par un mystère troublant, ému par une poignante beauté. C’était une chose plus profonde que tout cela. Une faim me poussait que je n’aurais su moi-même nommer. C’est l’âme qui était affamée. Et par quelque mystérieuse grâce, se surajoutant à celle de l’apparition de tel ou tel rêve “pas comme les autres”, 6 j’ai su parfois sentir et cette faim, et la nourriture à moi destinée. J’étais comme un nourrisson sous-alimenté, chétif et affamé, qui sent la mamelle toute proche. Cette réalité-là, je ne la discerne que depuis peu. Sur le coup, certes, et pendant de longues années encore, ce n’est nullement dans ces tons-là, quasiment minables, que je me voyais. Moi chétif ? ! Il n’aurait plus manqué que ça ! Ce n’était pas là une complaisance, une mauvaise foi inconsciente. La force que je sentais en moi, avec une évidence irrécusable, elle est bien réelle, et elle est précieuse. Mais elle se place à un tout autre niveau. Ce n’est pas celle de l’âme, d’une âme qui serait parvenue à son état adulte, en pleine maturité. J’avais des yeux pour voir, et j’avais aussi des idées bien assises sur une réalité que j’appelais “spirituelle”, et que je voyais bel et bien. Maintenant (depuis peu) je me rends compte que la réalité spirituelle est autre chose que ce que j’appelais ainsi. Je n’en avais alors qu’une expérience très confuse, et mes yeux ne la voyaient pas. Ils commencent seulement à s’ouvrir à cette réalité-là. Il est vrai que le nouveau-né non plus ne voit pas la mamelle, et pourtant il la sent quand elle s’approche, il réclame et il boit. De même, il y a un instinct spirituel en l’homme, avant même que ses yeux spirituels commencent à s’ouvrir. Heureux celui qui sait sentir cet instinct, et lui obéir ! Celui-là se nourrira, car la mamelle est toujours proche. Et ses yeux finiront par s’ouvrir et verront. 1.4 4. Tous les rêves viennent du Rêveur Si j’ai appris sur les rêves les choses qui ne se trouvent pas dans les livres, c’est pour être venu à eux dans un esprit d’innocence, comme un petit enfant. Et je n’ai aucun doute que si tu fais de même, tu apprendras, non seulement sur toi-même, mais aussi sur les rêves et sur le Rêveur, des choses qui ne sont pas dans ce livre-ci ni dans aucun autre. Car le Rêveur aime à se livrer à celui qui vient à lui en enfant. Et ce qu’il révèle à l’un, sûrement, n’est pas ce qu’il révèle à un autre. Mais les deux s’accordent et se complètent. C’est pourquoi, pour faire connaissance de tes rêves, et de Celui qui te parle par eux, point n’est besoin que tu me lises ni que tu lises personne. Mais d’apprendre quel a été mon voyage et ce que j’ai vu en chemin t’encouragera peut-être à entreprendre ou à poursuivre ton voyage, et à ouvrir grands tes 7 yeux. Pendant longtemps je ne notais que les rêves qui me frappaient le plus, et encore pas tous. Même une fois notés avec grand soin, la plupart de ces rêves restaient pour moi totalement énigmatiques. Avaient-ils seulement un sens ? Je ne me serais pas avancé à me prononcer à ce sujet. Certains, surtout parmi ceux que je ne notais pas, ressemblaient plus à une histoire de fous qu’à un message porteur d’un sens ! C’est en août 1982, six ans après mon premier travail sur un rêve, qu’a eu lieu un deuxième grand tournant dans ma relation aux rêves et au Rêveur. A ce moment j’ai compris que tout rêve était porteur d’un sens, caché souvent (à dessein, sûrement) sous des dehors déroutants - que tous sortent de la même Main. Que chacun, si anodin ou si scabreux qu’il puisse paraître, ou si loufoque ou foireux, ou si fragmentaire ou fumeux ... - que chacun sans exception est une parole vivante du Rêveur ; une parole souvent espiègle, ou un fou-rire derrière des airs graves voire lugubres (il n’y a que Lui pour saisir au vol et faire éclater le comique ou le cocasse, même là où on s’y attend le moins...) ; parole drue ou parole truculente, jamais banale, toujours perti- nente, toujours instructive, et bienfaisante - une création, en un mot, sortie toute chaude des mains du Créateur ! Une chose unique, différente de toutes celles qui furent ou qui seront jamais créées, et créée là sous tes yeux et avec ton involontaire concours, sans tambour ni trompette et (semblerait-il) à ta seule intention. Un don princier, oui, et un don à l’état pur, entièrement gra- tuit. Sans charge pour toi de gratitude, ni même d’en prendre note seulement, de la gratifier même d’un regard. Incroyable, et pourtant vrai ! Ce qui est vrai, en tous cas, c’est que parmi la multitude de rêves que j’ai notés tout au long des dix années écoulées (il doit y en avoir pas loin d’un millier, dont bien trois ou quatre cents dont j’ai su saisir le message), il n’y en est pas un seul qui à présent me donne l’impression de faire exception à la règle ; d’être, non pas une création, mais le produit de quelque mécanique psychique plus ou moins aveugle, ou de quelque force à la recherche d’une gratification, que ce soit celle des sens, ou celle de la vanité. Dans tous sans exception, à travers toute leur prodigieuse diversité, je sens la même “griffe”, j’y perçois un même souffle. Ce souffle-là n’a rien de mécanique, et il ne vient pas de moi. 8 1.5 5. Le rêve messager - ou l’instant de vérité Mais dans les premières années, je ne me posais aucune telle question. Je ne prêtais aucune attention aux rêves qui, à ce moment, m’apparaissaient encore comme du “tout venant”. Et même parmi ceux que je notais, je ne m’attardais guère que sur les rêves que j’appelais alors les “rêves messagers”. C’étaient, en somme, ceux pour lesquels il était clair d’emblée, par je ne sais quelle prescience obscure, qu’ils étaient bel et bien porteurs d’un “message”. Maintenant que je sais que tout rêve porte un message, et qu’il arrive que des rêves d’humble apparence expriment un message de grande portée, ce nom de “rêve messager” m’apparaît ambigu, et j’ai quelque réticence à l’utiliser encore. Ce sont aussi les rêves qui, d’emblée, se signalent à l’attention comme des “grands rêves”. “Grands” non pas, forcément, par leur longueur ou leur durée, ou par leur richesse en épisodes ou en détails marquants ; mais dans le sens ou parfois telle œuvre de la main ou de l’esprit - tableau, roman, film, voir un destin - nous frappent comme une chose “grande”. Un des signes d’un tel rêve, c’est une acuité exceptionnelle des perceptions et des pensées, et parfois une force bouleversante des émotions, comme si le Rêveur voulait bousculer notre inertie invétérée, nous secouer, nous crier à tue-tête : “Eh ! espèce d’endormi, réveille-toi pour une fois et fais attention à ce que je suis en train de te dire !”. Ce sont aussi les rêves au langage transparent, sans “code” secret ni jeux de mots d’aucune sorte, sans rien qui cache ou qui voile. Le message y appa- raît avec une clarté fulgurante, indélébile, tracé dans la chair même de ton âme par une Main invisible et puissante, toi-même Lettre vivante et vibrant acteur de la Parole à toi adressée. Et chaque mot porte, qui s’accomplit en toi pour exprimer par les mouvements de ton âme un sens qui te concerne, toi et nul autre, et le pose dans ta main afin que tu t’en saisisses. Celui qui parle en ton coeur comme personne au monde ne pourrait te parler, Il te connaît infiniment mieux et plus intimement que tu ne te connais toi-même. Quand le temps est venu, mieux que personne, il sait quels sont les mots vivants qui trouveront en toi résonances profondes, et quelles sont les cordes secrètes qu’elles feront vibrer. En bref, le “rêve messager” est celui où le Rêveur “met le paquet” pour te dire ce qu’Il a à te dire, avec une force et une clarté exceptionnelles. S’Il y met une telle insistance, c’est, à coup sûr, que le message est lui aussi ex- ceptionnel, qu’il te dit une chose essentielle, une chose qu’il faut absolument que tu saches. Peut-être le rêve vient-il te révéler des ressources insoupçon- 9 nées enfouies en ton être - une force intrépide qui s’ignore encore, ou une profondeur vacante, ou une vocation qui attend, un destin à accomplir... - quelque-chose à quoi jamais tu n’aurais osé rêver à l’état de veille ! Ou peut- être est-il venu pour t’encourager à te séparer de quelque poids écrasant que tu traînes depuis de longues années, pendant ta vie entière peut-être... Ecouter un tel rêve, entendre son message évident, irrécusable, et ac- cueillir la connaissance qu’il te porte, accepter cette vérité qui t’est offerte - c’est aussi voir ta vie changer profondément, dans l’instant même. C’est changer, c’est te renouveler, en cet instant. Plus jamais tu ne seras celui que tu étais avant l’instant de vérité. C’est bien pourquoi, aussi, il est si rare qu’une parole aussi brûlante soit entendue, qu’un don aussi inestimable soit accueilli. Car en chacun de nous gît une inertie immense, opposée à tout ce qui nous change et nous renouvelle. Et rares sont ceux en qui cette inertie de l’âme ne se double d’une peur incoercible, profondément enfouie. Cette peur-là est autrement plus puissante et plus véhémente que la peur de la maladie, de la destruction ou de la mort. Et elle a de multiples visages. L’un d’eux, c’est la peur de connaître - de se connaître. Un autre : la peur de se trouver, d’être soi-même. Et un autre encore : la grande peur du changement. 1.6 6. La clef du grand rêve - ou la voix de la “raison”, et l’autre (15 mai) Le “rêve messager” est, en somme, le rêve dont le sens est au fond clair, évident, celui pour lequel il n’est besoin de nulle “clef” pour y pénétrer. Du moins, pas de “clef” au sens où on aurait tendance à l’entendre dans le contexte du rêve : quelque chose comme un “code”, ou un “dictionnaire” (de symboles), ou sinon, à tout le moins, un recueil de recettes, d’instructions pour une façon de s’y prendre, qui résumerait une longue expérience du rêve, amassée peut-être par des générations d’observateurs sagaces... Bien plus : je dis qu’une telle expérience du rêve (et fût-elle millénaire !) n’est ici du moindre secours ; qu’elle serait même, si tu ne prends soin de l’oublier, un leurre et une entrave, bonne pour te distraire de l’essentiel. Confronté au premier rêve de ma vie que j’aie sondé, l’idée ne me serait venue d’une “clef” ou d’une “façon de procéder”. (Dans le contexte, ça aurait 10 été aussi incongru que de me lever pour aller chercher un marteau ou une scie, ou d’invoquer la loi d’Archimède pour ouvrir un robinet sur l’évier !). Pas plus que l’idée de mon inexpérience. Le bébé qui veut téter ou qui tète se pose-t-il des questions sur son “inexpérience” ? ! Il réclame à tue-tête ou il tète, cela lui suffit. Pour le marmot avide de téter, la clef de la totosse, ouvrant accès au lait généreux qui gonfle la mamelle rebondie, ce n’est ni plus ni moins que la faim qui le pousse, ce cri d’un corps affamé, qui exige son dû sans y aller par quatre chemins. Comme un sein maternel, le “grand rêve” nous présente un lait dru et savoureux, bon pour nourrir et vivifier l’âme. Et si la Mére se penche sur nous ainsi avec bonté, c’est qu’Elle sait, Elle, même quand nous l’ignorons, que l’âme tel un nourisson famélique, est affamée. Et la “clef” du rêve, le “Sésame ouvre-toi !” ouvrant accès à ce lait tout proche dont nous sentons les effluves obscurément - cette clef est en toi. C’est cette faim, la faim d’une âme affamée. Je ne savais rien de tout cela, bien sûr, pas au niveau conscient tout au moins. Je ne savais ni que j’avais une “âme”, ni que celle-ci était sous- alimentée, affamée. Et je n’avais jamais fait ni vu faire un travail sur un rêve. C’était l’inexpérience totale. Mais pas plus que le marmot, je n’avais besoin de rien de tout cela. Après le réveil, il y a eu quatre heures de travail intense, un “travail” qui s’ignorait lui-même, pour “vider totosse” - aller jusqu’au fond du rêve. En quatre ou cinq “jets” successifs, chacun reprenant le précédent comme à mon corps défendant, par acquit de conscience, alors que je m’apprêtais à nouveau, enfin ! à me rendormir, pour retrouver un sommeil bien nécessaire (malencontreusement interrompu par le réveil intempestif et le remue-ménage insolite qui l’avait suivi). Je n’aurais su moi-même dire pourquoi je m’obstinais ainsi, coup sur coup, à me remettre à écrire, assis dans mon lit : d’abord le récit du rêve (et même avec un soin infini, ça m’a pris deux heures d’affilée !), puis (rallumant à nouveau) le récit du réveil en sursaut, et des associations venues alors sur le champ, sous le coup encore de l’émotion ; et après encore, par deux ou trois fois d’affilée (alors qu’à chaque fois pourtant j’avais éteint et m’étais rallongé, dans l’idée de me rendormir vite fait), pourquoi m’obstinais-je ainsi à rallu- mer et à reprendre de quoi écrire, pour noter quelques (dernières !) réflexions au sujet de l’étape précédente (que j’avais crue pourtant la dernière) - en finir et qu’on n’en parle plus ! A aucun moment, je n’avais le sentiment que je fai- sais là quelque chose de conséquence, que j’étais à la poursuite d’un sens qui m’aurait échappé encore et qui aurait, de plus, à m’apprendre quelque chose 11 d’important, voire même de crucial. Bien au contraire : c’est comme malgré moi que mes pensées s’obstinaient à revenir sur ce rêve et sur les réflexions qu’il m’avait déjà inspirées, alors qu’un petit diable (que je connaissais déjà, et que depuis lors j’allais connaître beaucoup mieux encore...) me soufflait péremptoirement que ce n’était vraiment pas sérieux de gaspiller mon temps précieux à couper ainsi des cheveux en quatre, qu’il était grand temps que je me rendorme pour être d’attaque après, il ne manquait pas, Dieu merci, des choses plus sérieuses qui m’attendaient... Visiblement, c’était là la voix de la raison, elle avait entièrement rai- son, oui ! et pourtant - rien que cinq minutes encore (je plaidais), juste cinq petites minutes et pas plus, pour pouvoir cette fois m’endormir l’esprit vrai- ment tranquille, le petit boulot pas sérieux enfin terminé... Je plaidais, en somme, l’indulgence pour cette sorte de maniaquerie en moi, qui si souvent me force littéralement la main, que je le veuille ou non, à aller jusqu’au bout d’un travail (visiblement sans intérêt) ou d’une idée (visiblement vaseuse) ou ne serait-ce que de quelque vague et indéfinissable impression ; celle, par exemple, de n’avoir pas entièrement “saisi” encore (on vous demande un peu !) telle chose pourtant bien claire ; quitte même, à force d’insistance dé- cidément mal placée, à me donner la pénible impression à moi-même (à cette “voix de la raison”, j’entends) que je suis en train de “bombiner” encore, de faire l’école buissonière au lieu de vaquer aux occupations sérieuses comme tout le monde. Et pourtant, si à ce moment j’avais posé pendant quelques instants, pour me sonder à ce sujet-là, j’aurais su que dans mon travail de mathématicien tout au moins, tout ce que j’ai fait de bon et de meilleur (et surtout tout ce à quoi personne n’avait jamais songé et qui pourtant, après coup, s’avérait comme ce qui “crevait les yeux”) - c’est toujours à l’encontre de cette soi- disante “voix du bon sens” que je l’ai fait, pour avoir su écouter une autre voix en moi : celle justement de ce “maniaque”, du gars “pas sérieux” sur les bords, celui qui n’en fait qu’à sa tête et pour lequel je plaidais l’indulgence... Avec le recul supplémentaire de dix ans, je vois bien clairement mainte- nant que cette “autre voix”, c’est celle qui toujours m’aiguille vers l’essentiel ; en même temps que la voix “de la raison”, celle du gros bon sens, essaie à tous les coups et à tout prix de m’en détourner. Celle-ci, son seul souci, c’est de me maintenir sagement collé aux choses répertoriées et classées, ou tout au moins aisément reconnaissables, et par là, ressenties comme “sûres”. Car les choses essentielles sont aussi les choses les plus délicates et les moins “sûres” de toutes - telles des vapeurs impalpables, elles échappent aux cadres et aux 12 boîtes en quoi on aimerait bien pouvoir enfermer tout l’Univers des choses connaissables, pour avoir l’impression de Le “tenir”. Quand tu fais taire en toi cette “autre voix”, pour suivre benêtement celle que tout le monde suit - tu te coupes du meilleur en toi. Sans elle, tu ne peux découvrir, ni les choses extérieures à toi (que ce soit des maths, ou le “pourquoi” des faits et gestes d’Untel, ou les mystères du corps de la bienaimée...), ni les choses en toi. Sans l’écouter, et aurais-tu lu tous les livres du monde, tu ne peux entrer dans un seul de tes rêves. A vrai dire, cette voix-là, sûrement, est la même que celle qui te parle par le rêve. C’est celle du Rêveur, celle de la Mère. Elle te murmure tout bas où se trouve le vrai lait, celui auquel aspire non ta surface, mais ta profondeur. Il est tout proche de tes lèvres. Et il ne tient qu’à toi de boire. Cette voix-là est aussi la voix de ta faim - la faim de l’âme, ou sinon, la faim d’Eros, d’Eros-qui-veut-connaître. Mais même quand Il parle d’Eros (et Il en parle souvent), c’est toujours à l’âme que s’adresse le Rêveur, et à la faim de l’âme. Suivre la faim et boire, c’est aussi suivre cette voix. C’est cette faim en toi, et l’humble voix de cette faim, mal assurée, comme honteuse d’elle-même - c’est là la “clef du grand rêve”, du rêve-messager. Il n’y en a pas d’autre. Elle tourne sans bruit, et rien ne semble se passer. Tant que tu n’as pas tourné jusqu’au bout, rien ne se passe et rien ne s’est passé - rien en tous cas qui ne puisse, dans les minutes déjà qui viennent, reglisser dans les marécages de l’oubli et disparaître. C’est quand tu as tourné jusqu’au bout, seulement, que soudain, tout a changé : tu étais devant une porte fermée, et la voici miraculeusement ouverte ! Tu étais dans le noir ou dans la pénombre, et voici une irruption de lumière ! C’est là le signe que tu as été “jusqu’au bout”, que tu as touché le fond du rêve, bu le lait à toi destiné. Tu ne risques pas de t’y tromper. Celui qui a vécu un tel moment, ou ne serait-ce que la découverte de ceci ou de cela (et qui ne l’a vécu, ne serait-ce que dans son enfance !) - celui-là sait bien de quoi je parle : quand d’un magma informe soudain naît un ordre, quand une obscurité soudain s’éclaire ou s’illumine... Mais quand la découverte vient comme une révélation sur toi-même, bou- leversant ta relation à toi-même et au monde, c’est comme un mur alors qui 13 s’écroule devant toi, et un monde nouveau qui s’ouvre. Ce moment et ce qu’il vient de t’enseigner, tu sais bien (sans même songer à te le dire) que tu ne risques pas de l’oublier jamais. La connaissance nouvelle fait partie de toi désormais, inaliénable - comme une partie intime et vivante et comme la chair même de ton être. 1.7 7. Acte de connaissance et acte de foi (16 mai) J’écrivais hier qu’il n’y avait pas d’autre clef pour le “grand rêve” que la faim de l’âme. Quand, sous l’impression encore du rêve que tu viens de faire, tu sais écouter l’humble voix de cette faim, alors, sans même le savoir, tu es en train de tourner une clef délicate et sûre. Et je te souhaite la grâce de ne pas t’arrêter en chemin, avant que ne soit effacé le pêne et que la porte, fermée une vie durant, ne se soit ouverte... J’ai pensé pourtant aussi à la foi en le rêve. Quand je me suis réveillé sous l’afflux soudain d’une émotion si grande que mon âme ne la pouvait contenir, j’ai su au même instant, d’une façon sûre : ce rêve me parlait, et ce qu’il me disait avec une telle puissance bouleversante, il était important, il était crucial que j’en prenne connaissance. Je l’ai su, non pour l’avoir lu quelque part ou pour y avoir réfléchi un jour, mais par science immédiate et certaine. Comme il arrive aussi, quand quelqu’un te parle (et peu importe que tu le connaisses ou que tu le voies pour la première fois), que tu saches de façon sûre et sans avoir eu à te sonder, que ce qu’il te dit est vrai. Ce n’est pas là une impression, plus ou moins forte ou convaincante, mais bien une connaissance. L’impression peut tromper, mais non cette connaissance- là. Certes, il te faut toi-même être en un état particulier, un état d’ouverture, ou de rigueur, ou de vérité (qu’on l’appelle comme on voudra), pour savoir distinguer, sans nuance d’un doute, entre une simple impression, et une telle connaissance immédiate. Un tel discernement, qu’il soit perçu dans le champ de la conscience, ou qu’il reste subconscient (et peu importe en l’occurence), n’est pas de l’ordre de la raison, ou d’une intuition de nature intellectuelle. C’est un acte de perception d’essence spirituelle. En cet instant, l’œil spirituel en nous, qui percoit et distingue le vrai et le faux, est ouvert ou entrouvert et voit. Je crois qu’une telle perception aiguë du vrai et du faux, l’espace d’un éclair, est présente dans la psyché plus souvent qu’on pourrait le penser ; sinon d’une façon pleinement consciente, du moins dans les couches de la psyché proches de la surface. Mais un tel discernement, une telle connaissance n’est pas efficace par elle-même. Elle est comme un scalpel au tranchant effilé, 14 avant qu’une main ne s’en soit saisi. Assumer une telle connaissance fugace surgie en toi, t’en saisir, la rendre efficace, opérante, ce n’est ni plus ni moins que “la prendre au sérieux”, c’est “y croire”. C’est un acte de foi. Seul l’acte de foi rend “efficace”, rend agissant l’acte de connaissance. Il est la main qui saisit l’outil. Quand on parle de “foi”, on pense généralement à la “foi en Dieu” (et Dieu seul sait à chaque fois ce qu’il faut entendre par là...), ou en une reli- gion déterminée, ou en une croyance particulière. Ce n’est pas de cela qu’il est question ici, visiblement, ni de la “foi” en telle personne ou telle autre. Il s’agit d’une “foi” en quelque chose d’immédiat, qui se passe en nous-mêmes à l’instant même : cet acte de connaissance qui vient d’avoir lieu, nous dési- gnant telle chose comme “vraie”, ou comme importante. On pourrait dire que c’est une foi “en soi-même”, ou pour mieux dire : une foi en certaines choses qui se passent en nous, nous ne savons nous-mêmes pourquoi ni comment, en certains moments de vérité perçus comme tels. Un instinct obscur et sûr nous avertit que de ne pas faire confiance sans réserve à cet acte qui vient d’avoir lieu, à cette perception aiguë nous livrant une connaissance certaine, serait une abdication, une renonciation à la faculté, dévolue à nous comme à chacun, d’une connaissance personnelle, directe et autonome de choses qui nous concernent. A vrai dire, l’acte de connaissance au plein sens du terme inclut l’acte de foi, qui lui donne crédit et qui prend cette connaissance comme point de dé- part et tremplin d’une action. Car tant que l’acte de foi, générateur d’action, n’est pas inclus, la connaissance reste entachée de doute, elle est incomplète et inefficace, mutilée de sa raison d’être même. Et l’“état de vérité” dont je parlais tantôt, où l’acte de connaissance prend naissance, n’est réalisé pleine- ment que quand il inclut, dans le silence même d’une écoute, cette tonalité d’ardeur, d’implication de soi sans réserve d’où jaillit, invisible et pourtant agissant, l’acte de foi. Un tel état de vérité, au plein sens du terme, est parmi les choses les plus rares du monde, et du plus grand prix. Dans quelle mesure un tel état nous vient comme une grâce, comme un don gratuit venu d’ailleurs, et dans quelle mesure il dépend de nous - d’une rigueur, d’une probité, d’un courage... C’est là un mystère. C’est pour moi un des grands mystères de la psyché, et de sa relation à la Source de toute connaissance. D’où me venait cette connaissance immédiate au sujet du rêve que je venais de faire ? Visiblement, elle ne provenait d’aucune expérience d’aucune 15 sorte, et encore moins d’une réflexion. Je crois pouvoir dire, sans nuance de doute, que c’était là une chose qui m’était “dite” en même temps que le rêve, par le fait même que ce rêve était bel et bien vécu par moi, et avec une telle force, et que je ne pouvais absolument pas récuser le témoignage de ce vécu, ni la connaissance (inséparable, à vrai dire, de celui-ci) : que ce vécu avait, au delà de son sens “littéral”, un autre sens, et qui me concernait de façon autrement plus profonde. Peut-être même pourrais-je dire qu’au niveau spirituel, l’acte de connais- sance “partiel”, ou “préliminaire”, dont je parlais au début, ne vient jamais de nous, de notre psyché limitée mais toujours de Celui en nous qui sait : de celui qui, pendant le sommeil, nous parle par le rêve, et pendant la veille, de toute autre façon qui Lui plaît. Dire que cet acte de connaissance incomplet a lieu, signifierait donc qu’Il nous parle de ce que nous ne pourrions savoir par nos seuls moyens, et que de plus nous “écoutons”, que nous “prenons connaissance” de ce qu’Il nous dit. L’état de vérité partiel serait alors l’état de silence intérieur et d’écoute, qui nous permet de distinguer clairement la Parole du bruit environnant. La participation de la psyché est donc ici pas- sive, le rôle actif étant tenu par “la Source”, ou “le Rêveur”, ou “la Mère” ou quelque autre nom qu’on donne à Cela ou à Celui ou Celle en nous qui toujours sait, et de science profonde et sûre. L’acte de foi par contre provient de nous, de l’âme. C’est l’acte par le- quel nous “ajoutons foi” à ce qui nous est dit (la langue française est ici particulièrement bien inspirée !), et ceci au plein sens du terme : nous nous donnons, à l’instant même, à cette connaissance qui vient d’être donnée et reçue, en agissant sans réserve ni hésitation selon ce que nous inspire cette connaissance qui vient d’apparaître. Ainsi l’acte de connaissance complet, incluant l’acte de foi, apparaît comme un acte commun auquel participent, indissolublement, deux partenaires : l’initiative revient à Dieu (pour lui donner cette fois le nom qui lui revient), et l’âme y fait figure d’interlocuteur de Dieu, tour à tour recevant le don de sa Parole, et se donnant par l’acte de foi. Tel, du moins, m’apparaît l’acte de connaissance qui a lieu au niveau qui m’intéresse ici, celui de la réalité spirituelle. Bien sûr, ces choses-là, comme pratiquement tous les processus et actes créateurs, ont lieu (sauf rares exceptions) dans l’Insconscient, à l’abri du regard. De plus, le plus souvent nous n’avons aucune connaissance d’un “In- terlocuteur”, pas même (je crois) dans les couches profondes de la psyché. 16 C’était le cas, notamment, en cette première fois où j’ai sondé un rêve. Au niveau conscient tout au moins (et comme je le soulignais hier), ce qui don- nait le ton alors et dominait “la main haute”, c’étaient les résistances au changement, alias “le petit diable”, se présentant sous les apparences les plus convaincantes de la “voix de la raison” ! Pourtant, l’acte de foi avait eu lieu bel et bien et ladite foi, bien accrochée dans l’Inconscient (et sans se soucier, certes, de se nommer au grand jour...), tenait bon tout en se faisant humble et quasiment soumise : juste encore cinq petites minutes, pour terminer... Et elle n’a pas lâché, jusqu’à ce que le pene enfin se désenclenche et que la porte verrouillée soit soudain grande ouverte. Dans les heures et les jours qui ont suivi la percée, cette foi en “le rêve” est devenue pleinement consciente. C’était alors, et est resté, une foi totale, sans réserve, une connaissance sûre et inébranlable : je savais, sans que jamais s’y soit mêlé le moindre doute, que je pouvais faire entièrement confiance à mes rêves. Si réserve il y avait, elle ne concernait jamais le rêve ou Celui qui me parlait par le rêve, mais uniquement la compréhension à laquelle je parvenais sur tel rêve ou tel autre, plus ou moins complète, plus ou moins assurée d’un cas à l’autre. Dans le cas du premier rêve que j’ai sondé, une fois arrivé au bout, je savais, certes, sans possibilité du moindre doute, que le “message” avait passé - que le rêve avait fait “mouche” ! Cette connaissance, cette totale confiance en le rêve, n’est pas le fruit de l’expérience. Après coup, elle se trouve confirmée surabondamment par l’expérience, c’est une chose entendue - mais c’est là une chose qui allait de soi. A vrai dire, avant aujourd’hui, je n’ai jamais songé à m’interroger sur la provenance de cette connaissance, de cette confiance totale, cette foi. Elle est de même nature, il me semble, que la connaissance que j’ai depuis tou- jours de la “force” en moi - de la capacité de connaître de première main, et de créer sans avoir à imiter quiconque. Les deux connaissances me semblent quasiment indistinguables. Sans me l’être jamais dit en clair, je sentais bien, d’emblée, que ce qu’il y avait de meilleur en moi était de la même essence que le Rêveur. Il était un peu comme un frère aîné, espiègle et bienveillant, sans la moindre complaisance et en même temps d’une inlassable patience. Certes, il me dépassait infiniment par le savoir, par la pénétration du re- gard, par son prodigieux pouvoir d’expression et, surtout, par une liberté déconcertante, infinie. Pourtant, tout limité que je sois, enfermé de toutes parts par mes œillères, il y avait, jamais formulé, cet irrécusable sentiment de parenté. Il était confirmé par l’intérêt évident que le Rêveur prenait à ma modeste personne. Mais surtout, il me semble, ce sentiment apparaissait dans une sorte de connivence quasiment, se manifestant dans certains rêves ; 17 dans ceux surtout qui recélaient un comique caché, souvent désopilant, der- rière des apparences gravissimes, voire dramatiques ou macabres. Arriver à “entrer” dans un de mes rêves et par là-même, dans l’esprit dans lequel il avait été créé, c’était aussi, un peu, me dépouiller pour un moment de ma lourdeur coutumière, et me retrouver dans ce qu’il y a de meilleur en moi, par cette communion espiègle, cette connivence avec Celui qui me parlait par le rêve. Il me semble maintenant que progressivement, au fil des ans, cette foi en mes rêves, ou pour mieux dire, cette foi en le Rêveur, s’est décantée, comme la quintessence même de la foi en ce qui est le meilleur en moi - en ce qui me rend capable de connaître, d’aimer, de créer par la main, l’esprit et le cœur. Cette foi-là m’a accompagné ma vie durant. Elle se confond avec ma foi “en la vie”, “en l’existence”. Ce n’est pas une croyance, une opinion sur ceci ou cela, mais la réponse agissante à une connaissance. Cette foi n’est pas affectée par l’expérience de mes limitations et de mes misères, ni par celle de mes erreurs ou de la tenace fringale d’illusion en moi. Toute expérience de moi-même et toute découverte de moi, que ce soit celle d’une grandeur ou celle d’une misère, approfondit la connaissance et vivifie la foi. Depuis peu, la nature de cette foi est mieux comprise, en même temps qu’elle a reçu une assise nouvelle ; un centre et un fondement, à la fois en moi et hors de moi, et qui me dépasse infiniment, alors que je lui suis intimement et mystérieusement relié. Il a fallu pour cela que le Rêveur se révèle à moi comme Celui qu’Il est. Mais j’anticipe ! 1.8 8. La volonté de connaître (17 mai) Il pourrait sembler que hier, j’aie mis le doigt sur une “deuxième clef” du grand rêve, après avoir affirmé péremptoirement avant-hier qu’il n’y en avait qu’une seule ! Mais en s’arrêtant sur la chose un instant, il apparaît que ces deux clefs sont en réalité indistinguables - c’est en réalité la même clef, vue sous deux angles ou de deux côtés différents. La première, disais-je, c’est une faim spirituelle que le rêve vient combler, et la voix de cette faim, qui te dit : voici la nourriture dont tu as besoin ! Et la deuxième, dont je parlais hier, c’est l’acte de foi, par quoi tu ajoutes foi à cette voix et lui obéis. Les deux ensemble : prendre connaissance de cette voix et lui donner foi, ne sont autres que l’acte complet apparu dans la réflexion d’hier, l’“acte de connaissance” au plein sens du terme celui qui fait un avec l’action. 18 Je crois que dans le sillage immédiat de tout grand rêve, venant apporter une nourriture essentielle à l’âme affamée, la “voix de la faim” est bel et bien présente - le marmot braille bel et bien ! S’il est si rare pourtant que le rêve fasse “mouche”, c’est parce qu’il y a quelqu’un (le “petit diable” péremptoire dont je parlais, alias “la voix de la raison”) qui s’empresse de faire taire le braillard affamé. Pour le dire autrement : il y a bien la “clef” du rêve, à portée de la main - mais la main, au lieu de s’en saisir pour l’usage qui s’impose, la jette à la ferraille (comme chose ridicule et déraisonnable à souhait...). Cela fait, on se gratte la tête et on se dit : qu’est-ce qu’il peut bien vouloir dire, ce rêve pas comme les autres que je viens de faire ? ! Et si on a du temps de reste, on va fouiller dans un livre sur les rêves, ou on va en parler à son psychanalyste... Ce qui a manqué, c’est l’acte de foi. Une foi en une chose tout ce qu’il y a de délicat, d’imperceptible quasiment, au point même de paraître tout à fait déraisonnable. Car ce soi-disant “braillard” dont je parlais, l’âme chétive, malade, ignorée - elle “braille” à voix très basse. La voix d’une qui sait bien qu’elle n’est jamais écoutée. On l’entend, mais on ne l’écoute jamais, tout occupé qu’on est à la faire taire vite fait. J’ignore si le récit naïf et sans fard de ma propre expérience t’aidera (ou aidera quiconque) à “sauter le pas”, à entrer dans un de tes grands rêves. Ce que je sais par contre, c’est qu’en l’absence de l’acte de foi dont je parlais, aucun auxiliaire technique (dictionnaire, méthode, analyste) ne te sera du moindre secours. Le Rêveur ou Dieu en personne viendrait-il t’expliquer en long et en large le sens du rêve, par le langage des mots venant seconder la langue du rêve que tu récuses, que cela ne te servirait de rien. Tu dirais “oui, comme c’est intéressant ! Merveilleux !”, et ça entrera dans une oreille pour sortir vite fait par l’autre. L’oreille spirituelle j’entends, qui est la seule ici qui compte. Ce n’est pas une question de concepts que la raison associe et que la mémoire retient. C’en est aussi loin que le jeu d’amour est loin d’un traité gynécologique, ou le parfum de la femme aimée, ou d’une fleur que tu respires, est loin de la formule chimique qui prétend le “décrire”. Pour le dire autrement : l’acte décisif, l’acte de foi, n’est pas acte de l’intellect, mais acte et expression d’une volonté spirituelle : la volonté du marmot affamé, de boire bel et bien à la mamelle tendue vers lui. Car, si étrange que cela puisse paraître, l’âme a beau être affamée, il y a une force plus forte encore qui la retient de boire, et même, de vouloir seulement boire. Comme un gosse malheureux, peut-être, qui en aurait trop vu, et qui, tout affamé qu’il soit, n’oserait plus écouter et suivre la voix de sa faim. La chose 19 d’ailleurs existe bel et bien - des nourrissons affamés et chétifs, qui préfèrent se laisser mourir, plutôt que de boire. La chose étrange, c’est que l’âme de tous ou presque tous est dans cet état-là (et je n’y ai pas fait exception). Avec cette différence seulement que l’âme, cette grande Invisible, a la peau si dure, qu’elle ne crève jamais, quoi que tu fasses ! Elle végète, elle dépérit, elle vivote, mais elle ne meurt pas. Ceci dit, quand un enfant à la mamelle, si affamé soit-il, refuse de boire, c’est inutile de lui parler même par la voix des anges - il ne boira pas plus pour autant. Et si tu n’as pas la volonté de “boire”, d’apprendre quelque chose à ton propre sujet - que cette chose te vienne par un rêve ou de toute autre façon - tu auras beau faire, et tes amis ou l’analyste auront beau faire, tu ne boiras pas, tu n’apprendras rien. Même Dieu en personne (à supposer qu’il prenne une telle peine, dont Il sait bien d’avance qu’elle est peine perdue...) n’y arriverait pas. Car Il respecte ta liberté et tes choix, plus que toi-même ni personne au monde ne les respecte... 1.9 9. La porte étroite - ou l’étincelle et la flamme (18 mai) J’avais pensé que je passerais rapidement sur le “cas” du “grand rêve” ou rêve messager, puisque c’est aussi le cas où il n’y a, du point de vue technique, pratiquement “aucun problème”. Tant je reste, dans mes réflexes à fleur-la-peau (et surtout dans un livre, censé “faire sérieux” !), enfermé comme tout le monde dans l’attitude consistant à ne considérer comme “sérieux” et digne d’attention que l’aspect technique, “savant” des choses, les “recettes” sûres (ou prétendues telles) et toutes prêtes à l’emploi. Je sais bien pourtant que les grands rêves, tout exceptionnels qu’ils soient, sont ceux qui sont de très loin les plus importants - plus importants à eux seuls que tous les autres réunis ! En écouter un seul, c’est déjà “changer d’éta- ge”. C’est sauter d’un niveau de conscience à un niveau supérieur, quelque chose que dix ans, ni cent ans ni mille d’expérience de ta vie ne saurait, à elle seule, accomplir. Oui, vivrais-tu mille vies d’affilée, tu ne pourras, pour passer à ce nouveau stade qui t’attend, éluder cette “porte étroite” que je me suis efforcé de décrire, tu ne pourras faire l’économie de l’acte de connais- sance et de foi, surgi d’une volonté spirituelle ferme et sans atermoiement. (Cet acte que j’ai été conduit, presque malgré moi, à essayer de cerner en tâtonnant.). Le seuil est là devant toi, sur le chemin de la connaissance. Que tu l’abordes dans le sillage d’un “grand rêve” (cette main tendue par Dieu !) ou de toute autre façon, il te faut passer par cette porte-là. Sa clef est dans ta main et dans celle de nul autre. Alors même que Dieu te comblerait des 20 grâces les plus inouïes (et l’apparition d’un grand rêve est à elle seule déjà une inestimable grâce...), ce serait en vain, s’il n’y a en toi la foi pour y croire et la volonté pour t’en saisir. Car même désirant et voulant ton bien, Dieu ne te forcera pas la main, ni ne l’animera à ta place pour l’acte qui incombe à toi, et non à Lui ni à aucun autre être sur terre ou ailleurs. C’est donc là une situation entre toutes où “le problème” n’est pas tech- nique, n’est pas celui d’un savoir ni d’une perspicacité, mais se situe ailleurs. C’est l’“ailleurs” dont personne ne parle jamais, tant de nos jours il semble méprisé de tous (y compris de ceux qui battent pavillon “spiritualité”). “L’ailleurs” de ces choses délicates et élusives, choses de l’ombre et de la pénombre, que le langage arrive à évoquer (car il n’y a personne, sûrement, en qui ne repose une silencieuse connaissance de ces choses...), mais jamais à décrire, à définir, à réellement “saisir”. Car le commencement et l’essence de l’acte créateur est insaisissable. Il échappe à jamais aux mains pataudes de la raison, et à son filet, le langage. Pourtant, une fois présente la volonté de connaître, et fermement disposée à agir, la raison et le langage en sont des instruments précieux, voire indispen- sables. Car par la seule apparition de cette foi, de ce désir, de cette volonté, la percée n’est pas accomplie pour autant, la porte ne s’est pas ouverte. J’ai dit que c’était la clef et la main qui tient la clef ; encore faut-il l’ajuster dans la serrure et tourner. C’est là l’“intendance”, c’est là le “travail”, travail “sans problème”, peut-être. Mais tu ne peux pas plus en faire l’économie que de l’acte préalable, l’acte de foi et de volonté qui débouche sur ce travail et qui seul lui donne son sens et le rend possible. Et c’est dans ce travail aussi que la saine raison, et son serviteur le langage, reprennent tous leurs droits. Foi, désir, volonté sont l’étincelle jaillie soudain, comme appelée par le combustible tout prêt, offert en pâture au feu qui doit le brûler et le consumer. Le travail du feu est le prolongement immédiat et naturel du jaillissement de l’étincelle, mordant dans la nourriture à elle offerte et la dévorant jusqu’à l’épuisement. Point n’est besoin de prescrire à l’étincelle ce qu’elle doit faire : il est dans sa nature même de se transformer en feu en mordant, et dans la nature du feu de dévorer jusqu’à l’achèvement, dans ses épousailles ardentes avec la matière qu’elle consume. Et ton désir et ta faim sont l’étincelle et le feu jaillissant de ton être et dévorant le bois qui t’est offert par Dieu. 21 1.10 10. Travail et conception - ou le double oignon Mais c’est sur le travail pour entrer dans un rêve messager que je m’apprê- tais à dire quelques mots. Tu t’étonneras peut-être qu’il soit encore question de “travail”. N’avais-je pas prétendu que ce qui distingue justement le rêve messager des autres, c’est que son sens est “évident”, exprimé à notre inten- tion avec une clarté fulgurante ? ! Et tel est bien le cas en effet. Mais cette “évidence” n’apparaît qu’une fois arrivé au terme du travail. C’est même ce sentiment d’évidence, que ce sur quoi tu viens soudain de déboucher, c’est ce que tu aurais dû voir dès le début comme la chose évidente - c’est ce sentiment-là qui est un des signes (sinon le premier, ni celui qui touche le plus) que “ça y est”, que tu as touché au fond du rêve... L’apparition soudaine d’un tel sentiment n’est d’ailleurs pas chose spéciale à la compréhension du grand rêve. Celui-ci représente simplement un des cas où elle est la plus flagrante. Je crois même qu’elle est plus ou moins commune à tout travail de découverte, aux moments où celui-ci soudain débouche sur une compréhension nouvelle, grande ou petite. J’en ai fait l’expérience encore et encore tout au cours de ma vie de mathématicien. Et ce sont les choses les plus cruciales, les plus fondamentales, au moment où elles sont enfin saisies, qui sont celles aussi qui frappent le plus par leur caractère d’évidence ; celles dont on se dit après-coup qu’elles “crevaient les yeux” - au point qu’on se trouve stupéfait que soi-même ni personne n’y ait songé avant et depuis longtemps. Ce même étonnement, je l’ai rencontré à nouveau, et tout autant, dans le travail de méditation - ce travail à la découverte de moi-même qui est venu, peu à peu, à se confondre quasiment avec le travail sur mes rêves. Les gens ont tendance à ne pas y faire attention, à ce sentiment d’évidence qui accompagne si souvent l’acte de création et l’apparition de ce qui est nouveau. Souvent même on refoule la connaissance de ce qui peut sembler, en termes des idées reçues, un étrange paradoxe. Mais la chose est sûrement bien connue, au fond, à tout un chacun qui a vécu un travail de découverte (qu’il soit intellectuel, ou spirituel), et même à celui qui a vécu simplement le jaillissement soudain d’une idée imprévue (et qui n’a vécu de tels moments !), alors que le travail qui l’a préparée est resté entièrement souterrain. Cette impression d’évidence, et cet étonnement, sont rarement présents dès le premier contact avec la chose nouvelle (le message d’un rêve, disons). L’œil ne la perçoit d’abord que d’une façon toute superficielle, voire distraite, 22 dans une sorte de flou, englobant cette chose et d’autres également floues et incomprises, et dont elle n’a pas tellement l’air de se distinguer ; alors que c’est elle pourtant qui va se révéler être comme l’âme et le nerf qui animent tout le reste. Cette révélation se produit une fois seulement que l’image mentale a dépassé ce premier stade plus ou moins amorphe, qu’elle- même est devenue mouvement et vie, tout comme la réalité qu’elle reflète. C’est cette métamorphose justement, d’une image amorphe en une vivante réalité intérieure (expression fidèle d’une réalité vivante “objective”), qui est préparée par le travail et en est la véritable raison d’être. La chose n’est vue pleinement qu’au terme de ce travail. C”est alors seulement qu’elle apparaît dans toute son “évidence”, dans sa vivante simplicité. On peut voir ce travail comme un travail d’“organisation”, instaurant un ordre dans ce qui d’abord paraissait amorphe ; ou comme une “dynamisation” ou “animation”, insufflant vie et mouvement à ce qui semblait inerte. Inertie et amorphie ne sont pas inhérentes à ce qui est regardé (sans être encore vraiment “vu”), mais bien à l’œil qui voit mal, encombré qu’il est par le ballast des images anciennes, l’empêchant d’appréhender le nouveau. Mais plus que toute autre chose, le travail dont je veux parler est un travail d’approfondissement, une pénétration de la périphérie vers les profondeurs. C’est bien ainsi que je l’ai ressenti, de façon quasiment charnelle, dès la première fois où j’ai médité, et à nouveau, deux jours plus tard à peine, quand pour la première fois dans ma vie j’ai sondé le sens d’un rêve. Je perçois cet approfondissement de deux façons différentes, irrécusable l’une et l’autre, comme deux aspects également réels, et en quelque sorte complémentaires, d’un même et laborieux cheminement. Voici le premier. L’esprit entre et pénètre dans la chose qu’il s’agit de connaître, comme si celle-ci était formée de couches ou de strates successives ; sondant laborieusement une couche après l’autre, traversant celle-ci et la quittant à son tour pour pénétrer dans celle qui la suit, et poursuivant sans répit sa tenace progression jusqu’à ce qu’enfin il touche au fond. C’est au moment même où tu touches au fond que prend naissance la chose nouvelle - l’image vivante, incarnation d’une connaissance nouvelle et véritable, te livrant une réalité devenue soudain tangible, irrécusable. C’est là l’aspect en quelque sorte “externe” du travail d’approfondisse- ment, où l’esprit qui pénètre joue le rôle actif, “masculin”. Il y prend figure d’un opiniâtre insecte rongeur, se frayant un chemin à travers les couches 23 successives d’un gros oignon, comme attiré par un obscur instinct vers le cœur du bulbe où il doit plonger pour y connaître, qui sait ? quelque éblouis- sante métamorphose, dont il serait bien incapable de se faire d’avance la moindre idée. Le franchissement de chaque “interface” d’une strate de l’oi- gnon à l’autre représente le franchissement d’un “seuil”, par passage d’un certain “ordre”, déjà capté par l’image mentale, à l’ordre qui le suit, corres- pondant à un degré d’organisation et d’intégration supérieur. Et voici le deuxième aspect du travail d’approfondissement, l’aspect in- terne. C’est la psyché maintenant qui est pénétrée, c’est elle qui joue le rôle réceptif ou passif, “féminin”. L’“oignon” cette fois n’est pas la substance in- connue que l’esprit pénètre et sonde, mais c’est la psyché elle-même, perçue comme une formation de couches superposées, depuis la surface (l’écran où se projettent les impressions et prises de connaissance pleinement conscientes) jusques aux parties de plus en plus profondes et reculées de l’Inconscient. Ce qui maintenant doit se frayer un chemin, depuis la pelure périphérique jusqu’au cœur même de l’oignon, c’est la perception et la compréhension de la chose que je désire connaître - ou pour mieux dire, c’est cette chose elle- même qui, par la vertu de l’attention qui l’accueille et alors même qu’elle serait extérieure à moi, se trouve aussi en moi avec une vie qui lui est propre, participant et de ce qui est extérieur à moi, et de ce qui est intérieur et y répond. Le mûrissement progressif et le déploiement d’une compréhension d’abord embryonnaire, est visualisée et vécue comme une telle progression de la chose à connaître, comme sa descente obstinée à travers mon être, depuis la mince couche périphérique jusque vers les profondeurs de l’Inconscient. Au fur et à mesure, ce cheminement se trouve reflété, comme en un miroir, de façon plus ou moins claire, plus ou moins complète, sur l’écran de la connais- sance consciente. Un peu comme si à chaque moment le chemin déjà parcouru servait de communication, tel le couloir optique d’un périscope, entre la pé- riphérie et la couche extrémité du chemin, pour projeter dans le champ de la conscience et lui rendre accessible ce qui se trouve et se passe dans cette couche-là. Ce deuxième aspect du travail, l’aspect “féminin” ou “yin”, est important surtout, il me semble, quand il s’agit d’intégrer pleinement une connaissance qui est de nature avant tout spirituelle. Souvent, cette connaissance est déjà présente, peut-être depuis longtemps, voire depuis toujours, dans les couches les plus profondes de la psyché. Mais tant que les forces répressives provenant du “moi”, du conditionnement, la maintiennent prisonnière dans le fin fond de l’Inconscient, son action reste limitée voire minime, sinon nulle. Du côté opposé, une soi-disante “connaissance” qui serait limitée à la “pelure de l’oi- 24 gnon”, sous forme (disons) d’une “opinion” ou d’une “conviction”, provenant de lectures, de discussions ou simplement de “l’air du temps” culturel, ou d’une réflexion, voire même d’une intuition subite - une telle “connaissance” mérite rarement de nom. Je mettrais pourtant à part le cas de l’“intuition subite”, par exemple une première intuition du message d’un rêve, apparue sous le coup de l’émotion dès le moment du réveil. A coup sûr, elle est une projection instantanée, dans le champ conscient, d’une connaissance présente dans des couches plus ou moins profondes de la psyché (projection peut-être incomplète, ou déformée). Mais même dans ce cas, cette connaissance par- tielle, présente à la fois à la surface et au cœur, reste inefficace. Elle le reste, aussi longtemps que ne s’est pas accompli le travail d’approfondissement, as- surant la “jonction” (pour ainsi dire) entre la connaissance profonde (faisant fonction de “source”) avec sa projection à la périphérie. Il faut d’abord que celle-ci se fraye un chemin, cahin-caha, couche après couche, jusqu’au fond, jusqu’au retour à sa source. Si ce travail s’arrête avant d’être arrivé à son terme, et ne manquerait-il que l’épaisseur d’un cheveu - c’est comme si aucun travail n’avait été fait. Comme si le spermatozoide s’était arrêté dans sa course, avant de toucher l’ovule et de se fondre avec lui en un nouvel être. La fécondation ultime, la conception instantanée de l’être nouveau, a lieu (quand le cheminement se poursuit jusqu’au contact ultime) ou elle n’a pas lieu (quand il s’arrête avant d’être arrivé à terme). Il n’y a pas de moyen terme, pas de juste milieu. On ne naît ni ne renaît à moitié. Tu saisis ta chance, ou tu la laisses passer. Tu renais, ou tu restes celui que tu étais - le “vieil homme”. 1.11 11. Le Concert - ou le rythme de la création (19 et 20 mai) Dans cette première partie de mon témoignage sur mon expérience du rêve, mon propos est de faire le récit des enseignements de cette expérience qui m’apparaissent les plus essentiels pour la connaissance du rêve en général. Ils sont tous de nature non technique, touchant avant tout à la nature même du rêve et de la connaissance que nous pouvons en avoir. Et voilà déjà cinq jours d’affilée que je me vois conduit, jour après jour et comme sous la contrainte d’une logique intérieure muette et péremptoire, à m’attarder sur le rêve messager, épluchant et scrutant l’une après l’autre les différentes étapes et les mouvements de l’âme dans le délicat et ardent périple qui conduit (quand les vents de l’esprit sont propices...) de l’apparition du rêve à la compréhension de son message. 25 Le fait que le message du grand rêve nous concerne de façon névralgique et profonde lui donne une portée et une dimension spirituelle exceptionnelles, voire unique dans l’aventure d’une vie humaine. C’est un appel, une inter- pellation puissante, une invitation pressante à un renouvellement créateur de l’être à passer sans retour d’un niveau de développement spirituel à un autre, moins fruste, moins borné, moins indigent voire misérable. C’est là un aspect presque toujours négligé, sur lequel j’ai été amené à revenir encore et encore, sur lequel on ne peut trop insister. Mais quand je fais abstraction de cette dimension unique du rêve mes- sager, ce qui me frappe surtout dans le récit de ces derniers jours est en fait en direction en quelque sorte opposée : toutes les autres particularités du “périple de connaissance” que j’ai évoquées à l’occasion du grand rêve se retrouvent plus ou moins telles quelles dans le “processus de la connaissance” en général. Mais peut-être vaudrait-il mieux l’appeler “processus de la dé- couverte”, pour bien indiquer qu’il s’agit des processus par lesquels apparaît une connaissance nouvelle, où une connaissance déjà acquise, déjà intégrée à notre être, se renouvelle. Une chose remarquable m’était déjà apparue progressivement au cours des dix années écoulées, au sujet de ces processus créateurs : c’est que sous des formes certes variables à l’infini, on y reconnaît les mêmes aspects es- sentiels, quel que soit le “niveau” psychique où se situe la connaissance qui se développe et se renouvelle. Je distingue trois tels niveaux ou “plans” : la connaissance dite “sensuelle” ou “charnelle” (qui inclut la connaissance “érotique”, au sens restreint et courant du terme), la connaissance “intel- lectuelle” et “artistique” (laquelle constitue un stade d’évolution supérieur de la connaissance “érotique” des choses, sans être pourtant de nature es- sentiellement différente), enfin, la connaissance “spirituelle”. Celle-ci est de nature foncièrement différente des deux modes ou niveaux de connaissance précédents, et (aux yeux de Dieu tout au moins...) d’essence supérieure. Entre ces trois grands plans de la connaissance, dont les deux premiers restent tout proches, mais dont le troisième, le plan spirituel, se trouve loin au delà de ceux-ci, on perçoit pourtant des correspondances intimes et mys- térieuses. Comme si les deux plans inférieurs étaient des reflets, ou mieux, des “paraboles”, imparfaites et fragmentaires et pourtant essentiellement “fidè- les”, du plan spirituel, dont ils seraient pour nous les messagers énigmatiques et méconnus. Et le rêve m’est apparu peu à peu, au fil des ans, comme l’“Interprète” par excellence, nous faisant signe comment “remonter” des 26 mots de la chair et de ceux de l’intelligence humaine, vers la réalité origi- nelle, qui est notre patrie véritable et notre inaliénable héritage. La réflexion de ces derniers jours vient inopinément entrer en résonance avec l’ensemble d’intuitions éparses que je viens d’essayer d’évoquer. Il sem- blerait bien qu’il y ait un archétype commun à tous les processus créateurs, à tous les processus de découverte, quel que soit le plan sur lequel ils se poursuivent et s’accomplissent. Et je soupçonne même que cet archétype ou moule originel ou forme originelle, ce “modèle” éternel pour tous les pro- cessus créateurs s’accomplissant dans la psyché (voire même, pour tous les processus créateurs sans exception, quels que soient les plans d’existence sur lesquels ils peuvent se dérouler) - qu’il se trouve incarné et inscrit de toute éternité dans la nature même de Dieu, le Créateur : de la façon dont Dieu Lui-même procède en créant - ainsi procède tout travail et tout acte créateur sans exception, que Dieu Lui-même y prête la main, ou non. Je discerne, dans le processus de la découverte, des “moments” différents, ou “étapes” différentes, se déroulant dans un ordre et suivant un scénario qui semblent bien, pour l’essentiel, être les mêmes d’un cas à l’autre. Il en est deux, plus ou moins longues et laborieuses, pour lesquelles le “facteur temps” semble un ingrédient essentiel, tout comme pour la croissance d’une plante, la maturation d’un fruit, ou pour la gestation du fœtus dans les replis de la matrice maternelle. Ils “travaillent avec le temps”, se déroulent “dans la durée”. J’en vois deux autres, par contre, qui paraissent plus ou moins instantanés, telle l’étincelle qui fuse, la flamme qui jaillit, l’édifice qui s’écroule. Telle aussi ta naissance et l’irruption à la lumière, que préparent les obscurs labeurs de l’enfantement... Voici ces “quatre temps” marquant le rythme de la création, tels les flux et reflux d’une respiration infinie, telles les mesures dans un contre-point qui n’a commencement ni fin : temps long (préparation) temps court (conception - ou déclenchement) temps long (travail) temps court (accomplissement) : une mesure ! Un périple, ou un “acte”, dans le processus de la connaissance... Et l’accomplissement de l’acte est en même temps déclenchement de l’acte suivant, souffle suivant souffle et mesures s’enchaînent aux mesures au fil des moments et des ans et des temps et des saisons de ta vie - et au fil de tes vies de naissance en mort et de mort en naissance, pour chanter un chant qui 27 est ton chant - chant unique, chant éternel, chant précieux qui s’enlace aux autres chants de tous les êtres ayant souffle de vie, dans l’infini Concert de la Création. Seul le Maître de l’Orchestre entend le Concert dans sa totalité, comme aussi dans chacune de ses voix et dans chaque modulation et chaque me- sure de chaque voix. Mais pour peu que nous tendions l’oreille, nous autres musiciens-chanteurs pouvons parfois saisir au vol les bribes éparses d’une splendeur qui nous dépasse et à laquelle pourtant, mystérieusement et irrem- plaçablement, nous participons. 1.12 12. Quatre temps pour un rythme Mais il est temps de redescendre sur terre, et de revenir à ce “rythme à quatre temps” sur un exemple - celui, disons, du “périple” auquel vient de nous convier un rêve messager. 1. Sommeil : nous vivons le rêve. Celui-ci joue rôle de “matériau”, ou de “nourriture”, ou de “combustible”, pour le périple devant nous, dont ce rêve que nous vivons est l’étape préliminaire. C’est l’“entrée en matière”, ou pour mieux dire, la “présentation” de ladite “matière” (ou “matériau”) et le premier contact avec elle. On (en l’occurence, le bon Dieu) vient de nous présenter un plat substan- tiel. Allons-nous seulement en prendre note ? Et si oui, comment y répondrons- nous ? En l’effleurant des lèvres, en y goûtant, en le mangeant... ? Etape-durée, où notre rôle est ici entièrement passif. Elle est destinée à susciter l’étape suivante, le “déclenchement”, et le processus créateur que celle-ci amorce. 2. Réveil : intuition fulgurante du rêve comme un message, et un message crucial, à nous destiné ; foi accordée à cette connaissance immédiate, venue nous ne savons d’où ; désir d’entrer dans le rêve, de nous pénétrer du message, lourd d’un sens inconnu ; volonté de connaître, venant acquiescer au désir et animé par la foi = quatre mouvements de l’âme, invisibles quasiment et indissociables, alors qu’ils viennent d’éclore dans les replis obscurs de la psyché, telle une imperceptible étincelle fusant dans l’ombre... Etape instantanée, intensément et secrètement active, à la fois et inten- sément “yang” et “yin”, “mâle” et “femelle”. Avec elle s’amorce le processus 28 créateur proprement dit, préparé par l’étape précédente. 3. Travail, se poursuivant dans les heures qui suivent (si les circonstances ne nous contraignent à le remettre à plus tard) : tel un fœtus venu à terme se fraye un obscur chemin vers la lumière, ainsi la compréhension parcellaire, périphérique, venue avec le rêve et saisie au réveil se fraye laborieusement le sien, couche par couche, vers les profondeurs, de la périphérie vers le cœur, de la lettre du rêve vers son sens profond, de la surface consciente de la psyché vers ses tréfonds... Etape-durée, souvent longue et laborieuse, où la traversée de chaque “cou- che” est en elle-même comme le travail dans un “mini-périple” partiel, préparé par la traversée de la couche précédente, amorcé par le franchissement allant de celle-ci à celle-là, et s’accomplissant avec le franchissement qui fait passer à la couche suivante plus profonde, nous rapprochant d’un pas encore du dénouement tout proche... Le travail se poursuit comme sous l’effet d’une force invisible et puissante qui nous tire de l’avant, à l’encontre des résistances tant inertes que vives - comme si le sens inconnu que nous voulons sonder et atteindre nous attirait en lui inexorablement, vers l’accomplissement total, sans se laisser leurrer ni distraire par aucun des mini-accomplissements partiels qui jalonnent la tenace progression vers le cœur même du message. (Alors qu’avec chaque nouveau pas accompli vers le sens entrevu, monte la tension et la réponse émotionnelle.). Etape à la fois “active” et “passive”, “yang” et “yin”, où nous pénétrons, et sommes pénétrés, tirons et sommes tirés - longue comme labeurs d’accou- chement - et où les heures s’envolent en l’espace d’un instant... 4. Percée : aboutissement soudain et terme du travail, conclusion du voyage, accomplissement du rêve et de son message... Etape instantanée, Purement et intensément réceptrice, “yin”, toute velléité de pensée, d’action abolie, alors que fluent à travers l’être les flots d’une émotion rédemptrice... J’ai suffisamment insisté précédemment sur le sens et la portée de ce moment - un des grands moments de l’existence - pour n’avoir pas à y revenir ici. D’autant moins que le rêve messager n’est pour nous à présent qu’un “cas”, à la fois typique par son déroulement et extrême par sa portée, venu ici pour illustrer le “rythme” immémorial des processus créateurs. 29 Qu’il s’agisse du périple préparé par l’apparition du grand rêve, ou de tout autre périple de découverte, l’étape la plus secrète, la plus délicate de toutes, la plus incertaine - celle aussi qui a tendance à échapper totalement au souvenir conscient (dans sa nature intime du moins sinon dans son existence), c’est celle de “l’étincelle qui fuse”, c’est le délicat enclenchement du processus créateur : la vive perception d’une substance vierge, dans sa richesse insondée et dans sa puissance ; l’éclosion du désir et l’acte de foi en cette connaissance, diffuse et incomplète, qu’apporte la perception et qui veut s’incarner ; et la volonté enfin d’accéder au désir, de le suivre, de se laisser porter par lui - jusqu’au terme lointain noyé de brumes... Une fois jaillie l’étincelle, vigoureuse (dans sa fragilité même...), et pour peu que cette volonté ou cette foi ou ce désir ne s’éventent ou ne se brisent avant l’heure, c’est déjà gagné : tout le reste viendra par surcroît, à son heure. Ainsi, c’est le moment le plus obscur, le plus ignoré, quand il n’est renié ou objet de morgue et de mépris, qui est aussi le plus décisif, le moment créateur entre tous. Dans le cycle de la transmission de la vie, c’est le moment de la concep- tion, par quoi se trouve engendré dans la chair un nouvel être et s’amorce la laborieuse gestation dans la matrice maternelle, préparant une deuxième naissance à la lumière du jour. Et ce mépris que de nos jours je vois s’étaler de toutes parts pour ce qui fait l’essence même de toute création, pour cette chose infiniment fragile et délicate et infiniment précieuse, n’est qu’un des innombrables visages du secret lourd d’ambiguité et de honte qui, de temps immémoriaux, entoure l’acte de conception - l’acte de vie même dont notre être de chair est le fruit. 1.13 13. Les deux cycles d’Eros - ou le Jeu et le Labeur (21 mai) Voici deux autres “mesures” dans le rythme créateur, les deux “cycles d’Eros”. Ce sont les deux archétypes de l’acte de création, dans le champ de l’expérience humaine. (Alors que l’archétype ultime nous échappe à jamais, inscrit qu’il est dans la nature du Créateur...). I - Eros - ou le Jeu Voici le “cycle des amants” - ou le jeu de l’Amour. 1. Préparation. Rencontre des partenaires : la femme, ou le repos, l’assise - et l’homme, ou le mouvement. Les voici amenés, par les “hasards” des voies 30 de la vie, en présence l’un de l’autre. Prendront-ils seulement note l’un de l’autre, et si oui, comment ? 2. Enclenchement : le désir fuse, en l’un ou en l’autre, ou en l’un et l’autre. Sera-t-il réprimé, telle une bavure secrète, ou trouvera-t-il acquiescement par la foi en la beauté du désir et de sa propre force, et par l’espoir en l’acquiescement de l’autre ? Et si la foi acquiesce en la beauté du désir et de la connaissance qu’en lui-même déjà il recèle, la volonté acquiescera-t-elle à l’acte ? Quand désir, foi, volonté concourent et concordent, l’étincelle déjà a fusé, dans sa force vive originelle. La perception de l’autre soudain change de plan et se transfigure, les personnages déjà s’effacent pour laisser place aux rêves immémoriaux : l’Amante-mystère, l’Immobile, l’Eternelle, communiant en son corps, et l’Amant éphémère et mobile, à la découverte du mystère, à la quête du repos... 3. “Travail” - ou le Jeu ! Voici le Jeu des jeux, le jeu de découverte où chacun des amants se trouve et se découvre - l’Amante à travers l’Amant qui la parcourt, la fouille et la sonde, et l’Amant en parcourant en fouillant en sondant... l’une et l’autre portés par les vastes vagues du jouir de l’Amante, l’Inépuisable, la Toute-puissante - l’un et l’autre tirés (comme vers une fin commune, lointaine d’abord et qui se fait toujours plus proche et plus pres- sante...) vers la crête ultime où la vague se brise et s’abîme - vers l’extinction, vers le néant... 4. Accomplissement : c’est la mort orgastique, l’extinction l’un en l’autre, et le Néant qui s’étale et s’étend lavant effaçant toutes choses... Et dans cette mort, dans ce néant humide et tiède point, comme un premier sourire, comme une humble lueur, le nouveau-né - l’être dans sa fraîcheur première, l’être des jours d’Eden et de l’aube des jours, l’être neuf, vide de désir. L’être rené, en lui par elle et en elle par lui, lui comme elle à la fois père ou mère, et l’enfant nouveau-né. II Eros - ou les Labeurs Voici le “cycle de L’incarnation” - ou les travaux de la Vie. La rencontre a eu lieu, ou les rencontres, et l’étincelle a fusé, une fois ou 31 cent fois. Les partenaires désormais forment le couple des époux, ouvriers conjoints des œuvres de vie. 1. Préparation : c’est l’étape du jeu d’amour dans le cycle précédent, le cycle des amants, et de son achèvement orgastique. A la fin de l’étape la semence s’est épanchée et l’ovule attend, niché dans la tiède et obscure moiteur de la matrice, les gamètes mâles se pressant à l’assaut du demi- germe d’être, appelant son autre moitié qui doit le compléter. Y aura-t-il un vainqueur - y aura-t-il un germe d’être ? 2. Enclenchement. Les gamètes mâle et femelle se sont joints : c’est la conception, ou fécondation de l’ovule, l’apparition “biologique”, dans la chair, du nouvel être, par ce germe d’embryon qui vient de se former. Y a-t-il ici acte de connaissance, de désir, de foi, de volonté ? Je soupçonne bien que oui, sans pouvoir l’affirmer. Pour le “savant”, il est vrai, la question ne se pose pas - pour lui tout est réglé par les lois aveugles du hasard (qui est le nom que nous donnons à notre ignorance) et de la nécessité (qui est le nom que nous donnons au peu que nous savons, en l’occurrence sur les processus biologiques et moléculaires). Mais sûrement “hasard” et “nécessité” sont les instruments d’un propos qui nous échappe, dans une Main experte que nous ne savons ou ne voulons pas voir. Et l’âme appelée ici à s’incarner à nouveau, et son désir et sa peur, sa foi et ses doutes, et sa connaissance précaire et ses innombrables ignorances, et sa volonté (peut- être hésitante...) de tenter l’aventure nouvelle - ou de s’y soustraire si elle peut... - tout cela sûrement agit et s’exprime sur le plan de la matière et des œuvres obscures du corps, tout comme les désirs, peurs, assurances, doutes, connaissances, ignorances venant confluer en un acte plus ou moins affirmé ou plus ou moins confus de notre volonté, en nous, âmes incarnées, s’exprime et agit d’innombrables façons sur le plan de la chair et de la matière. Aussi dans l’ignorance vaut-il mieux, plutôt que d’affirmer ou nier, s’in- terroger ou se taire. 3. Travail : c’est la laborieuse gestation de l’embryon dans la matrice nourricière, la longue et minutieuse construction, cellule après cellule, de la “demeure” ou la “maison” de l’âme réincarnée. Œuvre d’une complexité et d’une délicatesse prodigieuse, dans chacune de ses parties infimes, comme dans leur mystérieuse coordination et l’harmonie parfaite des fonctions et des formes, faites à l’image de Dieu... 32 Alors que se déploie et s’épanouit la demeure, et à travers émotions et aléas de sa vie utérine, l’âme (avec espoir peut-être, ou avec appréhension...) attend l’heure marquée, qui mettra fin à sa relative quiétude : l’heure de l’expulsion... 4. Accomplissement c’est la naissance du nouvel être à la lumière du jour, son deuxième départ dans sa nouvelle aventure terrestre. Une deuxième fois les dés sont jetés : l’âme est confrontée à nouveau, pour sa croissance, à la condition humaine. Les deux cycles archétypes se chevauchent : voici Eros-enfant, Eros jouant l’Amour et moissonnant plaisir d’amour et connaissance charnelle de la mort et de la naissance, se transforme en Eros l’Ouvrier, qui laboure le champ du Maître de la Vie pour y semer la vie et l’arroser de sa semence, de sa sueur, de son amour. Le jeu d’Eros n’est pas sa propre fin - et ce nest pas nous qui fixons les fins. Il est une préparation. Et l’accomplissement du jeu d’Eros-enfant est aussi l’amorce des labeurs d’Eros le laboureur. Et ces deux “mesures” archétypes qui se prolongent et se parachèvent, scandant l’expérience charnelle de l’amour et son prolongement en semailles de vie, m’apparaissent soudain comme formant à leur tour une parabole, me parlant d’une autre réalité. Alors que je viens seulement de me séparer, comme à regret, d’Eros-enfant avide de glaner, pour labourer et semer selon la volonté du Maître. 1.14 14. Les pattes de la poutre (22 mai) Après la digression des derniers jours sur les processeurs créa- teurs en général, il serait temps de revenir au rêve, et au travail sur le rêve messager. J’avais commencé à en parler, dudit travail, il y a quatre jours déjà, dans la section “Travail et conception - ou le double oignon”. C’est là que j’ai commencé à entrer dans la question, certes pertinente, pourquoi donc il faut un long et laborieux travail pour arriver péniblement à saisir, au bout du compte, un “sens” qui aurait dû être évident dès le début. C’est qu’avant un tel travail, disais-je, l’image mentale consciente que nous avons d’une chose nouvelle est “amorphe”, “inerte”, alors que la chose elle-même est douée d’ordre et de vie - et cela est dû à l’œil qui voit mal, “encombré qu’il est par le ballast des images anciennes, l’empêchant d’appréhender le 33 nouveau”. Il faut donc croire que le travail a pour effet de “changer notre œil”, de lui rendre (tout au moins dans sa relation à la chose examinée, ici le rêve que nous venons de vivre) une vivacité, une qualité d’intégration originelles. Et si ce qui le rend si balourd et si empoté est ce “ballast” des idées anciennes, le travail doit nous apparaître en tout premier lieu comme un nettoyage, aux fins de nous débarrasser du bagage écrasant des “poutres” en tous genres que nous traînons avec nous, souvent une vie durant. Or, se séparer d’une idée reçue (et reçue, le plus souvent, sans même que nous nous en soyons rendu compte, tant elle fait partie de l’air du temps...), c’est là, faut-il croire, une des choses les plus difficiles qui soient. Il y a dans la psyché des forces d’inertie immenses, inhérentes à sa structure même, qui font une opposition invisible et muette, et oh combien efficace ! à tout ce qui pourrait la changer si peu que ce soit - à tout ce qui ferait mine de tou- cher à l’armature des idées et images (la plupart à jamais informulées) qui structurent le “moi”. Il en est déjà ainsi dans le domaine relativement anodin de la recherche scientifique. Mais lorsqu’il s’agit d’idées et d’images qui im- pliquent notre personne de façon tant soit peu chatouilleuse (“empfindlich”) rares sont ceux où cette inertie générale ne se double de forces de résistance “vives” d’une puissance stupéfiante, d’une coriacité à toute épreuve. On souf- frirait mille morts, et on en infligerait mille fois mille sans sourciller, plutôt que de prendre connaissance humblement en soi-même du moindre de ces actes de vanité, de pusillanimité ou de violence secrète qui émaillent les jours même des meilleurs d’entre nous (*). Il est vrai qu’il n’y a pas de “petite cho- se” dans la connaissance de soi-même (quand celle-ci est autre chose qu’un simple fleuron à son image de marque), et prendre connaissance d’une telle chose pour ce qu’elle est, et la situer à sa juste place, c’est déjà l’écroulement d’une certaine image de soi, et l’écroulement en même temps de tout un ensemble figé d’attitudes et de comportements dans sa relation à soi-même. Toujours est-il que le “grand rêve”, lequel justement, plus qu’aucune autre chose, est fait pour nous “toucher” de façon névralgique, mobilise aussitôt des résistances invisibles et véhémentes, qui prennent soin d’évacuer au plus tôt le message entrevu. Aussi l’image apparue tantôt, du “nettoyage” pour se débarrasser des “poutres dans l’œil” qu’on traîne à son insu, est-elle loin en deçà de la réalité. Pour la rendre plus ressemblante, il faudrait y préciser que lesdites poutres sont, non pas simplement des choses, lourdes certes mais par elles-mêmes inertes sans plus, qu’il suffirait de tirer de là pour s’en débarrasser ; mais 34 qu’elles seraient au contraire animées d’une vie et d’une volonté propres - d’une volonté farouche et tenace de ne se laisser déloger de là à aucun prix, s’accrochant à l’œil des pieds et des mains, ces poutres pas comme les autres, ou même de cent pieds et de cent mains à la fois ! Déloger la garce, c’est ni plus ni moins que la mettre laborieusement en pièces - pas un petit travail, non ! Pour mettre la joie à son comble, on ne la voit pas, cette fameuse poutre, ni même aucune de ses mille pattes accrocheuses et agiles. Bien plus, pendant tout le travail, on n’en soupçonne pas même l’existence ! Tout ce qu’on sait, c’est qu’on veut y voir clair - et cette volonté-là nous fait suivre l’instinct obscur qui nous tire en avant, et qui nous dit aussi à chaque moment, irrécu- sablement, que nous avançons bel et bien, que nous pénétrons dans le “sens” que nous voulons connaître, couche par couche, laborieusement, inexorable- ment, vers le cœur même du message. Le travail consiste en somme à décrocher patiemment l’une après l’autre les invisibles mille pattes de l’invisible poutre. Mais ça, nous ne le savons pas alors, et nous n’avons pas à le savoir. Ce n’est pas là notre boulot. Les pro- cessus créateurs s’accomplissent à l’ombre, et il n’y a qu’Un seul pour les voir pleinement, tels qu’ils s’accomplissent réellement, avec Son aide silencieuse, là où l’œil humain n’a pas accès. Peut-être ne sommes-nous que l’instru- ment vivant, doué de volonté propre et lesté d’ignorance, entre des Mains qui savent. Notre boulot, c’est d’acquiescer par la foi agissante à l’œuvre qui doit s’accomplir par nous et en nous, si nous le voulons. Notre boulot, c’est cette foi, cette volonté, cette “obéissance” - tout le reste (j’ai dû déjà le dire ailleurs) est dans Ses Mains, et nous vient par surcroît. 1.15 15. La frottée à l’ail Si ce n’est pas “notre boulot” de savoir comment se déroulent en nous des (soi-disants ?) “processus créateurs” (de toutes façons inconnaissables...), on me demandera peut-être pourquoi alors je me donne tout ce mal pour en dire quand même quelque chose envers et contre tout. (Et là ça fait une semaine pile que je m’y escrime...). Question encore pertinente ! Je dirai à ma décharge que je n’ai pas fait exprès - c’est venu, ai-je déjà dit, comme malgré moi. Et c’est justement là un bon signe ! Si le lecteur a l’impression de perdre son temps, moi, au moins, n’ai pas l’impression d’avoir perdu le mien... Pour en terminer quand même avec ce malencontreux travail ( !) dans 35 lequel me voilà engagé, sur “le travail dans la découverte”, et après l’épisode imprévu de la poutre à pattes, je voudrais ajouter quelques mots sur le frot- tement. Le frottement, c’est quelque chose qui prend du temps, qui absorbe de l’énergie, et qui met en contact répété, insistant, voire intime (honni soit qui mal y pense...), deux choses ou substances différentes. Ca dégage de la chaleur, et surtout (et c’est à ça que je voulais en venir), ça a pour effet de faire s’imprégner chacune des deux substances en présence par l’autre. Ca s’imprègne plus ou moins profond, suivant le temps et l’énergie qu’on y met. Prends une gousse d’ail épluchée et une tranche de pain, et frotte. La partie est inégale, l’ail est décidément le plus fort des deux. Sans avoir même à frotter pendant des heures, le pain s’imprègne du goût de l’ail. Quand on n’aime pas l’ail, il vaut mieux s’abstenir. Si tu veux vraiment connaître quelque chose, ce n’est pas par la seule grâce du Saint-Esprit que tu vas y arriver. La connaître, c’est aussi t’en imprégner, c’est la faire pénétrer en toi - ou aussi l’imprégner, pénétrer en elle, c’est là une seule et même chose. Et pour t’en imprégner et l’imprégner, il te faut “t’y frotter”. Tout le monde en a fait l’expérience, ne serait-ce que pour apprendre à marcher, à lire et à écrire, faire du vélo, conduire sa voiture, et même pour connaître en son corps la femme ou l’homme qu’on aime... C’est comme ça à tous les niveaux, corps, tête, esprit. Il y a les éclairs de connaissance, c’est une chose entendue. Ils éclairent un paysage vivement, l’espace d’un instant, et disparaissent, nous ne savons où. Leur action par elle-même est fugace et par là-même, limitée. Si nous n’y mettons du nôtre, le souvenir même de la connaissance a vite fait de s’estomper, avant de dis- paraître du champ de la conscience, peut-être à jamais. Un des rôles du travail, c’est de retenir la connaissance fugace, de lui donner stabilité et durée. Et chemin faisant elle se transforme. Tu noteras que c’est là une chose de nature bien différente que de fixer un souvenir. La connaissance est une chose vivante - chose qui germe, croît et s’épanouit. Le souvenir est comme une photo que tu aurais prise à un moment donné, plus ou moins réussie. Même réussie, quand tu as la chose vivante, tu n’as que faire d’une photo ! La connaissance fugace est vivante, certes, mais nous n’en saisissons que ce que nous en a révélé cet éclair, en un instant, avant de disparaître dans les profondeurs de l’Inconscient. Sûrement elle y est, vivante, et elle doit bien 36 agir tant soit peu depuis sa cachette ; mais tant qu’elle reste confinée dans ces souterrains, c’est là une vie au ralenti, une hibernation. Et l’action qu’elle peut avoir est à l’avenant, une action endormie. Donner à une connaissance enfouie son plein épanouissement, selon la vi- talité qui repose en elle, c’est aussi et surtout, y faire participer toutes les couches de la psyché, chacune lui donnant sa propre coloration et résonance. Car notre être n’est ni la seule surface, ni la seule profondeur. Il s’étend des hauteurs vers les profondeurs, de la surface jusqu’au cœur. Faire véritable- ment naître la connaissance, l’assimiler, en faire de la chair de notre être, c’est aussi nous en imprégner de part en part. C’est alors seulement qu’elle acquiert, avec la profondeur, une durée, une permanence qui n’est pas celle d’une photo clouée au mur de notre chambre, mais bien celle d’une chose qui vit. Nous n’avons plus à la maintenir à la force du poignet dans le champ du regard, au prix d’un effort parfois prodigieux, telle une prisonnière agile et forte, pressée de s’évader. Car dès lors elle n’est plus prisonnière ou fugitive, mais l’épousée. Je pourrais dire (si je l’osais...) que la fugitive devient l’épousée “en s’y frottant”. Et en s’y frottant, non à la va-vite (on est tous tellement occupés...), mais en y prenant tout son temps. Celui qui regarde à son temps, que ce soit pour “faire” l’amour, ou des maths, ou pour entrer dans un rêve - il tire peut-être un coup ou il calcule ou décode - mais il est loin de l’Aimée et il est loin du rêve, et n’est pas en chemin pour connaître l’une ni l’autre. C’est au rêve que je pensais tantôt, en parlant de l’ail et du pain. Parmi tous les rêves et tous les messages qui te parviennent pour te parler de toi, compris ou incompris, le “rêve messager” est comme l’ail parmi les plantes qui poussent dans ton jardin. C’est un aliment, et du concentré ! Ca fait du bien et ça donne du goût à tout le reste, mais ça plaît ou ça plaît pas. Et dans ce jardin-là tu récoltes, mais c’est un autre que toi qui sème. Il y a de l’ail dans ton jardin, même quand tu n’aimes pas. Mais quand tu veux en faire ton bénéfice, tu cueilles, épluches, frottes. Et le pain qui s’imprègne de l’ail, c’est toi. Quand il est saturé de part en part, il est aussi, du même coup, mangé. 1.16 16. Emotion et pensée - ou la vague et la cognée (27 mai) Il reste encore un aspect du “grand rêve” que je n’ai fait que frôler en passant ici et là c’est l’émotion. L’émotion contenue qui traverse 37 de part en part le rêve et qui, souvent, finit par monter en crête de vague démesurée - pour se briser soudain, par le réveil en sursaut - et en les secondes encore qui suivent le réveil haletant, cette vague vivante qui traverse l’être est chose plus réelle et plus puissante, et puise en des eaux plus pures et plus profondes, que tout ce que nous avons connu en notre vie éveillée. Et c’est bien dans le sillage immédiat de cette vague surgie des profondeurs que nous vient cette connaissance instantanée et sûre, ce “rêve” que nous venons de vivre et qui en ce moment même encore pulse à travers chaque fibre de notre être, n’est “songe” ni illusion mais vérité faite chair et souffle et il nous parle, comme ni âme vivante ni livre profane ou sacré ne pourrait nous parler... Cette émotion qui imprègne le grand rêve et le réveil encore qui le suit, est comme l’âme même et le souffle du rêve. Certes, cette émotion a vite fait de se dissiper, et l’esprit de se ressaisir. Disperser et chasser le souffle de vie du rêve, pour n’en retenir (si tant est qu’on en retient quelque chose...) que l’ossature et les chairs, est la façon entre toutes, mise en œuvre d’office par les forces adverses, pour évacuer vite fait le message pressenti - et récusé avant même de se trouver formulé ! C’est là, je crois, un réflexe universel, instantané, d’une force sans réplique, qui s’enclenche dans les secondes déjà qui suivent le réveil, alors que la crête de la vague vient de se briser à peine et les eaux de l’émotion de refluer quelque peu - comme un balai-brosse intempestif qui s’empresserait aussi sec de chasser ces eaux décidément malvenues ! Ce réflexe prend les devants sur tout autre mouvement de la psyché, et indépendamment sûrement de l’humble étincelle de désir, de volonté et de foi (à supposer qu’elle fuse...) qui marque l’instant où s’enclenche un travail intérieur véritable. Le signe principal qui distingue un tel travail, entrant dans le vif d’une substance vive, du simple faire-semblant, est peut-être en ceci : alors même que nous aurions tendance, à notre insu, à nous éloigner du puissant courant d’émotion qui anime le rêve, un obscur et sûr instinct sans cesse nous y ramène, comme tirés par un fil invisible - un fil plus fin sûrement et pourtant plus efficace que les cordes et les filins (tout aussi invisibles) qui nous en voudraient écarter. A titre de témoignage, voici le début des réflexions rétrospectives sur le travail qui venait tout juste de se poursuivre, et de s’accomplir par l’instant des “retrouvailles” de l’âme avec elle-même. C’était à 11h 1/2 du matin (à la mi-octobre 1976). Les notes qui suivent enchaînent une heure plus tard à peine, à 12h 1/2 : “J’ai pensé redormir, mais j’ai somnolé seulement, et mes pen- 38 sées finalement, à demi-assoupies, sont revenues au rêve, à sa si- gnification. Et maintenant je viens de relire la dernière partie de la description) - lorsque, mes résistances s’étant évanouies l’une après l’autre, la signification profonde du rêve m’est finalement apparue dans toute sa force bouleversante. Les étapes successives me rapprochant de cette révélation étaient marquées par l’in- tensité grandissante des réponses émotionnelles, touchant à des couches de plus en plus profondes de mon être. A chaque fois, c’était la description du moment culminant de l’étape antérieure qui a été le point de départ d’un approfondissement soudain de la compréhension, et de la réponse émotionnelle à cette compréhen- sion. Jusqu’au moment où toute velléité de description, d’analyse, de prise en distance était annihilée, submergée par cette vague de tristesse rédemptrice qui me traversait, me secouait et me lavait, toute résistance évanouie. Quand j’écris : “Mais n’y a-t-il pas en moi aussi - mais moins visible, plus discret certes... un autre être, spontané, libre...”, je m’y hasarde presque comme à une hypothèse hardie, issue peut- être d’un intellect trop agile - sans trop oser y croire ! Et pourtant, en ce moment naît comme un soudain espoir - et soudain le rêve apparaît comme un encouragement, comme une promesse. Oui - tu as la nostalgie de la fraîcheur - et de sentir celle de S. t’a touché comme une blessure profonde (à laquelle encore tu résistais...), et tu t’es dit alors sans oser y croire : peut-être un jour j’ai été cela, ou un jour du moins, dans une nouvelle naissance peut-être, je le serai. Mais tout comme l’innocence vit en Daniel, où tu as perçu parfois et la peur, l’orgueil, la colère - et l’innocence - ainsi elle est (peut-être ?) vivante en toi, humblement - peu visible certes et peu agissante peut-être, car le devant de la scène est pris par l’autre. Mais tout ceci n’était alors qu’entrevu, comme une vision si fugace qu’on doute l’instant d’après si on l’a vraiment vue. Et la continuation de la description, de la réflexion écrite, était une façon de retenir cette vision, d’empêcher qu’elle ne s’évanouisse sans trace durable - tout comme la description de tout le rêve et des réflexions qui s’y sont jointes (qui a pris quatre heures d’affilée) avait été un moyen de retenir la vision fugace que représentait et le rêve, et la première intuition immédiate de sa signification. Ici à nouveau apparaît le rôle utile de la pensée, qui décrit et analyse, 39 servant de fixateur à ce que l’intuition nous révèle par éclairs, pour forcer (si on peut dire) l’intuition réticente à descendre en des couches plus profondes, au lieu d’éluder la descente, et de s’évanouir alors sans laisser de traces. La pensée alors est support matériel, et stimulus pour avancer, étape par étape, pour atteindre enfin le seuil ultime ou une révélation peut se faire dans toute sa force bouleversante - une révélation où la pensée n’a plus de part. Telle a été la démarche de la méditation en moi, depuis ven- dredi. (c’est donc le troisième jour aujourd’hui). Je ne me rappelle pas d’une autre occasion dans ma vie, même en ces dernières an- nées, où la réflexion sur moi-même ait été vraiment plus qu’un inventaire allié à un exercice de style, mais comme maintenant, un périlleux voyage de découverte, avec la pensée comme guide, myope certes et borné, mais méticuleux et plein d’énergie, et sa- chant aussi s’effacer quand l’occasion le demande.”. 40 2 Dieu est le Rêveur 2.1 17. Dieu est le Rêveur (28 mai) Il est grand temps d’en venir au cœur du message de ce livre que je suis en train d’écrire, en dire l’idée maîtresse - cette “grande et forte idée”, pour reprendre les termes mêmes du Rêveur. J’avais voulu, il est vrai, m’appliquer à ne pas l’introduire avant l’heure, à faire semblant, en somme, de l’ignorer, aussi longtemps que “je n’aurais pas besoin de cette hypothèse”. Mais je n’ai pu finalement m’empêcher de la frôler déjà ici et là et de lui parler au passage, tant elle est omniprésente en moi... Ce n’est d’ailleurs nullement comme une “idée” que je vois moi-même la chose, qui aurait germé et mûri en moi avant d’éclore, fille de l’esprit qui la conçut et l’enfanta. Ce n’est pas une idée mais un fait. Et un fait, quand on y pense, absolument dingue, incroyable - et pourtant vrai ! Je n’aurais pas eu cette audace démentielle de l’inventer. Et s’il m’arrive de dire que je l’ai “découvert”, ce fait (et que c’est même là la grande découverte de ma vie !), c’est encore trop dire et me vanter. Il est vrai que j’aurais pu, et même “j’t’aurais dit” découvrir la chose, depuis quatre ou cinq ans que le Rêveur en personne s’est mis à faire apparition dans certains de mes rêves. J’en étais tellement près, c’est sûr - vraiment ca brûlait ! Mais comme il arrive, j’avais mes œillères bien accrochées, et je ne “sentais” rien. La température, en somme, ça me regardait pas, je voulais pas savoir que “je brille”. Aussi, en désespoir de cause peut-être, il a fallu que le bon Dieu prenne la peine (parmi beaucoup d’autres qu’il s’était déjà données pour moi) de me révéler la chose. Oh, très discrètement d’abord, il faut bien dire... Voici donc ce fait “dingue”, dont j’ai eu révélation : c’est que le Rêveur n’est autre que Dieu. Pour beaucoup de lecteurs, sûrement, et peut-être pour toi de même, ce que je viens à l’instant de dire est du latin ou du chinois - des mots sans plus, qui ne font chaud ni froid. Comme le serait, disons, un lapidaire énoncé mathématique pour un non-initié. Pourtant, ce n’est pas de maths ni de spéculations métaphysiques qu’il s’agit ici, mais bien de réalités tout ce qu’il y a de tangibles, accessibles tout autant (voire mieux) au premier gosse venu, qu’au plus docte théologien. Et s’il y a une chose qui m’intéresse, en écrivant ce livre, ce ne sont théories ni spéculations, mais bien la réalité la plus immédiate, la plus irrécusable - telle celle, notamment, que nuit après nuit nous vivons dans nos rêves. 41 Une toute première de mes tâches, surtout vis-à-vis du lecteur pour qui “Dieu” n’est guère plus qu’un mot (si ce n’est un “anachronisme” ou une “superstition”), c’est d’essayer de faire sentir le sens “tangible” de cette la- conique proposition : “le Rêveur en toi est Dieu”. Une fois que le sens est perçu, seulement, peut-il être question de se faire une idée de la portée de cette affirmation (qu’elle soit fondée, ou non). Pour moi, ce fait était saisi, et accepté comme tel, un certain jour de la mi-novembre l’an dernier, il y a un peu plus de six mois. C’est venu alors sans surprise d’ailleurs, comme chose quasiment qui irait de soi, mais que je n’aurais pas pris la peine jusque-là de me dire expressément. Rien de “dingue” donc, encore, à ce moment-là. La chose est constatée comme “en passant”, en cours de méditation sur un de mes premiers rêves “mystiques”. Elle a passé presque inaperçue alors. J’étais tellement plus accroché par l’émotion si pénétrante qui imprégnait le rêve ! En comparaison, ce fait ma foi curieux, apparut alors pour la première fois dans le champ de mon attention, l’espace d’un petit quart d’heure peut-être, faisait bien pâle, bien “intellectuel”. C’est au cours des semaines et des mois qui ont suivi, seulement, que la portée de ce “fait curieux”, relevé en passant, a commencé peu à peu à m’apparaître. Qu’il me suffise pour l’instant de dire que ce fait, à présent, est comme le centre et le cœur de tout un ensemble de révélations qui me sont venues, par la voie du rêve, dans les quatre mois qui ont suivi - révélations sur moi-même, sur Dieu, et révélations prophétiques. En l’espace de ces quelques mois d’apprentissage intense, à l’écoute de Dieu me parlant par le rêve, ma vision du monde s’est profondément transformée, et celle de moi-même et de ma place et de mon rôle dans le monde, selon les desseins de Dieu. La transformation maîtresse, celle dont découlent toutes les autres, c’est que désormais le Cosmos, et le monde des hommes, et ma propre vie et ma propre aventure, ont acquis enfin un centre qui avait fait défaut (cruellement par moments), et un sens qui n’avait été qu’obscurément pressenti. Ce centre vivant, et ce sens omniprésent, à la fois simple et inépuisable, évident et insondable, proche comme une mère ou comme le bien-aimé, et infiniment plus vaste que le vaste Univers - c’est Dieu. Et “Dieu” est pour moi le nom que nous donnons à l’âme de l’Univers, au souffle créateur qui sonde et connaît et anime toutes choses et qui crée et recrée le monde en tout moment. Il est ce qui est infiniment, indiciblement proche de chacun de nous en particulier, comme Il est en même temps ce qui est le moins “personnel”, le plus “universel”. Car comme il est en toi dans la moindre cellule de ton corps et dans les derniers replis de ton âme, ainsi est-Il en tout être et en 42 toute chose de l’Univers, aujourd’hui comme demain comme hier, depuis la nuit des temps et les origines des choses. C’est pourquoi aussi, pour te parler de Lui avec vérité, je ne pourrai m’em- pêcher de parler aussi de moi, d’une expérience vivante qui entre, peut-être, en communication avec ta propre expérience des choses et la fasse résonner. Car Dieu est le pont qui relie entre eux tous les êtres, ou bien plutôt, Il est l’eau vive d’une Mer inmuable commune qui relie tous les rivages. Et nous sommes les rivages d’une même Mer, qui chacun La connaissons par un autre nom et sous d’autres visages - et nous en sommes les gouttes même, dont chacune La connaît intimement, et dont aucune ni toutes ensemble ne L’épuisent. Ce qui est commun est la Mer, qui relie une goutte à l’autre et les contient l’une et l’autre. Si elles peuvent se parler l’une à l’autre c’est par Elle qui les embrasse et les contient, telle qu’Elle est perçue à travers elles, vivantes parcelles d’une même Totalité, d’un même Tout - d’une même Mère. 2.2 18. La connaissance perdue - ou L’ambiance d’une “fin des temps” (29 mai) J’ai bien l’impression que ce fait qui, aujourd’hui où je le “dé- couvre”, m’apparaît si “dingue””, était bien connu de tous depuis toujours, jusqu’à encore il y a quelques siècles à peine. Peut-être pas aussi clairement et aussi formellement que je le formule aujourd’hui. Mais sous tous les cieux et dans toutes les couches de la société, autant que je sache, il était reconnu par tous que Dieu (quand on Le connaissait par ce nom), où les Puissances Invi- sibles, nous parlent dans le rêve. C’était même là, ce me semble, la principale voie choisie par Dieu (ou par les Invisibles) pour Se manifester à l’homme et l’informer de Ses desseins. Et c’est bien là sûrement, et nulle part ailleurs, la cause du respect universel dont était entouré le rêve, et tous ceux qui peu ou prou avaient l’intelligence du rêve. Ce respect pour le rêve a fait place à un mépris quasi-universel. Et le ton nous en vient des plus hauts quartiers et des plus inattendus. Même parmi les “professionnels” du rêve, l’attention qu’on lui accorde est dans les tonalités de celle que le médecin accorde à un symptôme, ou le détective à un “indice” ou à une “pièce à conviction”. Ce n’est pas là celle du respect, et encore moins celle du respect qu’on pourrait appeler “religieux” : ce respect mêlé d’émerveillement muet, ou de vénération ou d’amour, que nous éprouvons devant les choses chargées de mystère, dont nous sentons obscurément qu’elles nous échappent et nous dépassent à jamais - que les seuls pouvoirs de nos 43 sens et de notre entendement n’y donnent point accès. Ma redécouverte du sens profond du rêve, comme Parole vivante de Dieu, s’est faite dans une atmosphère de solitude et de recueillement intense. Alors même que la pensée consciente de “Dieu” en était presque entièrement ab- sente, je pourrais bien qualifier cette atmosphère de “religieuse”. Dans de telles dispositions, il était tout naturel que cette découverte m’apparaisse comme chose “allant de soi” - comme une chose, quasiment, que j’aurais au fond toujours sue, sans me donner la peine même de la dire. Si je ne lui accordais pas tout d’abord le valeur d’une “révélation”, et encore moins d’une révélation capitale dans mon aventure spirituelle, c’est aussi, sûrement, parce qu’elle m’apparaissait justement comme chose qui ne pouvait être que bien connue de tous ceux qui, contrairement à moi, avaient été leur vie durant en contact avec le sentiment religieux en eux-mêmes, et par là-même aussi (pensais-je) avec une connaissance millénaire concernant le sens du rêve. Aussi, en parlant de ce sens autour de moi ici et là, y compris à des amis bien “dans le coup” tant en “spiritualité” qu’en histoire religieuse et dans l’actualité culturelle d’aujourd’hui, n’ai-je pas été peu surpris (sans trop m’y arrêter pourtant) de constater que mes paroles étaient accueillies avec cette surprise (“Befremdung”) mêlée d’incrédulité interloquée, mi-amusée, qu’on réserve aux choses de conséquence qu’on entend pour la toute première fois, et qui pour cela même font une impression un peu farfelue. (Car, comme chacun sait, les choses de conséquence ne peuvent être que bien connues des gens bien informés. Tout “dans le coup” qu’ils soient, ces amis sont pourtant à tel point im- bibés de l’air du temps, qu’un savoir qui, il y a quelques siècles encore et de- puis des millénaires, était une connaissance diffuse partagée par tous, attestée par d’innombrables témoignages dans les écrits tant sacrés que profanes, leur apparaît à présent comme une hypothèse osée, pour ne pas dire (car on est poli) saugrenue. Tout autant que les matérialistes de tout venant, ceux qui font aujourd’hui profession de “spiritualité” se trouvent aliénés de cette sorte d’“instinct spirituel” que nous avons tous (je crois) reçus en partage, et qui procède d’une connaissance qui naguère était un commun héritage de notre espèce. Dans une telle ambiance culturelle, ce que j’avais reçu et accueilli comme “chose allant de soi”, finit par m’apparaître, après-coup (et me mettant mal- gré moi un peu dans cette ambiance et dans la peau d’autrui...), comme une “thèse” quasiment voire comme une “hypothèse”, un peu poussée à dire le 44 moins - comme si j’essayais d’être original et d’étonner à tout prix ! Pourtant et en même temps, je sais bien, de première main et de science sûre, que ce que j’avance hardiment n’est “théorie” ni “thèse”, mais bien (comme j’écrivais hier) un fait. Un fait dont j’ai eu expérience aussi irrécu- sable, jour après jour et pendant des mois d’affilée, que de celle du soleil qui nous éclaire chaque jour. Et ce fait-là, à la lumière de cet “instinct spi- rituel” dont je parlais à l’instant, m’apparaît bel et bien “évident”, dès lors qu’on veut bien se donner la peine de faire attention tant soit peu à ses propres rêves. Si malgré cela et à un autre niveau ou registre, je le perçois à présent comme “dingue”, comme “incroyable” (mais vrai !), c’est seulement pour m’être replongé, si peu que ce soit, dans cette ambiance de cécité spi- rituelle quasiment totale et quasiment universelle, laquelle caractérise notre étrange époque - l’époque d’une “fin des temps”. 2.3 19. L’incroyable Bonne Nouvelle Et pourtant, je ne désavoue pas ces expressions “dingue”, ou “incroyable mais vrai”, venues hier. sous ma plume avec la force de l’évidence. Et ce n’était pas alors, comme d’aucuns pourraient croire, pour prendre les devants d’emblée sur les réactions prévues du lecteur. C’est bien plutôt un cri de joie, d’exultation - la joie d’une “bonne nouvelle” si inouïe, après tout, que maintenant encore mon âme est trop limitée pour la contenir, mon esprit trop balourd pour la saisir dans toute sa portée. Car enfin, Dieu (j’ai essayé hier déjà de le dire tant bien que mal), Il n’est pas le premier venu ! Ce n’est pas un vague Caesar ou Charlemagne ou Napoléon, qui viendrait chaque nuit faire le mariol dans nos songes, pour nous épater ou nous ébahir ! C’est DIEU, le Maître et le Créateur et le Souffle des Mondes, qui, loin de traîner dans les nuées et de laisser, impassible, se dérouler inexorablement les lois immuables qu’Il a Lui-même instaurées - c’est Dieu Lui-même qui ne dédaigne pas, nuit après nuit, de venir auprès de moi comme aussi auprès du dernier et du moindre parmi nous, pour nous parler - ou pour Se parler, à haute voix, en notre présence. Et s’Il te parle aussi à toi, ou s’Il se parle de façon que tu l’entendes et comme Lui seul sait parler, ce n’est ni de la pluie et du beau temps ni des destinées du monde, mais de toi qu’Il parle - de ce qui est le plus secret, le plus caché en toi - les choses les plus flagrantes (et que tu te cèles à toi-même) comme les plus délicates, qu’aucun œil humain ne pourrait déceler. Et libre à toi, si tu le juges bon, d’écouter ! (Et sûrement, si tu écoutes de tout ton cœur et de toute ton âme, ce ne sera pas en vain...). N’est-ce pas là une chose “dingue” en effet ? Cet intérêt intense et délicat 45 et (je le sais si bien !) aimant, que prend à notre si insignifiante personne et à cette “âme” si méprisée, non pas Pierre ou Paul ou tel ami ou tel parent, mais le Maître, l’Unique, l’Eternel, le Créateur (au quelque autre nom qu’on Lui donne) ? Cela seul ne confère-t-il à l’être humain, à toi comme à moi comme au dernier d’entre nous, une dignité, une noblesse qui confond l’imagination ? J’insiste là-dessus d’emblée, non pour inviter à se mettre au garde-à-vous dans l’attitude “noblesse” - au Rêveur ne plaise, qui se plaît à débusquer en coup de vent et avec un rire d’enfant tout ce qui a relent d’attitude ou de pose ! Mais à cause d’un autre “vent” qui souffle de nos jours plus fort que jamais : le vent du mépris pour les choses délicates de l’âme et de l’être, le vent de l’adulation pour le titre, le rang, la “compétence”, le diplôme - le vent du mépris et de la platitude... Je crois pouvoir dire que depuis de longues années, je ne participe guère pour souffler dans ce sens-là, et même que ma vie durant est restée vivante en moi, comme par un obscur instinct et envers et contre tout, une connais- sance de ce qui fait le prix de ma vie, et le prix de l’âme humaine. Mais cette connaissance a soudain changé de dimension. Elle s’est faite si claire, si éclatante, que l’esprit a peine à la contempler, tant elle est aveuglante. Il est vrai que quand le soleil brille dans tout son éclat, nous ne songeons pas à le contempler. Il donne sa chaleur et éclaire toutes choses, et cela suffit. Quant aux lettres de noblesse, elles ne sont de conséquence que dans un monde où sévit le mépris. Mais pour l’esprit avide de connaissance, n’est-ce pas une chose plus que “dingue” aussi, que Dieu lui-même, Celui qui sait et qui voit et qui comprend toutes choses, et le Maître des maîtres pour exprimer et pour peindre ce qu’Il voit en touches puissantes et délicates - que ce Maître sans égal soit prêt, jour après jour et avec une inlassable patience, à nous servir de guide bénévole et bienveillant sur la voie escarpée de la connaissance ! Quelles perspectives, pour celui qui se soucie de faire son profit d’une aussi incroyable disponibilité ! Et je crois pouvoir dire, sans me vanter, que j’ai bel et bien appris, en l’espace de quelques mois à peine, plus que l’on n’en apprend d’ordinaire et que je n’en avais appris, au niveau spirituel, au cours de dix ou cent naissances successives. Et quelles perspectives pour notre espèce, qui en est encore à se hérisser devant le tout premier pas dans l’aventure spirituelle... Il est vrai qu’en voyageant sous la conduite de ce Guide intrépide et sa- gace, ce n’est plus nous, mais Lui qui en chaque moment décide de l’itinéraire. J’ai eu, quant à moi, du mal à m’y faire, tant cela heurte des habitudes te- 46 naces, enracinées de longue date. Mais j’ai bien compris que c’est là non un “inconvénient”, mais un privilège. Car l’esprit humain, laissé à ses propres moyens, ignore et les fins, et les voies. Dieu seul connaît les fins que lui- même assigne, et les meilleures voies ouvertes à chacun de nous, en chaque moment, pour y concourir. Si j’ai fini par suivre le Rêveur, quasiment à mon corps défendant, c’est pour avoir compris que c’était ce que j’avais de mieux à faire, si je voulais apprendre à me connaître. Maintenant que je sais qui est le Rêveur, c’est Dieu désormais que je suis - les yeux bien ouverts et avec une totale confiance. Et je sais que c’est ce que j’ai de mieux à faire, pour mon bien et pour celui de tous. Car ce qui est le meilleur pour l’un et une bénédiction pour lui, c’est aussi ce qui est le meilleur pour tous. Suivre Dieu, ce n’est pas (comme je faisais naguère) apprendre ceci ou faire cela, suivant les mouvements chan- geants du désir. La grâce, ouverte à tous, de suivre Dieu, c’est avant tout la grâce de servir. 2.4 20. Frères dans la faim... (30 et 31 mai) Avant-hier et hier j’ai essayé de situer, à gros traits pour commencer, la “pensée” maîtresse, ou pour mieux dire la connaissance, qui m’apparaît comme le thème principal de mon témoignage sur mon expérience du rêve. Cette expérience est à présent inséparable, dans mon esprit, de ma rencontre avec Dieu et de l’expérience de Son action dans ma vie. C’est pourquoi je n’ai pu m’empêcher de m’exprimer comme si je m’adressais à quelqu’un pour qui Dieu serait déjà, non un concept ou un simple mot, chargé d’associations (valorisantes ou péjoratives) variant à l’infini d’une personne à l’autre, mais bien une réalité vivante, enracinée dans son expérience comme elle l’est désormais dans la mienne. C’est un peu comme si c’était à moi- même que je m’étais surtout adressé à travers un lecteur imaginaire - à moi, au point où j’en suis en ce moment même où j’écris. Et certes, l’écriture est un puissant moyen pour faire se décanter et s’ordonner une masse plus ou moins confuse encore de connaissances “brutes” (si éclatantes soient-elles chacune séparément), apportée dans les flots tumultueux d’une expérience encore toute fraîche. Pourtant, je sais bien que si Dieu m’assigne la tâche de témoigner de cette expérience, ce n’est pas pour mon seul bénéfice - ce n’est pas pour rester, comme dans mes “méditations” passées, mon seul interlocuteur. Et je sais aussi que le message que j’ai à communiquer ne s’adresse pas seulement, ni même surtout aux quelques rares qui ont déjà une telle expérience vivante 47 de Dieu ; voire, à ceux qui s’imaginent l’avoir ou qui, l’ayant peut-être eue un jour, se croiraient déjà fort avancés sur le chemin de la connaissance et près de toucher aux cimes. Si j’écris, ce n’est pas pour ceux qui sont rassasiés (ou qui croient l’être), mais pour ceux qui ont faim. Et si je m’adresse à toi, c’est comme à quelqu’un seulement qui a su sentir cette faim en lui et qui est disposé à lui prêter l’oreille, comme je l’ai moi-même sentie et la sens encore, au moment d’écrire ces lignes. C’est par cette faim seulement que je te connais et que nous sommes frères - frères dans la faim. 2.5 21. Rencontre avec le Rêveur - ou questions inter- dites J’allais écrire, sur ma lancée, qu’il y a sept mois encore, je n’avais moi- même pas d’expérience vivante, irrécusable de Dieu - et que cela n’a pas empêché pour autant que j’accueille en moi le message qu’Il me destinait. Je me suis repris à l’instant, en songeant qu’en réalité j’avais déjà une telle expérience vivante, et ceci de bien des façons, mais sans le savoir. Et je suis sûr qu’en regardant bien, tu découvriras tôt au tard, avec émerveillement peut-être, qu’il en a été de même pour toi que depuis longtemps tu avais déjà l’expérience de Dieu. Ne serait-ce que par tes rêves - quand il sera devenu clair pour toi que le rêve est bel et bien une expérience de Dieu commune à tous les hommes. Que c’est la façon la plus “commune” pour Dieu de parler aux hommes. Mais bien sûr, cette expérience quotidienne change soudain de dimension, quand on découvre sa nature véritable, son sens profond. Peut-être ma propre relation au rêve (depuis déjà bientôt onze ans) a-t- elle été déjà assez particulière : j’avais non seulement une expérience vivante du rêve, mais aussi du Rêveur, à vrai dire, dès le premier rêve dont j’ai sondé le message (et j’ai parlé déjà à diverses reprises de cet événement crucial dans ma vie), j’ai su qu’il y avait un “Rêveur” - une Intelligence supérieure, tant par la pénétration que par les moyens d’expression, qui me parlait par ce rêve. Et qu’elle était, de plus, foncièrement bienveillante à mon égard. Je ne saurais dire avec certitude si, en mon for intérieur, je lui ai donné un nom, le nom de “Rêveur”, dès ce moment. Ce dont je suis sûr par contre, c’est qu’un instinct me disait alors, et continuait à me dire dans les années qui ont suivi, que cette intuition immédiate me révélait bien une réalité, que ce “Rêveur” n’était nullement une simple figure de style, une création de mon esprit. Que c’était bien un “Etre”, sinon “en chair et en os”, du moins “quelqu’un” auquel je me sentais étroitement apparenté, et ceci en dépit des moyens visiblement prodigieux de ce “parent” pas comme les autres. Une parenté en quelque sorte 48 “spirituelle”. Y a-t-il parenté plus irrécusable, que lorsque tu ris aux éclats en communion avec l’autre, saisi par le comique imprévu d’un tableau haut en couleurs qu’il vient de brosser à ton intention ? Et quand, au surplus, ce tableau te représente dans quelque aspect insoupçonné qu’il te fait découvrir, et quand c’est de toi-même que tu ris ainsi à gorge déployée ! Et plus d’une fois aussi, oui souvent (puis-je dire maintenant), j’ai pleuré, touché par la parole de vérité, et j’ai su en pleurant tout le bienfait de ces larmes... Il y avait ce “savoir”, à la fois diffus (faute d’être formulé) et d’une netteté parfaite, à la fois timide, et irrécusable - telle une voix chuchotante parlant à une oreille distraite. Et il y avait aussi la sempiternelle voix de la “raison”, où ladite “raison” est le nom que nous donnons d’ordinaire à des habitudes de pensée acquises, si bien enracinées que nous avons le plus grand mal à nous imaginer qu’on puisse décemment “fonctionner” d’une autre façon. Pour cette voix-là, ces inconsistantes histoires de “Rêveur” qui flottaient dans l’air, une sorte d’allégorie en somme, de personnalisation symbolique, ça faisait vraiment pas sérieux, c’était même du dernier mauvais goût. Je ne me rappelle pas, d’ailleurs, avoir consacré à cette question ne serait-ce qu’une minute de réflexion, et serais enclin à croire que ces escarmouches avaient lieu seulement au niveau “subconscient” (c’est-à-dire, à fleur de conscience). S’il m’est arrivé d’y penser, ça a dû être comme malgré moi, en des moments d’absence où les pensées divaguent comme elles veulent. Y consacrer une réflexion, si courte soit-elle, une sorte de réflexion “métaphysique” quasiment m’aurait semblé pure dispersion, une spéculation plus ou moins gratuite oui, me divertissant de ma véritable tâche : faire connaissance avec moi-même. Evoquant maintenant ces dispositions, je me rends compte qu’il y avait là une sorte de fausse humilité. En somme, j’avais décidé de n’accorder at- tention qu’aux roueries du “Patron”, et aux escarmouches et alliances de fortune entre lui et la pulsion érotique, alias “Eros”, et je rejetais d’office toute question plus “relevée”. Ce n’est pas, à vrai dire, que de telles ques- tions ne mintéressaient pas. Mais j’avais décidé d’avance que d’essayer d’y répondre, ou ne serait-ce que de me les formuler et de voir ce que je pourrais m’en dire, c’était “de la spéculation” - une sorte de vanité futile, qui consis- terait à faire mine de vouloir à tout prix dire quelque chose sur ce qui, de toutes façons, était inconnaissable ou, du moins, hors de la portée de mes seules “saines facultés”, à l’égard du rêve, je me cantonnais donc dans une attitude en quelque sorte “utilitaire”, bien contraire, à vrai dire, à mes vé- ritables penchants : je me contentais de profiter de l’“aubaine” qu’étaient pour moi les rêves, venant providentiellement m’apporter une connaissance que j’aurais été bien en peine d’acquérir par mes propres moyens. A part 49 ça, je m’en tenais à la tacite interdiction de me poser des questions un peu trop générales, sur la nature du rêve disons et sur sa provenance, ou sur la nature du généreux et génial Bienfaiteur (hypothétique ?) qui me l’envoyait avec une telle profusion. Il y avait donc là un propos délibéré sans faille contre tout ce qui pouvait ressembler à une réflexion philosophique tant soit peu systématique, laquelle m’aurait rendu suspect à mes propres yeux de vouloir encore “théoriser”, (Moi qui tenais tant à prendre mes distances par rapport à un passé et une identité de mathématicien, censés dépassés !). Je suis resté prisonnier de cette attitude jusqu’à tout récemment encore - jusqu’à ce que certains rêves, il y a trois mois ou quatre, me révèlent bien clairement quelle entrave elle avait représenté pour l’essor de ma pensée et de ma compréhension du monde, et m’encouragent en même temps à passer outre résolument. Pour ce qui est de l’existence du Rêveur, si j’en ai eu finalement le cœur net, ce n’est pas à la suite d’une réflexion (laquelle n’eut jamais lieu), mais par l’apparition inopinée du Rêveur en personne ! C’était, comme de juste dans un rêve, il va y avoir cinq ans (en août 1982). J’aurai à revenir sur ce deuxième tournant capital dans ma relation au rêve et au Rêveur, six ans après le premier. Cette apparition, suivie d’ailleurs par d’autres dès les semaines qui ont suivi, a mis fin une bonne fois pour toutes au moindre doute sur la réalité du Rêveur. Du jour au lendemain s’était instaurée ce que je pourrais bien appeler une véritable relation personnelle avec le Rêveur et même, pourrais- je ajouter, une relation beaucoup plus proche qu’avec aucun de mes amis ou “proches”. La voix de la raison, elle n’avait plus qu’à remballer ! (Sur ce chapitre-là, tout au moins...). C’est à la suite de ce rêve seulement, je crois, qu’il commence à être question du Rêveur dans mes notes de méditation. Il semblerait bien que jusque-là, ce nom même de “Rêveur” soit resté rigoureusement tabou, et qu’il ne soit pas apparu une seule fois ni sous ma plume, ni de vive voix en en parlant à quiconque. Le changement a été radical dès les jours qui ont suivi cette première apparition du Rêveur. C’était une chose qui désormais allait de soi, pour tous mes rêves, que c’étaient là des “messages” du Rêveur. Et je savais que dans chacun s’exprimait une intention de mon bienveillant guide et protecteur, que je m’efforçais dès lors de sonder du mieux que je pouvais. (Du moins en était-il ainsi pendant les périodes de médiation.). Dans le rêve dont je parle, le Rêveur m’apparaît (sans se nommer, est-il besoin de le préciser !) sous les traits d’un vieux Monsieur bienveillant, qui 50 m’indique mon chemin. Sans que je le réalise encore bien clairement en vivant ce rêve, il s’avère même tout disposé à me servir de guide bénévole dans une aride et solitaire ascension, assez problématique ma foi, dans laquelle j’étais embringué. J’ai reconnu qui était le vieux Monsieur le lendemain matin du jour où j’ai eu ce rêve et en ai écrit le récit. (Ainsi que celui des deux autres rêves qui l’accompagnent et qui, avec lui, forment une base trilogie.) Cette découverte a été vécue comme une révélation subite, qui m’a empli d’une joie exultante, et m’a insufflé aussitôt une énergie nouvelle. Une fois le Rêveur reconnu, aucun doute à ce sujet ne m’a effleuré ni alors, ni depuis. Et j’ai su en même temps que par ce rêve où Il était venu en personne, le Rêveur me faisait comprendre qu’il ne tenait qu’à moi de Le prendre comme un Guide infatigable et sûr, dans mon voyage hasardeux et solitaire où j’avançais à tâtons, sans trop savoir si je devais m’y obstiner envers et contre tout, et encore moins où il me menait... Ce signe que me faisait le Rêveur m’a fait comprendre soudain la chance vraiment dingue, la chance inouïe qui m’était offerte, depuis toujours sûrement, mais que je n’avais pas su voir et saisir pleinement jusque-là, il s’en fallait de beaucoup ! Il n’était pas question, certes, que je continue à gâcher une chance aussi extraordinaire. Il y a eu alors un élan de confiance totale, de joie reconnais- sante, et un choix : désormais, j’allais suivre ce Guide providentiel ! Je crois pouvoir dire que cette confiance absolue, cette foi sans réserve, ne s’est jamais démentie depuis. Mais il est vrai aussi que dans les années qui ont suivi, j’ai été loin d’être à la hauteur de mon choix, et j’en suis loin main- tenant encore. Bien souvent je me suis borné à écouter d’une oreille distraite ce qu’Il me disait et redisait avec insistance et avec une inlassable patience. Mais ce qui limitait surtout la portée pratique de ce choix, je crois, c’est que je continuais à investir dans la réflexion mathématique une part considérable de mon énergie. Du moins puis-je dire que dans les trois grandes périodes de méditation par lesquelles j’ai passé depuis lors, mon travail a bel et bien consisté, à peu de choses près, à sonder au fur et à mesure ce que le Rêveur me disait nuit après nuit, ou sinon, à revenir sur certains rêves des années écoulées, évoqués par ceux que je venais de recevoir. C’est vraiment une chose étrange que malgré cette sorte de “familiarité” avec le Rêveur (si j’ose encore hasarder une telle expression...), malgré cette relation étroite et intense, j’aie persisté à m’interdire (tacitement du moins) de me poser la question, qui semblerait pourtant s’imposer : mais qui est donc le Rêveur ? Je continuais, en somme, à me cantonner dans l’attitude utilitaire décrite tantôt : j’avais un Guide incomparable, je savais que je pouvais lui 51 faire une totale confiance - cela suffisait, du moins au niveau conscient, où la consigne restait : surtout pas de questions “métaphysiques” ! Au niveau subsconscient, et même avec l’existence du Rêveur désormais hors de question, ça restait plus ou moins comme avant ; une sorte de brume indécise, un embrouillamini confus, que je ne daignais examiner jamais. La “voix chuchotante”, elle, était claire au moins sur un point : le Rêveur n’est pas une partie de moi-même, de ma psyché - la partie “la plus créative” disons, ce que j’appelais aussi parfois “l’enfant en moi”. Je le sentais bel et bien distinct de moi, ne serait-ce que par Ses moyens prodigieux, qui dépassent infiniment ceux que je me connais. Je ne pouvais absolument pas les méprendre pour “les miens”, même en les attribuant (pour les besoins de la cause) à un “Inconscient profond” plus ou moins hypothétique, auquel le regard conscient n’aurait jamais accès direct. Quant à la “voix de la raison”, elle laissait entendre qu’il n’y avait vraiment aucune raison de chercher ici midi à quatorze heures. Après tout, les rêves, c’était bien dans ma psyché que ça se passait, non ? Et d’ailleurs, c’était bien connu que l’Inconscient, il se posait un peu là comme créativité, fallait pas croire que c’était qu’un vulgaire dépotoir voire une poubelle comme Freud semblait le croire... Je devais bien avoir entendu parler un peu de C.G. Jung, à ce sujet ; que c’était désormais chose classée, qu’il y avait que ce fameux Inconscient. Et voilà même que je tombe, par le plus grand des hasards c’est le cas de le dire, sur l’Autobiographie de ce même Jung. Pour être intéressant, c’était intéressant, et Dieu sait s’il en était question d’Inconscient, et tout entouré de vibrations “numineuses” - c’est là, en grec ou en latin, le terme séant qui remplace désormais des expressions désuètes et d’une naïveté charmante comme “sacré”, “religieux” ou “divin”. Cet Inconscient-là, ai-je compris alors, il avait maintenant remplacé le bon Dieu des bons vieux jours. C’est vrai que de nos jours et entre distingués savants et humanistes, ce pauvre bon Dieu n’est tout simplement plus sortable. Même pour un bon chrétien et quand on est quelqu’un, ça fait vraiment plus sérieux d’en parler (ou alors en grec ou en latin, ou mieux encore en sanscrit, chinois ou japonais). Tandis que l’Inconscient, Freud l’avait bien prouvé (mais moins on parlait de celui-là mieux ça valait...), c’était on ne peut plus scientifique, à la bonne heure ! Personne ne pouvait prétendre le contraire, non ! Dieu sait que je “brûlais”, à ce moment. Fallait vraiment que je me sois empêché dur, alors, pour ne pas faire un rapprochement, et trouver la réponse toute prête (et que peut-être j’avais “sue depuis toujours” ?), à la question informulée : qui est donc le Rêveur ? Je me doutais bien déjà que le Rêveur, 52 il était présent et bien éveillé pas seulement aux moments où moi je dors et rêve ! Je me la serais posée alors, cette question, c’était pas possible que je tombe pas sur la réponse évidente, celle qui s’imposait ! Mais dans mon esprit (comme dans celui de beaucoup d’autres sûrement) ce genre de question même était question interdite désolé, pas la peine d’insister ! Passons aux choses sérieuses. L’Inconscient et tout ça... 2.6 22. Retrouvailles avec Dieu - ou le respect sans la crainte (1 et 2 juin) En terminant hier, j’exagérais un peu, quand je prétendais que ça faisait des années que la réponse à la question “qui est le Rêveur ?” aurait dû être “évidente” pour moi. Ce qui est sûr, c’est que si je me l’étais vraiment posée et y avais réfléchi pendant une petite soirée, je n’aurais pu m’empêcher de tomber, sinon sur “la réponse qui s’imposait”, du moins sur la nouvelle question qui s’imposait : “Est-ce que ce ne serait pas le bon Dieu en personne ?”. C’était vraiment là l’idée naturelle, vu le point où j’en étais alors dans mon expérience du rêve. Une idée hardie, oui, et tentante. Mais jusqu’au mois d’octobre dernier, je n’en savais pas assez encore pour pouvoir me faire une idée si cette “hypothèse” (nous y voilà !) était raisonnable ou non. Et c’est un mois plus tard, sous l’afflux de mes rêves et sans la chercher, que la réponse est venue sans même que j’aie eu à me poser la question. A ce moment, la chose ne me paraissait apparemment pas avoir suffi- samment de conséquence, pour m’y arrêter et examiner d’un peu plus près l’intime conviction soudain apparue. Il faut dire que j’étais suffisamment maintenu en haleine par l’écoute, au fil des jours, de ce que me disait le Rê- veur. Je me contentais de dégager le message principal de chaque rêve (si tant est que j’y arrivais), sans même avoir le temps de m’arrêter aux asso- ciations qui me paraissaient marginales (voire “métaphysiques” !). Mais dès les derniers jours de décembre, l’action de Dieu en moi, par la voie du rêve, était devenue si éclatante, que sans avoir eu à examiner ma conviction toute fraîche encore, celle-ci était devenue une certitude, ou, pour mieux dire, une connaissance. Une connaissance tout aussi irrécusable que celle qui m’était venue dix ans plus tôt, par la voie du rêve aussi, en ce jour qui m’est ap- paru par la suite comme celui des “retrouvailles avec mon âme”. Cette fois, c’étaient les “retrouvailles avec Dieu”, ou pour mieux dire, peut-être, la ren- contre avec Dieu, reconnu cette fois pour Celui qu’Il est. C’est la première 53 telle rencontre dans ma présente existence terrestre, et (comme j’ai cru com- prendre par un des mes rêves, de début février), la première aussi dans la longue suite de mes naissances passées... Mais j’anticipe. Avant cette rencontre encore toute fraîche, il faut bien dire que “Dieu” était pour moi quelque chose d’assez lointain, à dire le moins. C’était vraiment rare que je pense à lui, et avant les premières retrouvailles, il va y avoir onze ans (j’approchais alors de mes cinquante ans), ça ne m’arrivait pratiquement jamais. Je n’avais pas l’impression que j’aie jamais eu affaire à Lui personnellement, ou qu’Il s’intéresse à ma modeste personne, ni même à celle de quiconque d’autre. Bien sûr, je savais qu’il y avait des gens qui étaient censés avoir communiqué avec Dieu de façons et d’autres. J’avais entendu parler des prophètes d’Israel, qui allaient hardiment dire leurs quatre vérités aux puissants de la terre, au nom de l’Eternel. Ca au moins, ça avait de la gueule ! Mais je n’étais pas trop sûr dans quelle mesure on pouvait y ajouter foi, à tout ça, même si, souvent, la bonne foi des témoins était visiblement hors de cause. Je n’avais jamais fait l’effort de me faire une idée à ce sujet, d’en avoir le cœur net. A vrai dire, je n’avais pas l’impression que ça me concernait vraiment. Il me faudra revenir de façon circonstanciée sur l’histoire de ma relation à Dieu, et de l’idée que je me faisais de Lui. Je sens bien que le sens même de ce que j’ai à dire sur Lui, et le crédit qu’on peut attacher à mon témoignage, sont inséparables de tout un contexte, dont cette “histoire” est peut-être le principal ingrédient. Sans compter que le sens même de cette affirmation que je suis en train de commenter longuement et que je voudrais éclairer : “Dieu est le Rêveur” - que ce sens dépend avant tout, bien sûr, du sens qu’on donne, ou que tu donnes, à “Dieu”. Mais déjà il faudrait que j’essaye de communiquer, du mieux que je peux, quel sens il a à présent pour moi, le porteur du message ! Et ce sens ne peut être séparé de mon histoire spirituelle, et en tout premier lieu, de l’histoire de ma relation à Dieu. Pour le moment, je voudrais seulement souligner que, pour ce qui est de ma relation au Rêveur, et jusque vers le mois de novembre l’an dernier encore, celle-ci était bien loin de se placer dans des tonalités qu’on songerait communément à appeler “religieuses”. L’idée ne me serait du moins jamais venue de L’appeler ainsi, pas plus après ma première “rencontre” avec le Rêveur “en chair et en os” (dont j’ai parlé hier) qu’avant. C’est vrai que j’avais en lui une confiance absolue, une foi totale, qu’il aurait été impensable que je porte à une personne, pas plus à ma propre 54 personne qu’à quiconque. C’était la foi que le petit enfant a en l’amour et en la force et les capacités de son père (du moins quand tout “se passe bien” pour lui, chose qui arrive parfois...). Le père est à la fois très proche, et très fort, très puissant. Cette force du père n’a rien d’inquiétant, de menaçant - c’est presque comme si c’était aussi ta propre force ; une force bienfaisante, bénéfique, étrangère à toute violence, dont tu es le tacite héritier, que tu sens déjà pulser en toi obscurément, mais à ta propre mesure de petit bonhomme. C’était bien là, pour l’essentiel, ma relation à mon père, dans les premières cinq années de ma vie. Il n’y avait en elle aucune crainte. A aucun moment dans ma vie je n’ai craint mon père. Et telle aussi était ma relation au Rêveur. Avec cette différence que je savais que mon père était faillible, même si je le sentais puissant et riche en connaissance certaine. Mais je n’avais jamais surpris le Rêveur en défaut. Il m’arrivait bien de ne pas être d’accord avec Lui, mais je crois que je savais bien, en mon for intérieur, qu’Il avait raison. En même temp un instinct me disait qu’il n’était pas question que je Lui “donne raison” passivement, et que ce n’était nullement dans cette intention-là qu’Il me parlait par les rêves, mais bien pour que je me donne le mal de m’y confronter. Et ça ne ratait jamais - quand je grattais un peu plus en dessous de la surface, je découvrais (avec le plaisir de celui qui voit s’ouvrir à lui une compréhension nouvelle) que c’est bien Lui qui avait vu juste. Par cette pénétration, d’une sûreté infaillible, le Rêveur était bien différent de moi, et aussi (de cela je n’avais pas le moindre doute) de toute autre personne au monde, depuis qu’il y a des hommes sur terre. Et en même temps, je me sentais pourtant tout proche. Il pouvait être mon père, comme il pouvait être mon grand frère, ou une grande sœur espiègle. Son autorité, souvent malicieuse, n’était jamais une contrainte, mais toujours don pur, sans nulle obligation pour moi d’acceptation, ni de reconnaissance. C’est bien à cause de tout cela que la fameuse “voix de la raison” pouvait insinuer qu’au fond, le Rêveur, c’était qu’une partie de moi, la partie “méconnue” pour ainsi dire (ça équivalait donc à dire qu’au fond, j’étais un “infaillible” méconnu - il n’avait plus manqué que ça !). Quand je m’exprime sur Son compte dans les notes de méditation, après “la Rencontre” (celle dont j’ai parlé hier), l’idée ne me serait pas venue de mettre des majuscules à “il” et “lui”. Même quand j’ai su finalement qui Il était, il a fallu du temps avant que je songe à les mettre, les majuscules, et j’ai même été un peu indécis quelque temps. Je me sentais encore tellement “à tu et à toi” avec Lui ! Ce qui est sûr, c’est que je n’ai jamais eu la moindre crainte ni du Rêveur, ni de Dieu, et ça m’étonnerait que j’en aie jamais. (Sans prétendre pourtant 55 prédire l’avenir...). Je n’ai pas vu Sa colère et j’ignore s’il m’est arrivé ou s’il m’arrivera de la susciter. Je sais bien que Sa puissance est infinie, et qu’Il arrive qu’Il châtie les corps ou les anéantisse. Mais la pensée de Sa colère n’a rien pour m’effrayer. Car je sais aussi que Sa colère n’efface pas Son amour, et qu’Il veille, comme sur une chose très précieuse, sur cela en chacun de nous qui doit rester intact... Pour ce qui est des majuscules, j’ai fini par m’astreindre et par m’habituer à les mettre, même dans mes notes personnelles. Je me suis dit que vis- à-vis de Dieu et même en les moments où on Le sent tout proche, il ne peut y avoir excès de respect, et que (sauf pour le petit enfant) des airs de “familiarité” ne sont pas de mise. Et plus encore dans les textes destinés à publication. Car le respect pour Dieu, tout comme le respect pour l’homme, fait à Son image, et pour son âme, s’est érodé de façon effrayante. Même les “croyants” de nos jours n’osent plus trop le prendre au sérieux, dirait-on, et semblent constamment plaider l’indulgence des gens “éclairés”, au nom de l’humanisme, de s’obstiner encore dans un aussi flagrant anachronisme. 2.7 23. Il n’y a qu’un Rêveur - ou l’“Autre moi-même” (9 et 10 juin) Il est temps que je revienne enfin au fil de la réflexion, ou plutôt, au récit d’une découverte, interrompu (depuis une semaine aujour- d’hui) par des digressions imprévues. Et même les deux sections précédentes, elles aussi, m’apparaissent quasiment comme des digressions dans un certain propos, annoncé (il y a onze jours) dans la section “Frères dans la faim”. Je m’y apprêtais à expliquer le sens de la “pensée maîtresse” “Dieu est le Rêveur”, pour un lecteur qui n’aurait aucune expérience vivante de Dieu, celui pour qui, peut-être, “Dieu” ne serait qu’un mot, vide de sens, voire, une “superstition” d’un âge “pré-logique” désormais bien dépassé (grâce à Dieu !) par le triomphal essor de la pensée rationnelle et de la Science. J’ai des amis de vieille date qui se bouchent les oreilles d’un air contristé quand ils entendent prononcer des mots tels que “Dieu”, “âme”, ou ne serait-ce que “esprit”. Je ne sais s’ils liront mon témoignage. Mais c’est pour eux aussi que j’écris, avec l’espoir, qui sait ? qu’il secouera peut-être une vision des choses trop bien (et trop longtemps) assise... Aussi je me disposais à reformuler l’idée maîtresse, de façon qu’elle ait au moins un sens intelligible, non pour certains seulement, mais pour tous. Il s’agissait donc, en somme, d’“éliminer Dieu de ma proposition”. C’était le 30 mai. Mais de ce jour-là et jusqu’à aujourd’hui encore, comme malgré moi, tiré en avant par les associations se suivant au fil des heures et des jours, je 56 n’ai fait pratiquement que parler de Celui-là même qu’il s’agissait d’éliminer ! C’est de l’obsession, dira-t-on, et avec raison sûrement. Dans le passé j’étais “obsédé” de maths, et tout le monde me tapotait l’épaule gentiment en me disant que c’était très bien. Quand ensuite, ça a été la méditation, ça jetait une gêne - à quoi ça ressemblait, on vous le demande un peu ? ! Maintenant que c’est Dieu, c’est bien pire - un mathématicien qui se met à avoir des révélations ! Fou à lier, oui... En commençant à écrire ce livre, je ne me figurais pas à quel point Dieu y serait partout, dans les lignes et entre les lignes. Je voulais être diplomate, Le cacher dans mes manches (plus amples qu’on ne soupçonnerait...), pour le sortir vers le milieu du livre d’un air innocent, au moment où on s’y serait attendu le moins, comme une “conclusion” imprévue à la fin d’une longue démonstration. Mais il n’y a rien eu à faire. Ce Grand Invisible, une fois qu’Il s’est fait connaître, ne se laisse pas cacher comme ça ! Et (j’aurais dû m’en douter) Il se rit des démonstrations. Têtu à ma façon, je vais quand même essayer de revenir à mon “élimi- nation”, et voir ce que ça donne. Mais par le biais “subjectif”, encore, en partant de mon propre vécu, dans ma relation au “Rêveur”. Comme je l’ai dit et redit, je me rendais bien compte, dès le début, que le Rêveur - Celui qui se manifestait à moi par les rêves - était infiniment plus fort que moi. Décidément, c’était “un Autre” que moi, même si je me sentais proche parent de lui. Tout ce que je savais, Il le savait, tout ce que je percevais, Il le percevait - mais avec une profondeur, une acuité, une vivacité, une liberté qui me faisaient défaut (comme elles font défaut aussi à tous ceux à qui j’aie jamais eu affaire...). Par ailleurs, quand Il me parlait par le rêve, c’était toujours (j’avais fini par m’en rendre compte) de moi qu’Il parlait, ou de choses toutes proches de moi. Et dans beaucoup des matériaux qu’ Il utilisait pour “monter” Ses rêves, je reconnaissais des impressions qui m’avaient frappé ou frôlé dans les jours précédents, ou, parfois aussi, des souvenirs de jours très lointains sombrés dans l’oubli, et que le Maître des Songes faisait remonter des brumes. De tout ceci se dégageait l’impression que le Rêveur était, d’une certaine façon, “Lié” à ma personne. C’était un peu comme s’il y avait en moi une sorte d’“autre moi-même”, qui aurait à Sa disposition tous mes sens et toutes mes facultés de perception et de compréhension, mais qui les utiliserait avec une liberté et une efficacité totales, alors que je ne vivais (je m’en rendais compte depuis longtemps) que sur une infime portion de mes moyens. C’était 57 donc comme un “moi-même” qui aurait été débarrassé des conditionnements et de l’inertie faisant écran entre les choses et moi, un Quelqu’un, en somme, qui percevrait par mes sens, sensoriels et extrasensoriels, avec la fraîcheur de perception que j’avais à ma naissance, et qui les intègrerait dans une compréhension, dans une vision, avec la pénétration et la maturité d’un Etre qui aurait assimilé l’expérience de millions d’années. Comme j’ai également dit, je n’avais jamais consacré à la nature du Rê- veur une réflexion délibérée. Mais mes pensées ont dû ici et là, en vagabon- dant, frôler la question sans s’y arrêter. J’avais bien l’idée que le Rêveur dans une autre personne que moi aurait une autre vision de la réalité que Celui que je connaissais, lequel (ainsi je le présumais tacitement) en avait l’expé- rience par mes sens à moi. Je sentais bien, pourtant, que ces visions (sans doute différentes) ne pouvaient que se compléter mutuellement, et jamais se contredire. Car l’une et l’autre étaient vraies, au sens le plus fort qu’on puisse concevoir. Et je sentais bien, aussi, que le regard du Rêveur était “ob- jectif”, même s’il avait l’air de regarder avec mes yeux. Jamais je ne l’avais vu “prendre parti”, ni pour ni contre moi, ou pour ou contre quiconque. Il se bornait à montrer les choses et les autres tels qu’ils sont, et toujours par quelque aspect caché qui m’avait échappé. Cette “objectivité” n’était qu’un aspect de sa totale liberté, par rapport à ma personne et à celle de quiconque. Mon impression, donc, c’était que la vision du Rêveur en moi, et celle du Rêveur en une autre personne, étaient des visions également “vraies”, également “objectives”, d’une même réalité absolue, mais vue sous des angles différents. Rien, dans mon expérience de mes rêves avant l’automne dernier, ne m’aurait permis de supposer que le Rêveur en moi en savait et en voyait plus que ce qu’Il pouvait voir par cet angle particulier lié à ma personne, qu’Il connaisse cette “réalité” absolue toute entière, par tous les angles à la fois, en d’autres termes, qu’Il n’était d’aucune façon “Lié” à ma personne, comme j’en avais eu l’impression du fait qu’Il ne me parlait que de ce qui me concernait directement. Et voici maintenant le fait nouveau vraiment extraordinaire, l’“incroyable bonne Nouvelle”, dont j’ai acquis connaissance sans trace du moindre doute : le Rêveur en moi est le même que le Rêveur en toi, ou que le Rêveur en toute autre personne qui ait jamais vécu. 58 2.8 24. Le Créateur - ou la Toile et la pâte - Avant de faire une appréciation critique du bien-fondé de cette affirmation péremptoire (où il n’est plus question de Dieu), je voudrais d’abord l’exami- ner de plus près, en faire le tour tant soit peu, et commenter sur sa portée. En premier lieu : le Rêveur en moi (ou en toi, c’est pareil) sait tout ce qu’une personne ait jamais su - et Il le sait, de plus, d’une façon dépouillée des innombrables erreurs dues aux limitations de l’esprit humain, si lourd et si craintif devant la connaissance. On pourrait donc le voir, à ce titre, comme une sorte de Mémoire géante, ayant à sa disposition instantanée et simultanée toutes les perceptions, pensées, sentiments, émotions et toutes les expériences de toutes sortes que les hommes aient vécu jamais, depuis qu’il y a des hommes sur terre. Etant bien entendu, cependant, que ce n’est pas là le savoir inerte de quelque gigantesque ordinateur, mais une connaissance vivante, un Regard qui saisit, dans les traits essentiels comme dans les plus fines nuances, les relations complexes, infiniment variées qui relient, en un même Tout harmonieux, ces innombrables éléments épars que je viens d’évo- quer. C’est là Sa connaissance, qu’Il met en quelque sorte “à ma disposition”, par le langage du rêve ; non pas, il est vrai, selon ma demande et mes dé- sirs, mais selon Sa Sagesse. Et nul doute qu’il sait infiniment mieux que moi, l’ignare, ce qu’il convient qu’Il me dise pour mon bénéfice en chaque moment. Dans le peu déjà que je viens de dire, il y a, il me semble, de quoi frap- per l’esprit de quiconque ne serait totalement dépourvu de curiosité philoso- phique au sujet de lui-même et du monde. Et pourtant, ce “peu” est encore loin en deçà de la réalité. Qu’on se rappelle tout d’abord que l’action du Rêveur en nous, et l’aide qu’Il nous accorde, ne se limitent nullement aux messages (si rarement écoutés) qu’Il nous envoie dans le sommeil par la voie du rêve. C’est lui-aussi, cette voix intérieure qui dans nos veilles (quand nous voulons bien faire silence) nous souffle où est le vrai, l’essentiel, le nerf caché et le cœur palpitant de la chair des choses, parmi la masse amorphe du donné et du possible - où s’ouvre dans la pénombre l’obscur giron que L’esprit doit féconder... - c’est lui, la voix de la “déraison”, alors que nous nous raccrochons si fort à ce qui est “raisonnable”, “sérieux”, “bien connu”, “fiable”. C’est Lui, le Créateur qui est en chacun de nous et qui nous encourage à être créateurs comme lui - et c’est Lui que constamment nous récusons, tout comme nous récusons le message de nos rêves. Mais ce n’est pas tout. Ce Rêveur-Veilleur universel, commun à tous les hommes, a une science qui excède infiniment non seulement celle de chacun 59 de nous en particulier, mais tout autant celle de tous les hommes mis en- semble, de tous ceux qui ont jamais vécu sur terre comme aussi de ceux qui y vivront jamais. Tout ce qu’un être vivant, qu’il soit homme, bête ou plante, a jamais “su”, perçu, éprouvé - Il l’a su, perçu, éprouvé avec lui, et Il le sait en ce moment même et en toute éternité. Nos sens, et ceux de la moindre fourmi affairée, du moindre brin d’herbe qui oscille dans le vent ou de l’infime bactérie vaquant à ses besognes - ce sont là comme autant d’innombrables et délicates antennes d’une même Intelligence infinie, prenant connaissance intimement, au fil des instants, dans ses gros plans comme dans ses plus im- perceptibles détails, de tout ce qui est et de tout ce qui se passe sur terre - les qualités et textures et mouvements de tous les sols et sous-sols, de toutes les eaux qui courent ou qui posent, et des airs et des vents et des tissus vivants des plantes et des bêtes et des hommes, et les courants d’énergie qui irriguent et dynamisent toute chose - et les forces maîtresses comme les moindres mou- vements qui mènent implacablement ou qui font frissonner dans la brise l’âme humaine, celle du moindre comme celle du premier d’entre nous. C’est cette Intelligence-là, la même, qui vit et qui veille en toi, et en moi, et en chacun. Et cette Science infinie, cette intime connaissance de toutes choses ne se limite pas à la surface et aux profondeurs de la terre et des airs et des eaux, à ce que la légion des créatures ayant souffle de vie y peuvent percevoir et explorer et connaître. Mais jusques aux plus lointains soleils et à leurs plantes et leurs orbes, et toute nébuleuse qui spirale comme tout atome qui danse et qui vibre à l’unisson de l’Univers dans les espaces cosmiques à jamais inson- dés... ce sont là Ses yeux et Ses doigts qui sondent et scrutent et explorent le Monde, dans son présent et dans son incessant devenir, de part en part en étendue et en durée, dans sa hauteur et dans sa profondeur, dans ses formes changeantes et dans son impérissable substance, dans son Ordre immuable et dans le Souffle qui le traverse et l’anime. Et ce n’est pas tout encore ! Cette Intelligence infinie qui nous parle dans nos rêves et dans nos veilles, et qui en chaque instant et de toute éternité explore et fouille et connaît le Monde des choses créées, non seulement Elle connaît, mais Elle crée. En prenant connaissance, Elle exprime, et en expri- mant, Elle transforme. Ce Souffle créateur qui traverse toute chose, et que parfois peut-être tu as perçu en rêve, ou en certains moments bénis d’aban- don et de silence, c’est Son souffle. Et à vrai dire, le Monde est ce Souffle, ou plutôt : il est Sa pensée qui l’ordonne, et Son souffle qui l’anime. Et la sub- stance qui pulse à travers lui et qui façonne et structure devant elle l’espace et le temps, est Sa pensée et Son souffle faits matière et énergie, et les créatures douées d’âme qui l’habitent sont Sa pensée et Son souffle “faits chair” - et 60 lancées dans l’Univers, chacune dans sa propre et unique aventure... Et me voilà revenu au point de départ ! Ce Rêveur si familier, qui nous parle dans nos rêves et que nous écoutons d’une oreille si distraite, Il est le Créateur du Monde où nous vivons - ce monde dont chacun de nous, et toute notre espèce réunie, ne perçoit et ne connaît qu’une infime portion. Et ce Monde lui-même est en perpétuelle Création, il est la Pensée et le Souffle vivants de Dieu, le Créateur. La pensée créatrice de Dieu Se concerte et agit, et bourgeonne et ramifie et croît et se déploie en chaque lieu et en chaque instant, de toute éternité. C’est le Verbe originel, le langage de Dieu, dont chaque mot est Acte et création, dans le Monde visible et dans l’invisible. Quant aux sept jours de la Création, nul doute que ce sont là les “jours” où Il dégagea du néant les lois éternelles (spirituelles, physiques, biologiques) qui régissent le Cosmos et l’Univers - tel un Maître-Peintre qui prépare avec soin sa toile et son cadre, pour un tableau qu’il s’apprête à brosser. Quand le Maître prend la palette et le pinceau, sûrement il y a en Lui une intention, une vision, un dessein, qui disent à l’avance les grandes lignes de la composition qui déjà se trame. Mais ce que sera l’Œuvre, lui-même ne le sait, et Se garde bien de le fixer à L’avance. Car l’Œuvre est d’art, et non de copie (fût-ce copie de Ses propres décrets...). Ce qu’Elle est, Il l’apprend à mesure que le travail se poursuit, chaque touche du pinceau sur la toile appelant la touche suivante, au service d’un même dessein, et suivant le libre Vouloir et l’Inspiration du Maître. En cet instant même où tu liras ces lignes, le Maître est au travail. Son pinceau invisible est partout à la fois, portant lestement touche après touche sur ce tableau infini en gésine, qu’Il est le seul à voir dans toutes ses parties, et dans sa totalité, dans ses tonalités et dans sa structure. Et toi et nous tous, les vivants, sommes la pâte vivante sur la palette du Peintre. Si nos âmes elles-mêmes furent créées, et quand et comment elles sont apparues dans le Tableau, je ne sais. Ce que je sais par contre, c’est que nous ne sommes pas simple substance, souple et docile sous le pinceau qui nous pétrit, nous forme et nous insère au gré de l’œil et de la Main du Maître. Certes, que nous le sachions ou le voulions ou non, nous sommes instruments, bien souvent réticents, dans une Main qui a sur nous tout pouvoir. Mais, selon Sa volonté aimante, nous sommes des instruments vivants, pourvus du libre choix, selon notre gré. A nous, de nous accorder aux intentions du Maître, ou d’y résister. La Toile est assez vaste pour tout embrasser ! Et l’ignorance obstinée de la pâte et sa longue résistance au pinceau ne sont pas les traits les moins marquants de l’Œuvre à laquelle elle collabore, alors même qu’elle y voudrait résister. 61 Ainsi, par le lourd privilège du libre choix, nous sommes non des instru- ments inertes dans une Main qui crée, mais les irremplaçables partenaires dans une Œuvre dont les desseins et la vision nous échappent, et à laquelle pourtant, en chaque instant de notre vie et quoique nous fassions, nous par- ticipons. Nous sommes chacun et tous les partenaires élus d’une Œuvre qui nous dépasse, les voix concertantes enlacées dans une Symphonie qui englobe et résoud toutes les dissonances. Tel est le sens de notre vie, qui si souvent paraît dénuée de sens, telle est notre noblesse, que n’effacent aucune déchéance ni aucune ignominie. Le prix de la résistance au sens de la vie, au “Tao”, le prix de la déchéance, de l’ignominie, de la peur de la vie, de l’ignorance - c’est la souffrance. Tra- vailleuse infatigable, c’est elle qui patiemment, obstinément, nous restitue malgré nous cette noblesse que constamment nous récusons. C’est dans la mesure où ces choses sont entrevues ou senties, que nous cessons aussi d’user nos forces à “dissoner”. Et nous qui fûmes tous des par- tenaires malgré nous dans les desseins de Dieu, nous sommes tous, et de tous temps, appelés à la grâce d’en être les serviteurs. 2.9 25. Dieu ne se définit ni ne se prouve - ou l’aveugle et le bâton (11 et 12 juin) J’étais parti avant-hier sur la louable intention d’“éliminer de ma proposition” un certain “terme” (hum...) particulièrement mal vu de nos jours. Ca a été simplement reculer pour mieux sauter : je me suis vu entraîné, par une faconde soudaine, à dire du Non-nommé bien plus que la laconique affirmation que je prétendais commenter : “Il n’y a qu’un seul Rêveur”- et bien plus même que ledit Rêveur n’a jamais voulu m’en dire Lui-même à Son propre sujet. Sur ma lancée imprévue, j’ai mis dans mon “paquet” finalement, sinon tout ce que je sais (ou crois savoir) au sujet du Rêveur, alias le bon Dieu (car là, j’en aurais pour des volumes), mais du moins ce qui m’en a paru, sous l’inspiration du moment, l’essentiel pour le situer. Et tout particulièrement, le situer à l’intention du lecteur à qui le mot “Dieu” ne suggèrerait rien d’autre que bondieuseries, obscurantisme, et défense de “toucher au zizi”. 62 En plaquant mes accords à pleines mains, je n’ai pas cru (à Dieu ne plaise !) poser une “définition” de plus de Dieu. Rien de ce qui appartient au monde spirituel ne peut être “défini”, mais tout au plus évoqué, par le langage des mots ou par tout autre, de façon plus ou moins grossière ou fine, plus ou moins superficielle ou fouillée. Et Dieu contient et englobe le monde des choses spirituelles, Il en est et la Source et l’Ame. Tout essai pour dire qui Il est, que ce soit par l’écriture, ou par la voix qui parle ou qui chante, ou le langage des rythmes et de la mélodie ou celui du corps qui trépigne et qui danse, ou par les chapelles, les temples, les cloîtres, les cathédrales qui chantent par la voix séculaire de la pierre taillée, ou par l’humble masure de l’ermite, par le pinceau le crayon le fusain le burin, ou par le ciseau et la gouge qui cisèlent et creusent et façonnent le bois ou le jade ou la pierre... - tout cela est témoignage seulement, et n’est qu’un balbutiement. Il nous apprend, au mieux, comment Dieu, et l’expérience et l’idée de Dieu, se reflètent dans l’âme de celui qui s’exprime - tel un éclat de verre qui reflète le Ciel, avec toutes les déformations dues à la grossièreté du miroir et à sa petitesse. Mettrions- nous ensemble tous les innombrables témoignages au long des siècles et des millénaires, de tous ceux qui se sont sentis portés à le dire, chacun à sa façon, cela ne ferait encore qu’effleurer à peine la surface de l’Inconnu, de l’Inépuisable - telles des écuelles qui plongent et puisent dans une Mer sans fond et sans rivages. Nous pouvons le dire, au mieux,comme la pâte sous le pinceau du Peintre “dit” la Main qui la travaille, et l’Esprit qui anime la Main. Et pas plus qu’on ne peut “définir” aucune des notions qui expriment des réalités spirituelles, il ne peut être question de trouver quoi que ce soit les concernant. Sur ce plan-là, la vérité n’est pas une chose qui se prouve, mais qui se voit. Elle est objet d’une connaissance qui ne peut être acquise par le raisonnement, à partir de son expérience et d’autres vérités déjà connues. Je n’entends pas dire par là que la saine raison, et même le raisonnement, soient inutiles pour la progression dans la connaissance des choses de la psyché et de l’âme, bien au contraire. Maniés avec doigté et avec rigueur à la fois, ils constituent un garde-fou précieux pour éviter de nous fourvoyer yeux fermés, et permettent souvent de dépister des erreurs insidieuses et tenaces. Mais s’ils nous aident à reconnaître l’erreur, tel le bâton de l’aveugle qui repère les obstacles sur sa route, ils sont impuissants à voir la vérité, et tout autant la reconnaître ou l’établir. Ils peuvent être utiles également pour nous faire entrevoir, par voie “logique”, des choses qu’elles nous présenteront comme plausibles, ou tout au moins comme possibles et dignes d’être examinées de plus près. Nous n’en aurions aucun besoin, pas plus que du bâton d’aveugle, si notre œil spirituel était pleinement éveillé et ouvert. Dieu, j’en suis persuadé 63 (et même quand Il “fait des maths”), ne raisonne jamais mais toujours voit (y compris les relations que nous appelons des “raisons”, et que nous enchaînons en des “raisonnements”). De toutes façons, tout raisonnement qui prétendrait établir une vérité ou un fait, concernant la psyché ou l’âme ou Dieu, est toujours spécieux. Chaque fois, dans la méditation, où je suis tombé dans ce piège si conmun de “démontrer”, et d’ajouter foi à une “conclusion” sur la foi d’une “démonstration” (fût-elle camouflée...), un malaise m’avertissait que je faisais fausse route, que j’étais en train de perdre contact avec la réalité des choses elles-mêmes, pour faire joujou avec les concepts censés les exprimer. S’il en est déjà ainsi pour tout ce qui concerne la psyché, c’est plus flagrant encore quand il s’agit de Dieu. Ainsi, les soi-disantes “preuves” de l’existence de Dieu, dont nous ont gratifié plus d’une plume illustre, n’en sont pas moins des enfantillages (pour ne pas dire, des fumisteries), qui ont dû faire bien rire Celui dont on prenait si grand soin de prouver l’existence. Que le lecteur ne s’attende donc pas à trouver dans ce livre une “démonstration” convaincante de l’égalité Dieu = Rêveur ni même, plus modestement, de Rêveur en Pierre = Rêveur en Paul. Prétendre “prouver” une telle chose, serait tromper le monde (qui ne demande que ça...) tout en se trompant soi-même. Inutile que je vienne grossir les rangs déjà assez serrés de ceux qui aiment se livrer à de tels tours de passe-passe. 2.10 26. La nouvelle table de multiplication Mon propos n’est pas de prouver, mais d’éclairer, de témoigner, et d’an- noncer. Mon premier propos est de brosser à grands traits la vision qui s’est dégagée en moi au sujet du rêve en général, comme j’ai déjà commencé à le faire. Je n’ai pu et ne pourrai m’empêcher de parler et de reparler de Dieu - pas plus que je ne pourrais me faire l’écho d’un dialogue dans lequel j’ai été et suis impliqué, tout en faisant silence sur l’Interlocuteur. Par Son action en moi tout au long de l’année écoulée, Il est devenu à présent le Centre omniprésent de cette vision, comme Il est aussi le Centre de ma vie, et de ma vision du monde. Mon expérience du rêve, en se révélant expérience de Dieu, a été finalement le creuset dont ma personne même, et ma vision des 64 choses en même temps, est sortie renouvelée. Ceci m’amène à mon deuxième propos, le “témoignage” : essayer d’es- quisser au moins dans les grandes lignes, et de “faire passer” tant soit peu, ce qu’ont été mon expérience du rêve, et mon expérience de Dieu. Le seul et unique fondement de la vision que je décris dans ce livre est cette ex- périence. Et ce fondement-là en moi, qui m’est venu sur le tard, est sûr et inébranlable. C’est dans la mesure où j’arriverai à te faire passer quelques effluves de cette expérience vivante, de ces eaux souterraines et de ce feu qui fuse, que la vision elle-même deviendra vie pour toi aussi, et prendra chair et poids. C’est alors seulement qu’elle aura une chance de stimuler en toi, avec l’assistance de l’Hôte invisible et bienveillant, un travail de renouvellement intérieur comme celui qu’Il a suscité et épaulé en moi. J’en viens à mon troisième propos, qui m’apparaît comme faisant le pont entre l’exposé d’une vision, et le récit d’une expérience. Il s’agit du compte- rendu d’un certain nombre de mes rêves, et du travail qui m’a conduit à une compréhension, plus ou moins exhaustive d’un cas à l’autre, de leur message. Ils serviront tout d’abord d’illustrations concrètes pour les principaux faits de nature générale que j’expose dans ce livre, au sujet du rêve. Mais au delà de ce rôle d’illustration, certains de ces rêves, qui me sont venus au cours des mois de janvier, février, mars de cette année, sont d’une portée qui dépasse non seulement ma personne, mais aussi l’intérêt qu’on peut accorder aux rêves en général. Dans un sens plus fort encore que tous les autres rêves, me révélant à moi-même, ils ont pour moi qualité de révélation. Et il est clair pour moi, et certains de ces rêves le confirment expressément, que ces révélations m’ont été faites par Dieu non seulement pour mon propre bénéfice, mais pour être annoncées à tous - à tous ceux, du moins, qui se soucieront d’en prendre connaissance. Parmi ces rêves-là, ayant qualité de révélation de Dieu aux hommes, un rôle à part revient à ceux que j’appelle “rêves prophétiques”. Ils annoncent la fin brutale et soudaine d’une ère à son déclin et d’une culture en pleine décomposition, et l’avènement d’une ère nouvelle. Moi-même serai témoin et coacteur de ces événements. Cela laisse présager qu’ils auront lieu pas plus tard que dans les dix ou vingt années qui viennent. Ce n’est pas ici le lieu de commenter sur le sens et sur la portée de ces rêves prophétiques, et de les situer, ainsi que les événements qu’ils annoncent, dans l’histoire de notre espèce et dans l’optique des desseins de Dieu nous concernant. Plutôt, je voudrais situer ici le présent livre par rapport aux rêves 65 prophétiques. La vision que j’y expose, et ma compréhension embryonnaire du rêve et de la nature du rêve, sont, elles aussi, fondées sur des “révélations” qui me sont venues par des rêves, et sur l’“interprétation” de ces rêves qui s’est imposée à moi sans possiblité de doute. Une telle assurance (ou une telle foi) est, certes, chose toute subjective, et elle peut être d’or comme elle peut être de fer blanc. Et par ailleurs, par son objet et par sa nature même, la validité d’une telle vision n’est pas susceptible de vérification “expérimentale” au sens courant du terme. Qu’on songe que la validité d’une interprétation même du plus anodin des rêves “à tout venant” ne peut être établie par cette voie - elle échappe entièrement à toute velléité de “preuve”. La qualité de vérité de la vision ne peut être vue et éprouvée que par celui qui se serait suffisamment avancé dans une authentique expérience personnelle de ses propres rêves et dans une compréhension de leur sens, pour pouvoir s’en convaincre “sur pièces” et par lui-même. Y en a-t-il un seul à part moi, je l’ignore. Je ne vois guère qu’une seule “raison objective”, qui serait de nature à faire accorder crédit à cette vision à d’autres qu’à de tels hypothétiques “ini- tiés”. Et cette raison, d’une force brutale et péremptoire, apparaîtra de mon vivant encore, par l’accomplissement des prophéties. C’est cette “sanction par l’histoire” qui donnera un fondement “objectif” crédible à des impondé- rables aussi peu convaincants que la “connaissance” que je prétends avoir, et mon intime conviction et assurance sur ceci et sur cela concernant (disons) les rêves en général, ou certains rêves (soi-disant “prophétiques”) en particu- lier. En somme, sur mes vieux jours et à ma propre surprise, me voici, sur l’initiative de Dieu, promu messager et même “prophète”. Sans que j’y sois vraiment pour rien, Il m’a envoyé tels et tels rêves, et Il m’a soufflé tout bas quel était leur message, qui à tout autre que moi, peut-être, paraîtra interprétation fantaisiste, voire délirante. Et l’idée ne me serait pas venue de récuser la tâche dont me voici chargé : celle d’ annoncer. Du même coup et sans hésiter, j’accepte aussi la conséquence : on prend un prophète au sérieux, non sur sa bonne mine, mais quand ses prophéties s’accomplissent. Et ceci d’autant plus, qu’elles sont de conséquence. Ce sont ces rêves prophétiques, et eux seulement, qui me donnent une complète assurance au sujet de la survie à brève échéance de notre espèce (qui l’an dernier encore me paraissait plus que douteuse), et au sujet de l’avenir qui nous attend. Non seulement il y aura encore une humanité d’ici quelques décennies, mais je sais aussi qu’elle ne sera pas morte spirituellement comme 66 elle l’est à présent. Et c’est dans une ambiance de vie, non dans des relents de décomposition et de mort, qu’un message comme celui que je porte sur le rêve et sur le Maître du rêve, pourra être accueilli au plein sens du terme : non comme un “happening”, comme du bruit qui se rajoute au bruit, mais comme une semence faite pour germer et pour lever. Pendant quelques années encore, ce que j’annonce sera sans doute une voix qui crie dans le désert - dans un désert de bruit. Ce n’est pas moi qui ai pouvoir de commander au bruit de faire silence, ni de faire s’ouvrir les oreilles sourdes. Mais viendra le choc de la Tempête, et les oreilles de ceux qui vivront entendront, et les yeux verront. Et ce qui était déraison, folie et délire pour les pères, sera accepté par les enfants et les petits-enfants comme chose allant de soi. Ce sera, en somme, une nouvelle “table de multiplication”, gracieusement fournie par le bon Dieu par mes bons offices. Elle complètera l’ancienne de triste mémoire - que personne non plus, après Adam et Eve et au cours des générations d’écoliers accablés, n’aura jamais pris la peine de vérifier... 67 3 III LE VOYAGE à MEMPHIS (1) : L’ER- RANCE 3.1 27. Mes parents - ou le sens de l’épreuve (13 et 14 juin) J’avais annoncé que j’esquisserais un historique de ma relation à Dieu, et il est temps que je tienne parole. J’ai vécu les cinq premières années de ma vie auprès de mes parents et en compagnie de ma sœur, à Berlin. Mes parents étaient athées. Pour eux les religions étaient des survivances archaïques, et les Eglises et autres institutions religieuses des instruments d’exploitation et de domination des hommes. Religions et Eglises étaient destinées à être balayées sans retour par la Révolution mondiale, qui mettrait fin aux inégalités sociales et à toutes les formes de cruauté et d’injustice, et assurerait un libre épanouissement de tous les hommes. Cependant, comme mes parents étaient tous deux issus de familles croyantes, cela leur donnait une certaine tolérance vis-à-vis des croyances et pratiques religieuses chez autrui, ou vis-à-vis des personnes de religion. C’étaient pour eux des personnes comme les autres, mais qui se trouvaient avoir ce travers-là, un peu anachronique il fallait bien dire, comme d’autres avaient aussi les leurs. Mon père était issu d’une famille juive pieuse, dans une petite ville juive d’Ukraine, Novozybkov. Il avait même un grand-père rabbin. La religion ne devait pourtant pas avoir beaucoup prise sur lui, même dans son enfance. Très tôt déjà il se sentait solidaire des paysans et petites gens, plus que de sa famille, de classe moyenne. A l’âge de quatorze ans, il prend le large pour rejoindre un des groupes anarchistes qui sillonnaient le pays, en prêchant la révolution, le partage des terres et des biens et la liberté des hommes - de quoi faire battre un cœur généreux et hardi ! C’était en Russie tsariste, en 1904. Et jusqu’à la fin de sa vie encore et envers et contre tout, il s’est vu comme “Sascha Piotr” (c’était là son nom dans le “mouvement”), anarchiste et révolutionnaire, dont la mission était de préparer la Révolution mondiale pour l’émancipation de tous les peuples. Pendant deux ans, il partage la vie mouvementée du groupe qu’il avait rejoint, puis, cernés par les forces de l’ordre et après un combat acharné, il est fait prisonnier avec tous ses camarades. Tous sont condamnés à mort, et tous sauf lui sont exécutés. Pendant trois semaines, il attend jour après jour qu’on l’emmène au peloton. Il est finalement grâcié à cause de son jeune âge, et sa 68 peine commuée en celle de prison à perpétuité. Il reste en prison pendant onze ans, de l’âge de seize à l’âge de vingt-sept ans, avec des épisodes mouvementés d’évasions, révoltes, grèves de la faim... Il est libéré par la révolution en 1917, puis participe très activement à la révolution, en Ukraine surtout où il combat, à la tête d’un groupe autonome de combattants anarchistes bien armés, en contact avec Makhno, le chef de l’armée ukrainienne de paysans. Condamné à mort par les bolsheviks, et après leur main-mise sur le pays, il quitte le pays clandestinement en 1921, pour atterrir d’abord à Paris (tout comme Makhno). Au cours des quatre années écoulées d’activité militante et combattante intense, il a d’ailleurs une vie amoureuse assez tumultueuse, dont est issu un enfant, mon demi-frère Dodek. Dans l’émigration, d’abord à Paris, puis à Berlin, puis à nouveau en France, il gagne sa vie tant bien que mal comme photographe ambulant, qui lui assure son indépendance matérielle. En 1924, à l’occasion d’un voyage à Berlin, il y fait la connaissance de celle qui devait devenir ma mère. Coup de foudre de part et d’autre - ils restèrent indissolublement attachés l’un à l’autre, pour le meilleur et surtout pour le pire, vivant en union libre jusqu’à la mort de mon père en 1942 (en déportation à Auschwitz). Je suis le seul enfant issu de cette union (en 1928). Ma sœur, de quatre ans mon aînée, était issue d’un précédent mariage de ma mère, qui déjà se dissolvait lors de la rencontre fatidique. Ma mère est née en 1900 à Hambourg, d’une famille protestante assez aisée, qui avait connu un déclin social inexorable tout au cours de son en- fance et de son adolescence. Comme mon père, elle avait une personnalité exceptionnellement forte. Elle commence à se dégager de l’autorité morale de ses parents à partir de l’âge de quatorze ans. A dix-sept ans, elle passe par une crise religieuse, et se dégage de la foi naïve et sans problèmes de son enfance, qui ne lui donnait aucune réponse aux questions que lui posait sa propre vie et le spectacle du monde. Elle m’en a parlé comme d’un arrache- ment douloureux, et (j’en suis persuadé tout comme elle) nécessaire. Aussi bien ma mère que mon père avaient des dons littéraires remar- quables. Chez mon père, il y avait même là une vocation impérieuse, qu’il sentait inséparable de sa vocation révolutionnaire. D’après les quelques frag- ments qu’il a laissés, je n’ai pas de doute qu’il avait l’étoffe du grand écrivain. Et pendant de longues années après la fin abrupte d’une immense épopée, il portait en lui l’œuvre à accomplir - une fresque riche de foi et d’espoir et de peine, et de rire et de larmes et de sang versé, drue et vaste comme sa propre vie indomptée et vive comme un chant de liberté... Il lui appartenait 69 de faire s’incarner cette œuvre, qui se faisait dense et lourde et qui poussait et exigeait de naître. Elle serait sa voix, son message, ce qu’il avait à dire aux hommes, ce que nul autre ne savait et ne saurait dire... S’il avait été fidèle à lui-même, cet enfant-là qui voulait naître ne l’aurait pas sollicité en vain, alors qu’il s’éparpillait aux quatre vents. Il le savait bien au fond, et que s’il laissait sa vie et sa force se faire grignoter par les petitesses de la vie d’émigrant, c’est qu’il était de connivence. Et ma mère aussi avait des dons bénis, qui la prédestinaient à de grandes choses. Mais ils ont choisi de se neutraliser mutuellement dans un affrontement passionné sans fin, l’un et l’autre vendant son droit d’aînesse pour les satisfactions d’une vie conjugale pavoisant “au grand amour” aux dimensions surhumaines, et dont l’un ni l’autre, jusqu’à leur mort, n’auront garde de mettre à jour la nature et les vrais ressorts. Après l’avènement d’Hitler en 1933, mes parents émigrent en France, terre d’asile et de liberté (pendant quelques années encore...), en laissant ma sœur d’un côté (à Berlin), moi de l’autre (à Blankenese, près de Hambourg), et sans plus trop se préoccuper de leur encombrante progéniture jusqu’en 1939. Je les rejoins à Paris en mai 1939 (la situation pour moi en Allemagne nazie devenant de plus en plus périlleuse), quelques mois avant que n’éclate la guerre mondiale. Il était temps ! Nous sommes internés en tant qu’étrangers “indésirables”, mon père dès l’hiver 1939, ma mère avec moi aux débuts 1940. Je reste deux ans au camp de concentration, puis suis accueilli en 1942 par une maison d’enfants du “Secours Suisse” au Chambon-sur-Lignon, en pays cévenol protestant (où se cachent beaucoup de juifs, guettés comme nous par la déportation). La même année, mon père est déporté du camp du Vernet, pour une destination inconnue. C’est des années plus tard que ma mère et moi aurons notification officielle de sa mort à Auschwitz. Ma mère reste au camp jusqu’en janvier 1944. Elle mourra en décembre 1957, des suites d’une tuberculose pulmonaire contractée au camp. Dans les années 36, 37, alors que j’étais encore en Allemagne, la révolution espagnole allume de grands espoirs dans les cœurs des militants anarchistes. Mes parents y participent et s’y engagent entièrement - la grande heure pour l’humanité avait enfin sonné ! Ils ne quittent le pays, pour revenir en France, que quand il devient irrécusable que la partie est, cette fois encore, irrémédiablement perdue. Cette expérience de leur âge mûr, et l’inexorable échec sur lequel elle débouche, portent un coup mortel à la foi révolutionnaire en l’un et en l’autre. Mon père ne trouva jamais le courage de vraiment se confronter au sens de cette expérience, et de faire le constat d’échec de 70 toute une vision du monde, à un moment où le “grand amour”, lui aussi, allait se déglinguer avec des grincements de dents. Jusqu’à la fin de sa vie, il continuera à professer encore des lèvres une foi en la révolution libératrice, laquelle était bien morte. A dire vrai, sa foi en lui-même était morte en lui des années auparavant. C’est dans elle seulement qu’il pouvait puiser le courage de constater et d’assumer humblement la mort de la foi en une chose extérieure à lui. Et pour retrouver la foi en lui-même qu’il avait perdue, il aurait fallu qu’il trouve le courage d’assumer son propre manque de liberté, ses propres faiblesses d’homme et ses propres trahisons, au lieu de chercher en les autres la faute pour une révolution perdue, et de se leurrer à croire que la prochaine fois “on” fera mieux et ce sera “la vraie”. La foi de ma mère en elle-même était restée indemne à travers les ex- périences amères de l’exil et les vicissitudes de la vie du couple. C’est pour cela, peut-être, qu’elle a trouvé en elle-même la simplicité pour admettre, ne serait-ce d’abord qu’en son for intérieur et de façon encore confuse, que les généreux idéaux révolutionnaires qu’elle avait arborés pendant tout son âge adulte, clochaient de quelque façon mystérieuse et essentielle. Mais il lui a fallu, après l’épreuve de la longue vie commune avec mon père, quatre autres années encore d’une épreuve toute différente, ses années de captivité au camp, pour avoir tout loisir (des loisirs forcés !) pour y voir plus clair. Quand enfin elle a vu, elle a su que le sens de son séjour au camp était désormais accompli. Elle était sûre que sa captivité touchait à sa fin. Et en effet, alors que son “cas” semblait sans espoir et qu’une déportation semblait même imminente, elle s’est vue mise en liberté peu de temps après. 3.2 28. Splendeur de Dieu - ou le pain et la parure Me voici à nouveau tout près du “fil” que j’avais un peu perdu de vue, en parlant de mes parents : la relation à Dieu. Mais je reprends à nouveau par ordre chronologique. Au cours de ces derniers mois, d’une telle densité par l’action de Dieu en moi, j’ai repensé parfois à un événement dans la vie de mon père qui a eu lieu longtemps avant ma naissance, et auquel j’avais rarement eu l’occasion de penser. Il ne m’en a jamais parlé d’ailleurs, ni à âme qui vive sauf à ma mère, dans les semaines de passion tumultueuse qui ont suivi leur rencontre en 1924. C’est elle qui m’en a parlé, des années après sa mort. Il s’agit d’une expérience qu’il a eue en prison, dans sa huitième année de captivité (donc 71 vers l’année 1914). C’était au terme d’un an de réclusion solitaire, que lui avait valu une tentative d’évasion au cours d’un transfert d’une prison à l’autre. Ca a été sûrement l’année la plus dure de sa vie, et qui aurait détruit ou brisé ou éteint plus d’un : solitude totale, sans rien pour lire ni écrire ni s’occuper, dans une cellule isolée au milieu d’un étage désert, coupé même des bruits des vivants, sauf l’immuable et obsédant scénario quotidien : trois fois par jour la brave apparition du gardien apportant la pitance, et le soir une apparition-éclair du directeur, venant en personne inspecter la “tête dure” de la prison. Chaque jour s’étirait comme un purgatoire sans fin. Il y en avait 365 à passer, avant qu’il serait à nouveau rattaché au monde des vivants, avec des livres, un crayon... Il les a comptés, ces jours-là, ces éternités qu’il avait à franchir ! Mais au bout du 365ième (c’est à peine qu’il pouvait saisir que c’était bel et bien la fin de son calvaire sans fin...), et pendant les trois jours suivants encore, rien. Au bout du troisième, à sa demande “L’année est passée maintenant - quand aurai-je des livres ?”, un laconique “Attends !” du directeur. Trois jours après encore, pareil. On jouait avec lui, qui était livré à merci, mais la révolte couvait, ulcérée, dans l’homme poussé à bout. Le lendemain, à peine prononcé la même réponse impassible “Attends !”, le lourd crachoir en cuivre à bords tranchants faillit fracasser le crâne de l’imprudent tourmenteur - se jetant de côté juste à temps, il en sentit le souffle aux tempes, avant que le projectile s’écrase sur le mur opposé du corridor, et qu’il rejette précipitamment derrière lui la lourde porte bardée... C’est miracle pour moi que mon père ne fut pas pendu sur le champ. Peut-être un scrupule de conscience du directeur, qui “craignait Dieu” et qui sentait confusément, par la mort même qui l’avait frôlé de si près, qu’il avait été trop loin ? Toujours est-il que le jeune révolté est battu comme plâtre. (C’était la moindre des choses !), puis jeté dans les fers dans un cachot puant, dans l’obscurité totale, pour une durée indéterminée. Un jour sur trois, on ouvre les volets, et le jour relaye la nuit moite. Pourtant, la révolte n’est pas brisée : grève de la faim totale, sans manger ni boire - malgré le jeune corps qui obstinément veut vivre ; l’âme ulcérée, rongée par l’impossible révolte et l’humiliation de l’impuissance, et les chairs gonflées débordant en bourrelets vitreux autour des anneaux de fer aux poignets et aux chevilles. C’étaient les jours où il a touché au fin-fonds de la misère humaine consciente d’elle-même - celle du corps et celle de l’âme. C’est au terme du sixième jour de cachot, jour à “volets ouverts”, qu’eut lieu la chose inouïe - qui fut le secret le plus précieux et le mieux gardé de sa vie, dans les dix années qui ont suivi. C’était une vague soudaine de lumière d’une intensité indicible, en deux mouvements successifs, qui emplit 72 sa cellule et le pénètre et l’emplit, comme une eau profonde qui apaise et efface toute douleur, et comme un feu ardent qui brûle d’amour - un amour sans bornes pour tous les vivants, toute distinction d’“ami” et d’“ennemi” balayée, effacée... Je ne me rappelle pas que ma mère ait eu un nom tout prêt pour nommer cette expérience d’un autre, qu’elle me rapportait. Je l’appellerais mainte- nant une “illumination”, état exceptionnel et éphémère proche de ce que rapportent les témoignages de certains textes sacrés et de nombre de mys- tiques. Mais cette expérience se place ici en dehors de tout contexte qu’on appelle communément “religieux”. Cela faisait plus de dix ans sûrement que mon père s’était détaché de l’emprise d’une religion, pour ne jamais y revenir. Il est sûr pour moi-même sans avoir de précision à ce sujet, que cet évé- nement a dû profondément transformer sa perception des choses et toute son attitude intérieure, dans les jours et les semaines au moins qui ont suivi - des jours de très dures épreuves sûrement. Mais j’ai de bonnes raisons de croire que ni alors, ni plus tard, il n’a fait de tentative pour situer ce qui lui était advenu, dans sa vision du monde et de lui-même. Ca n’a pas été pour lui l’amorce d’un travail intérieur en profondeur et de longue haleine, qui aurait fait fructifier et se multiplier l’extraordinaire don qui lui avait été fait et confié. Il a dû lui réserver une case bien séparée, comme un joyau qu’on serre dans un écrin fermé, en se gardant de le mettre en contact avec le reste de sa vie. Pourtant, je n’ai aucun doute que cette grâce inouïe, qui avait en un instant changé l’excès d’une misère en indicible splendeur, était destinée non à être gardée ainsi sous clef, mais à irriguer et à féconder toute sa vie ultérieure. C’était une chance extraordinaire qui lui était offerte, et qu’il n’a pas saisie, un pain dont il n’a mangé qu’une fois à pleine bouche, et auquel il n’a plus touché. Dix ans plus tard, à la façon dont il s’en est ouvert à ma mère, dans l’ivresse de ses premières amours avec une femme qui allait le lier pieds et poings, c’était bien comme un bijou insolite et très précieux dont il lui aurait donné la primeur ; et quand elle m’en a parlé, plus de vingt ans plus tard encore, j’ai su qu’elle avait apprécié bel et bien, et appréciait encore, cet hommage jeté alors à ses pieds, accueilli avec empressement et comme un éclatant témoignage d’une communion totale avec l’homme adoré, et d’une intimité qui n’a plus rien à céler. Et moi-même en l’entendant, jeune homme de dix-sept ou dix-huit ans, en ai pris connaissance avec un empressement ému tout semblable : j’ai vu, moi aussi, le bijou qui rehaussait encore pour moi l’éclat de ce père prestigieux et inégalable héros, en même temps que celui de ma mère qui, seule entre tous les mortels, avait été jugée digne d’y 73 avoir part. Ainsi, le pain donné par Dieu comme inépuisable nourriture d’une âme (laquelle peut-être croîtrait et en nourrirait d’autres âmes encore...) a fini par devenir une parure de famille, venant rehausser la splendeur d’un mythe cher et alimenter une commune vanité. 3.3 29. Rudi et Rudi - ou les indistinguables (15 juin) C’est avec quelque réticence que je me suis laissé entraîner à en dire sur mes parents bien plus que je n’avais prévu. Je me disais que je digressais, que je m’éloignais de mon propos - il n’y a rien eu à faire ! Peut-être après tout en suis-je plus proche, du dit “propos”, qu’il n’y paraissait à cette réticence en moi. Sans compter que mon enracinement dans mes parents a été d’une force telle qu’il ne serait sans doute guère raisonnable de prétendre faire un historique, même des plus sommaires, de mon itinéraire spirituel, sans les y inclure tant soit peu. Le premier vestige concret de ma relation à Dieu dont j’aie connaissance remonte à l’âge de trois ans environ. C’est une sorte de bande dessinée de mon cri, gribouillée sur les marges d’un livre d’enfants (“emprunté” à ma sœur, je suppose pour les besoins de la cause). J’y mets en scène quelque déconfiture du bon Dieu, dans des démêlés avec mon père où celui-ci visiblement joue le beau rôle et l’emporte haut-la-main. On m’avait pourtant assuré que le bon Dieu n’existait que dans l’imagination de certaines gens, et que c’était un peu sot d’y croire. Mais sans doute, dans ces gribouillis des plus dynamiques, mon père prouve-t-il d’une façon sans réplique au bon Dieu en personne cette inexistence flagrante, en lui renversant une casserole d’eau sur la tête, voire pire encore. Je ne pense pas que le bon Dieu m’ait tenu rigueur (pas plus qu’à mes parents, que je n’avais pas consultés...) de ces juvéniles amorces d’une réflexion métaphysique qui se cherchait encore. En janvier 1934, vers la fin de ma sixième année, je suis largué brutalement de mon milieu familial, athée, anarchiste, et marginal à souhaits, dans la famille très comme il faut d’un ancien pasteur, à l’autre bout de l’Allemagne. J’y resterai plus de cinq ans, avec trois ou quatre fois dans l’année une lettre hâtive et empruntée de ma mère... Dans ma nouvelle maison, il y a bien des effluves religieuses, que je perçois d’un peu loin - ici et là une visite dans quelque couvent, où il y a des religieuses de la famille, voire même un service religieux ou deux auxquels j’assiste un peu éberlué, et attendant que ça se termine. Mais l’atmosphère dans la maison n’est pas très religieuse, à dire le moins, toujours est-il que le couple qui m’avait accueilli et pris en affection a la sagesse (ou est-ce surtout manque de disponibilité ?) de 74 ne pas trop me lessiver avec des histoires de bon Dieu. Dès ce moment-là, d’ailleurs, j’ai ample occasion de me rendre compte de première main que la “religion”, chez les gens, a tendance à se réduire à une certaine étiquette sociale affichée avec plus ou moins d’insistance, et étayée par une observance plus ou moins assidue d’un cérémonial qui ne m’attirait pas particulièrement, et que personne, heureusement, ne songe à vouloir m’imposer. La transplantation d’un milieu familial dans un autre, et surtout les six mois, tout saturés d’angoisse contenue, qui l’ont précédée, avaient été une très rude épreuve. C’est l’époque où la peur a fait son apparition dans ma vie, mais une peur enfermée dès le départ derrière une chape de plomb étanche maintenue une vie durant, comme un secret redoutable et honteux. Ca a été le secret le mieux gardé de ma vie, y compris vis-à-vis de moi-même. (Je n’en fais la découverte qu’à partir de mars 1980, à l’âge de 52 ans, dans la foulée de mon travail sur la vie de mes parents.). Ca a été ma très grande chance de trouver alors dans le nouveau milieu familial, et dans son entourage, des personnes de cœur qui mont donné affection et amour. Alors que bien rarement par la suite je trouve l’occasion de me souvenir de l’un ou l’autre d’entre eux, ce n’est sûrement pas un hasard que dans la nuit même qui a précédé les “retrouvailles avec moi-même” en octobre 1976, j’ai été conduit, pour la première fois de ma vie, à faire une rétrospective de ma vie et de mon enfance, et à m’évoquer alors l’amour que j’avais reçu par eux. La plupart de ces personnes (j’en vois sept, dont une seule est encore en vie) étaient croyantes, mais leur sollicitude aimante n’était assortie d’aucun effort de prosélytisme. Elle n’en a été que plus agissante. Parmi ces personnes qui ont entouré des années difficiles, je mets à part l’une d’elles, Rudi Bendt, dont je voudrais parler. C’était un homme d’une grande simplicité, d’humble condition et de peu d’instruction, mais empli d’une sympathie spontanée et agissante, inconditionnelle et quasiment illi- mitée, pour tout ce qui a visage d’homme. L’amour rayonnait de lui aussi simplement, aussi naturellement qu’il respirait, comme une fleur exhale son parfum. Tous les gosses l’adoraient, et dans mon souvenir je le vois toujours avec deux ou trois autour de lui s’associant à ses multiples entreprises, voire même toute une ribambelle affairée. Les adultes, eux, touchés comme malgré eux par le charme spontané et sans prétention et par le rayonnement qui émanaient de lui, arboraient à son égard une sympathie mi-attendrie, mi- condescendante, et acceptaient volontiers ses services et bons offices tout en prenant des airs de bienfaiteurs. Je suis sûr que Rudi, de ses yeux candides et clairs, voyait bien à travers ses airs-là et autres poses. Mais ça ne le dé- rangeait pas que les autres se fatiguent comme ça à prendre des poses et des 75 airs de supériorité (y compris dans la famille qui m’avait accueilli). Les gens étaient ce qu’ils étaient, et il les prenait tels, comme le soleil nous éclaire et nous chauffe tous, sans se préoccuper si nous le méritons. Sûrement, il ne s’est jamais posé la question comment il se faisait que lui, il soit différent de tous les autres. Visiblement, il s’acceptait comme il acceptait les autres, sans se poser de questions (sans doute insolubles !). Sa vie consistait à don- ner - que ce soit des vêtements en tous genres qu’il était allé récupérer dans des caves et greniers et qu’il distribuait à droite et à gauche à qui pouvait en avoir besoin, ou des piles de chutes de papier (des vrais trésors pour les gosses !) de son petit atelier d’imprimeur (avant que les nazis ne l’obligent à fermer), un lot de bouteilles vides, des bocaux de conserves - les choses les plus invraisemblables, qui toujours finissaient par trouver preneur, pour soulager quelque gêne ou quelque misère. Tout le monde voyait le bric à brac pittoresque qui passait par ses mains infatigables, qu’il allait chercher avec une petite carriole Dieu sait où, dès qu’il avait un moment de libre, et qu’il redistribuait à qui en voulait. Mais Dieu seul voyait ce qui accompagnait ce bric-à-brac, porté je crois par cette voix chantante et claire et par ce regard candide et grand ouvert - ume chose silencieuse et invisible, beaucoup plus rare et plus précieuse que l’or. Depuis qu’il m’arrive de méditer sur ma vie et sur moi-même, l’action dans ma vie de l’amour qu’il m’a donné dans mon enfance, sans même le savoir ni le vouloir sûrement - action souterraine, insaisissable, invisible à tous sauf à Dieu seul, commence seulement à me devenir apparente. Et quand je mesure mes actes et mes échecs (et même mes succès...) à l’aune de celui qu’il était, je sens ma petitesse - non par un louable effort de modestie, mais par l’évidence de la vérité. Ce qui m’a d’abord et surtout frappé, en pensant à Rudi au cours des dix ou onze dernières années, c’est l’absence de toute vanité. Dans ma vie riche en rencontres, il est le seul qui m’ait donné ce sentiment irrécusable et qui ne peut tromper, qu’il était par sa nature même étranger à la vanité - qu’il n’y avait en lui aucune prise pour elle. Et même parmi les gens que je connais tant soit peu par leurs œuvres seulement ou par leur réputation, et mis à part seulement le Christ, Bouddha, Lao-Tseu, je n’en vois aucun qui m’ait fait cette même impression. Et sûrement il y a un lien étroit entre cette absence de vanité, et ce rayonnement. Ce sont l (1 août) Voir à ce sujet la réflexion d’aujourd’hui dans la note “L’enfant créateur (2) - ou le champ de force” (n o 45).. Mais l’écran entre l’action de Dieu opérant en nous, et autrui, comme aussi l’écran entre Dieu et nous- mêmes, n’est autre que la vanité. Un homme m’apparaît “grand”, spirituelle- 76 ment, dans la mesure où il est affranchi de la vanité, ce qui signifie justement (si je ne fais erreur) : dans la mesure où il est plus proche de Dieu en lui. Et c’est dans cette mesure aussi, je crois, que son action en autrui, et son action dans le monde, est bénéfique spirituellement, c’est-à-dire : cette action colla- bore directement, comme si elle émanait de Dieu Lui-même, aux desseins de Dieu sur chaque être en particulier, et sur l’humanité et sur l’Univers dans leur ensemble. C’est une grande grâce que de rencontrer sur sa route un être dans le- quel se trouve réalisé, humblement et dans sa perfection, l’accord complet et l’unité avec Dieu qui vit en lui. Et dans ma vie comblée de grâces, c’est une des plus grandes à mes yeux d’avoir connu familièrement, pendant des années cruciales de mon enfance, un tel être. J’ai fait un rêve où il est question, comme en passant, de ces êtres-là, représentés dans ce rêve par un groupe d’enfants. Ce sont les “enfants dans l’esprit”. Ils habitent dans une maison dans le jardin de Dieu, attenante à une autre, que j’ai reconnue comme la demeure des “mystiques”, des amants de Dieu. J’avoue ne pas distinguer encore bien clairement le rôle dévolu aux uns et aux autres dans les desseins de Dieu. Ce qui est clair en tous cas, c’est que ce sont là Ses plus proches. Rudi, lui, d’après tout ce que je sais de lui directement ou par le témoignage d’autres (sa femme notamment) qui l’ont connu dès son jeune âge, n’avait vraiement rien du mystique. Je sais qu’il croyait fermement en Dieu, il a même passé dans sa jeunesse par une période de dévotion, sous l’influence de sa femme peut-être. Mais je ne me rappelle pas l’avoir jamais entendu parler de Dieu, et ignore s’il lui arrivait seulement de prier. A dire vrai, je crois qu’il n’en avait aucun besoin. Il n’y avait aucune distance entre lui et Dieu en lui, qui ait pu rendre nécessaire de Lui faire une sorte de petit discours. Dans la scène finale d’un autre rêve, des plus substantiels lui aussi et haut en couleurs, il y avait deux messieurs d’un certain âge, assis dans des fauteuils d’osier l’un à côté de l’autre, faisant un amical brin de causette - au plein centre d’un carrefour animé dans une ville. La chose la plus re- marquable cependant, à vue de nez, c’est que ces deux hommes à l’aspect débonnaire avaient tout l’air d’être deux fois le même ! C’était deux fois Rudi. Bien entendu, dans le rêve ça semblait la chose la plus naturelle du monde, et j’allais me plaindre à Rudi et Rudi de certains déboires qui venaient de m’arriver. (Moi qui toute ma vie avais été un antimilitariste farouche, voilà que sur mes vieux jours je m’étais laissé enrôler dans le service militaire ! Et Rudi, de plus, qui trouve ça tout naturel et qui me dit que j’ai bien fait...) 77 Dans le travail sur cette scène du rêve, après un moment de perplexité, j’ai su que l’un des deux était Rudi, et l’autre le bon Dieu. Mais je n’aurais pas su dire lequel était lequel (et ce n’était sûrement pas là sans intention du Rêveur !). Ils étaient indistinguables. 3.4 30. La cascade des merveilles - ou Dieu par la saine raison (17 et 18 juin) Jusque dans ma seizième année, et sans y avoir jamais réfléchi certes, j’avais au sujet de Dieu des idées assez tranchées. Dieu était pure invention de l’esprit humain, et la croyance en lui, contraire au bon sens le plus élémentaire - une survivance des temps anciens sûrement, où il servait à donner un semblant d’“explication” à des phénomènes qu’on ne comprenait pas autrement, mais tous parfaitement bien compris de nos jours. Sans compter son rôle de croquemitaine pour une morale conventionnelle qui me semblait bien étriquée, et destinée bien plutôt à perpétuer les inégalités et les injustices, qu’à les éliminer ou seulement les limiter. La ténacité avec laquelle des croyances aussi irrationnelles (selon moi) continuaient à s’accro- cher à l’esprit de beaucoup de gens, y compris de certains qui n’avaient pas l’air plus stupides que vous ou moi, était certes étonnante. Mais j’en avais vu bien d’autres déjà, tout autour de moi, et surtout tout au cours des années de guerre. Je savais à quel point le bon sens, ou le plus élémentaire sens de solidarité humaine ou de simple décence, sont balayés, quand ils se heurtent à des idées bien ancrées, ou quand ils risquent de bousculer tant soit peu le sacro-saint confort intérieur. Ca avait été même une rude expérience, pour mon jeune esprit épris de clarté et de rigueur, de me rendre compte à quel point tout argument est alors peine perdue, qu’il s’adresse à la raison ou à un sens de l’humain, à une sorte de sain instinct spirituel qui doit bien exis- ter dans chaque homme (j’en suis convaincu aujourd’hui plus que jamais), et qu’on écoute si rarement ! Je ne m’étais pas posé de question au sujet du caractère apparemment universel de la croyance au divin, jusqu’à il y a deux ou trois siècles encore, et des institutions religieuses comme fondement même de la société humaine. A dire vrai, jusqu’à il y a quelques années encore, mon appréhension du monde restait presque entièrement coupée de toute perspective historique, qui aurait pu susciter en moi de telles questions. Et la réponse à celle-ci est apparue dans la foulée de mes rêves il y a quelques mois à peine, avant même que j’aie eu le loisir de me poser la question. 78 J’avais eu l’occasion de rencontrer et de voir vivre de près ou de loin beaucoup de personnes croyantes, voire des personnes de foi. Au camp de concentration, comme ma mère était d’extraction protestante, on était en contact assez étroit avec des pasteurs et avec des équipières de la CIMADE, qui faisaient tout leur possible pour venir en aide aux internées de confession protestante. Plus tard, au Chambon-sur-Lignon, en plein pays cévenol, j’avais ample occasion aussi d’apprécier le dévouement des pasteurs de l’endroit et de la population, surtout protestante, pour aider les nombreux juifs cachés dans la région pour échapper à la déportation et à la mort. Je n’avais certes aucune raison de vouer méfiance ou dédain aux croyants en général, et dans certains cas je pouvais même constater que leur croyance avait tout l’air de stimuler leur sens de la solidarité humaine et leur dévouement à autrui. Mais ni à ce moment-là ni plus tard, je n’ai eu l’impression que les croyants se distinguaient des autres par des qualités humaines particulières. Je savais bien aussi qu’il y a quelques siècles encore, personne ne songeait à mettre en question l’existence de Dieu et l’autorité de l’Eglise et des Ecritures, ce qui n’empêchait nullement les pires injustices, cruautés et abominations de toutes sortes - guerres, tortures, exécutions publiques comme divertissement des foules, bûchers, massacres, pogromes et persécutions sans nombre, avec la bénédiction des Eglises et comme les choses les plus normales et agréables à Dieu du monde. Aujourd’hui autant que jamais, c’est là une chose qui m’apparaît difficile à concilier avec la sainteté des Eglises (laquelle reste pour moi toujours aussi problématique...), ou avec l’existence d’une Providence divine (qui pourtant ne peut plus faire pour moi l’objet du moindre doute...). Mon scepticisme péremptoire au sujet de Dieu, et surtout ma méfiance viscérale vis-à-vis des Eglises de toute confession et obédience, avaient été repris purement et simplement et yeux fermés, dès mon plus jeune âge, de mes parents. Mais ils se trouvaient bien assez fortement confirmés par le spectacle du monde tout autour de moi, pour me dispenser d’une véritable réflexion. Rien, dans mon expérience personnelle et dans ce qui m’était connu par ailleurs, n’était de nature à me faire remettre en question mes convictions antireligieuses. La première brèche en moi, et pendant longtemps la seule, à cette vision des choses de plus en plus commune, se fit en mars 1944, alors que j’allais avoir seize ans. Notre prof d’histoire naturelle et de physique au “Collège Cévenol” où j’étais élève, Monsieur Friedel, était venu à la maison d’enfants où je vivais alors, pour faire une causerie sur “l’Evolution”. C’était un homme qui avait un esprit d’une finesse remarquable pour saisir et faire saisir l’essentiel d’une 79 question, ou l’idée cruciale dont tout le reste découle, là où les livres de classe (ou les autres profs) ne semblaient jamais donner que des mornes répertoires de faits, de formules, de dates... J’adorais suivre ses cours, et c’était pitié, avec cette vivacité d’esprit et sa générosité du cœur, qu’il n’ait eu aucune autorité sur les élèves. Ils préféraient saisir l’aubaine de chahuter à mort un prof qui n’avait pas le cœur de sévir, plutôt que de saisir la rare chance d’écouter un homme qui avait l’intelligence et l’amour de ce qu’il enseignait, et d’entrer en dialogue avec lui. Je me rappelle maintenant qu’il avait pris l’initiative également de faire une causerie, hors tout programme, sur le sujet de l’amour, et les aspects physiologiques et biologiques de l’amour - sujet épineux entre tous quand on s’adresse à des jeunes à l’âge de la puberté. Et ce n’était pas un luxe, assurément - je me rends compte maintenant qu’on était tous assez désorientés sur ces questions. Sûrement il a su le sentir, pour aller ainsi au devant d’un besoin. Dans ces deux causeries hors-scolaires, il n’était heureusement plus ques- tion de chahuter, et je crois que tous écoutaient avec attention. Monsieur Friedel était croyant, et ces causeries étaient faites dans l’optique d’une foi. J’ai remarqué que souvent, dans un tel cas, les présupposés religicux font fonction d’œillères, ils rétrécissent et bornent la chose examinée, telles des murailles que l’esprit pusillanime se serait assigné pour s’y enfermer pré- cautionneusement. Là au contraire la foi, ou une certaine connaissance ou intuition de nature “religieuse”, éclairaient le sujet et, bien loin de le rétrécir, lui donnaient sa dimension véritable. C’est là une réflexion qui me vient à l’instant - j’ai dû alors le sentir, sans me le formuler consciemment, alors que mon intérêt était déjà suffisamment absorbé par la substance de l’exposé. C’était un aperçu de ce qui était connu sur l’évolution de la vie sur la terre, depuis les origines de la terre elle-même, boule incandescente qui se re- froidit au cours de milliards d’années, avec l’apparition des mers bouillantes d’abord, et qui se refroidissent à leur tour, et celle des premiers microor- ganismes marins, réduits à une seule cellule microscopique ; puis l’évolution des premiers organismes pluricellulaires ; la conquête de la terre ferme par les bactéries d’abord, attaquant la roche nue, puis par les lichens, créant les premiers rudiments d’humus au cours d’un milliard ou deux d’années encore ; l’épanouissement d’une végétation de plus en plus diversifiée et luxuriante, puis d’une faune montant de la mer et s’adaptant laborieusement à la vie à l’air ; l’apparition des oiseaux et la conquête des airs, celle des mammifères... et enfin l’apparition de l’homme, le dernier venu... Par cet exposé tout simple et collant aux faits, et d’autant plus pas- 80 sionnant, j’ai compris alors pour la première fois des choses essentielles qui n’étaient dites dans aucun de mes livres d’histoire naturelle que la moindre cellule vivante, du simple point de vue de sa structure physico-chimique déjà (sans même parler du souffle de vie qui l’anime et qui la fait se perpétuer et concourir à sa façon à l’harmonie du Tout...), est une telle merveille de finesse, que tout ce que l’esprit et l’industrie de l’homme a pu imaginer et façonner est, en comparaison, un pur néant. Vouloir “expliquer” l’apparition d’une merveille aussi miraculeuse par les lois aveugles du hasard, faisant jou- jou avec celles de la matière inerte à la matière, d’un jeu de dés géant, est une aberration toute semblable, mais de magnitude infiniment plus grande encore, que de vouloir expliquer de la même manière celle d’une locomotive (ou celle du livre que je suis en train d’écrire, ou d’un majestueux concert symphonique...), en prétendant hier l’intervention de l’intelligence et de la volonté humaines, qui l’ont bel et bien créée en vue de certaines fins, mus par certaines intentions. Dans l’apparition de la première cellule vivante, vi- siblement, il y avait une Intelligence créatrice à l’œuvre, proche peut-être par sa nature de l’intelligence et de la créativité humaines (puisque celles-ci savent la reconnaître...), mais qui les dépasse infiniment, tout comme celles- ci dépassent l’intelligence et la créativité d’une fourmi ou d’une herbe. Et on voit cette même Intelligence se manifester de façon tout aussi irrécusable dans chacune des grandes “innovations” qui marquent l’histoire de la vie et de son épanouissement sur la terre. L’organisme pluricellulaire même le plus rudimentaire, la moindre éponge marine ou le moindre corail, par la coopé- ration parfaite de toutes les cellules spécialisées qui le constituent, chacune contribuant à sa façon à l’harmonie de l’organisme entier - une telle entité nouvelle dépasse tout autant chacune de ses cellules, que celle-ci dépasse les constituants qui en sont les pierres de construction physico-chimiques. Ainsi, on voit la même Intelligence à l’œuvre, obstinément, tout au cours de l’évolution de la vie sur la terre, se poursuivant sans relâche pendant six milliards d’années. Elle intervient de façon irrécusable, pour le moins, lors de chacun des grands “sauts” qualitatifs, des “innovations évolutionnistes” qui s’ébauche, se poursuit tenacement et s’accomplit enfin, au cours de centaines de millions d’années, quand ce ne sont des milliards. La dernière en date de ces étapes, plus courte que toutes les autres : l’apparition de l’homme, et les débuts de sa lente ascencion à un état véritablement humain, se poursuivant depuis quelques millions d’années à peine et loin d’être accomplie aujourd’hui encore... Et tout au long de cette très longue histoire qui remonte à l’origine des temps, on voit se profiler une Intention, un Dessein, qui reste mystérieux pour l’intelligence humaine, mais dont la présence est tout aussi irrécusable que dans une entreprise humaine (où la présence d’une intention est perçue, 81 alors même que sa nature exacte souvent nous échappe). Ces choses-là, que la raison à elle seule peut pleinement saisir, et qui s’im- posent à elle avec la force de l’évidence, étaient alors pleinement comprises par moi. Elles le sont restées ma vie durant, sans qu’à aucun moment ne s’y mêle la moindre réserve, le moindre doute. Leur caractère d’évidence n’est pas moindre que celui des propositions mathématiques les mieux comprises et les mieux établies. Pour quelqu’un au courant des simples faits bruts, et notamment pour le biologiste, ne pas voir ces choses éclatantes, mais invo- quer le sempiternel “hasard” qui aurait créé une telle cascade de merveilles, venant toutes concourir à une harmonie concertante d’une ampleur et d’une profondeur si inouïes, c’est là un aveuglement qui pour moi dès ce moment-là déjà frisait la démence. Bien plus énorme encore (du moins pour la seule raison) que les pires aveuglements doctrinaires dont on a fait, avec raison, reproche aux Eglises de toutes obédiences, l’Eglise catholique en tête. Mais la nouvelle “Eglise Scientiste” est mille fois plus aveuglée par sa sacro-sainte doctrine, irrémédiablement figée, que toutes les Eglises traditionnelles qu’elle a si radicalement supplantées. 3.5 31. Les retrouvailles perdues Je crois bien que le soir même où j’ai entendu cet exposé, mon opinion était faite, sans même avoir à peser du “pour” et du “contre”. Ou pour mieux dire, ce n’était pas plus une “opinion” que lorsqu’un énoncé mathématique clair et parfaitement bien compris, est établi par une preuve claire et parfai- tement bien comprise. La compréhension qui apparaît alors n’est pas dans la nature d’une “opinion”, ou d’une “conviction”, d’une “croyance” ou d’une “foi”, mais c’est une connaissance au plein sens du terme. Récuser une telle connaissance, ne pas lui faire totalement confiance, revient à abdiquer de la faculté de connaître dévolue à tout être, par quoi j’entends aussi : celle de connaître de première main. Pour me séparer d’une conviction implantée en moi depuis mon plus jeune âge, il n’y a pas eu alors la moindre résistance ou hésitation - pas plus qu’il n’y en aurait pour reconnaître une erreur en maths, dans un énoncé ou dans un raisonnement hâtifs. Je comprenais bien que ce “Dieu” qu’on mettait à toutes les sauces pour Lui faire avaliser tout ce qu’on voulait, Il était en tous cas cette Intelligence souveraine, infinie, créatrice de la Vie et (cela allait alors de soi) créatrice aussi de l’Univers tout entier, et des lois qui le régissent . Alors que je me disais “athée” jusque-là, me voilà donc soudain changé de catégorie - dorénavant, je me dirai “déiste” ! Ca s’est fait sans tambour ni 82 trompette, avec toutes les apparences du pur hasard (encore lui !), sans rien apparemment qui l’ait préparé, ni rien non plus de bien notable qui l’ait suivi. A dire vrai, moi-même ne lui attachais qu’une importance très restreinte. Je me rendais bien compte que ce Créateur que je voyais se manifester par des œuvres grandioses remontant à la nuit des temps, était très loin du Dieu de la Promesse et de la Rétribution dont parle l’Ancien Testament, ou du père proche et aimant dont nous parlent les Evangiles. Rien dans mon expérience directe ne me conduisait à penser que le Créateur, une fois mis en marche l’immense Manège de la Création, continuait encore à s’occuper de ce qui s’y passe et à y participer si peu que ce soit. Je ne voyais aucun lien direct entre ma vie telle qu’elle s’écoulait au jour le jour, ou celle des gens que je connaissais, et une volonté divine ou des desseins divins - je ne percevais aucun signe d’une intervention de Dieu dans le présent. Il faut bien dire que je n’en cherchais pas. La question ne m’intriguait pas assez pour songer seulement à interroger Monsieur Friedel sur sa propre expérience et sur ses éventuelles observations à ce sujet. Je n’ai pas même dû juger qu’il valait la peine de lui signaler que son exposé avait “fait mouche”, tant la chose me paraissait de peu de conséquence ! C’était, en somme, comme si j’avais décidé d’avance que ma vie intérieure et mon évolution spirituelle n’en seraient pas affectées. C’est de cette façon, me semble-t-il maintenant, que le conditionnement idéologique me venant de mes parents a pris sa “re- vanche”, sur le “revers” qu’il venait apparemment d’essuyer : par ce propos délibéré catégorique, que la découverte que je venais de faire était de peu de conséquence pour moi, qu’elle ne me concernait pas vraiment. A vrai dire, dès avant cette période ma juvénile curiosité s’était déjà détournée du monde des hommes, si inquiétant à force d’être décevant et de se soustraire (semblait-il) à toute compréhension raisonnée, pour se tourner vers la connaissance exacte des sciences, où du moins j’avais l’impression de marcher sur un terrain solide, et qui faisait (me semblait-il encore...) l’accord des esprits... Au moment de cet épisode, ma mère venait d’être libérée du camp de- puis quelques semaines, et elle vivait en résidence surveillée dans la petite ville de Vabre. Tout comme pendant son séjour au camp, on s’écrivait ré- gulièrement, chaque semaine pratiquement. C’était pour moi une chose qui allait de soi, dès ma prochaine lettre hebdomadaire, d’informer ma mère que “j’étais devenu déiste”, sans trop m’étendre d’ailleurs à ce sujet. Je ne fus pas peu surpris d’apprendre par sa réponse (datée du jour de mon seizième anniversaire) qu’elle venait de passer par une sorte de “conversion” similaire, 83 il y avait quelques mois à peine ! Elle ne m’en avait soufflé mot avant, car elle attendait l’occasion de m’en parler de vive voix, craignant que j’aurais du mal à comprendre la chose ; elle était sans doute la dernière chez qui je me serais attendu à un tel virage. Dans les semaines encore qui avaient pré- cédé ce tournant inimaginable, elle-même n’aurait pas rêvé qu’une telle chose puisse lui arriver - et puis, si ! J’ai essayé de reconstituer ce qui s’est passé en elle lors de cette “ex- périence de Dieu” (Gotteserlebnis), comme elle-même l’appelait. Pour m’y aider, j’ai le souvenir, un peu flou, de ce qu’elle m’en a dit de vive voix, et trois ou quatre témoignages écrits de sa main, où il en est question tant soit peu. Ce qui est sûr, c’est que cela se situait à un niveau bien plus profond, et revêtait dans sa vie une importance tout autrement cruciale, que ma propre découverte, que j’avais délibérément maintenue au niveau purement intellec- tuel. Il a dû y avoir chez elle un moment de vérité et d’humilité, l’espace de quelques heures peut-être ou de quelques jours, où elle a “déclaré forfait” sans réserve - où elle a reconnu que par ses propres moyens, et surtout, par sa seule intelligence dont elle était si fière et qui la mettait (pensait-elle) si haut au dessus du commun des mortels, elle était totalement incapable de retrouver un sens à sa vie, qu’elle sentait en lambeaux, dans un monde qui lui aussi se déglinguait dans une violence effrénée. Les grandes espérances, et la foi en l’“humanité” ou en l’“homme”, étaient mortes. Mais surtout, sa propre superbe s’était usée. Elle a dû entrevoir, alors, que ce n’étaient pas seulement les autres, mais bien elle-même qui avait failli à sa foi - que si sa vie avait connu tant de ruines (qu’elle n’arrivait plus, en dépit de tous ses efforts, à se cacher tout à fait...), elle-même n’y était pas étrangère. Tout au long des longues et douloureuses sept années écoulées, depuis sa propre débâcle idéologique irrésistiblement déclenchée par la débâcle des espoirs ré- volutionnaires en Espagne, son orgueil s’était insurgé contre un tel constat, se le présentant comme le reniement d’une vie entière, comme une honteuse défaite. Cet orgueil en elle était servi inexorablement par une volonté d’acier, impitoyable à autrui comme à elle-même, exacerbée, alliée à la cohorte véhé- mente des résistances farouches faisant barrage à l’humble vérité. Il avait fallu l’usure tenace de quatre années de captivité, la promiscuité forcée de jour et de nuit et de tous les instants, l’arrogance et l’arbitraire des “officiels”, et le bruit et la puanteur des baraques, et les privations sans nombre, et l’étreinte des grands froids, et les incertitudes sans fin et les alarmes mortelles - pour qu’enfin apparaisse furtivement, l’espace d’un instant, celle dont nul jamais ne veut, la malvenue, la redoutée, la fuie, la muette... J’ai connu un tel moment, trente ans plus tard, en 1974. Ma mère était 84 morte depuis dix-sept ans, et j’en avais quarante-six - deux ans de plus qu’elle n’avait eu elle-même, à son instant de vérité. Je n’ai pas fait ce rapprochement avant aujourd’hui ; et la pensée de Dieu, pour autant que je me souvienne, ne m’a pas même frôlé alors. C’est sans doute parce que jamais encore je n’avais eu vraiment le sentiment du divin, celui d’une véritable présence de Dieu, qui aurait pu alors se rappeler à mon souvenir, et me rappeler ou me suggérer en même temps, à côté du constat sans réserve de ma défaillance foncière, la présence d’une réalité spirituelle immuable, d’une Source permanente de vérité, d’amour, dont la seule existence compense ou rachète, ou supplée de quelque mystérieuse façon à toute défaillance humblement reconnue, sans feinte ni esquive... Ou peut-être simplement dans un cas Dieu a choisi de Se faire connaître par Son nom à celle qui L’avait déjà connu tant soit peu dans son enfance, pour ensuite L’oublier ; alors que dans un autre Il a choisi de Se taire. Cela n’a pas empêché pour autant qu’un travail intérieur se déclenche alors et se poursuive, si modeste soit-il, qui a contribué sûrement à préparer les percées décisives qui devaient s’accomplir deux ans plus tard, et dont j’ai parlé ailleurs. Mais au moment dont je parle, quand ma mère m’a parlé du sens qu’avaient pour elle ses retrouvailles avec Dieu, j’étais bien loin d’avoir la maturité né- cessaire pour sentir de quoi il retournait. Ce qui était clair, c’est que ce n’était pas du tout du même ordre que ma découverte-éclair, classée à peine l’avais- je faite. Ma mère m’assurait que tout ce qui jusque-là lui avait semblé bien connu avait soudain changé d’apparence, était devenu comme neuf, par le seul effet de l’éclairage nouveau venant de la pensée nouvelle : “Dieu” ; qu’un monde qui s’était pour elle brisé en mille morceaux (il est vrai que jamais elle ne m’en avait rien laissé entendre...), se rassemblait pour constituer un nouveau Tout tout différent ; que c’était pour elle une joie profonde que de retrouver un sens de la vie qui semblait disparu et perdu sans retour, et de pouvoir reprendre à zéro un travail de réorientation de grande envergure, sur des bases toutes nouvelles et inébranlables désormais. Ce n’était pas là simple euphorie, c’est bien clair. Ca n’aurait pas été du tout son genre, et surtout pas dans ces registres-là - et c’est là une chose, aussi, dont je n’aurais pas manqué de m’apercevoir, d’en ressentir un malaise. D’ailleurs, maintenant que j’en rends compte, ces paroles de ma mère (reprises de deux de ses lettres à moi, que je viens de relire) font entrer en résonance ma propre expérience de Dieu, toute récente. C’est même frappant à quel point elles s’y appliquent, presque textuellement. Cela me confirme encore dans mon impression - car ces choses-là, on les vit et on ne les invente pas. Ces retrouvailles avec Dieu avaient bel et bien eu lieu, elles étaient véritables. 85 Et elles lui offraient une chance exceptionnelle, comme elle n’en a pas eu (je crois) de semblable dans sa vie, pour “sauter le pas” - pour se renouveler. Mais cette chance inouïe, elle ne l’a pas saisie - ce renouvellement, qu’elle croyait déjà accompli sur l’heure, n’a jamais eu lieu. Il restait devant elle, comme une tâche à accomplir et jamais accomplie - une tâche qu’elle a obs- tinément éludée, jusqu’à la fin de sa vie. Pour tout dire, dans le ton de la première lettre déjà où elle me parle de ce tournant, et dans une autre quinze jours après, on voit qu’elle avait eu le temps de se ressaisir. Il n’y a trace d’une remise en cause d’elle-même qui aurait eu lieu, aucune allusion à des faillites ou des défaillances de son cru. Bien au contraire, elle constate avec satisfaction que toutes les lois spirituelles qu’elle découvre à présent “dans une lumière nouvelle” leur étaient au fond déjà bien connues toute leur vie, à elle et à mon père ; que c’est bien selon les préceptes évangéliques qu’ils avaient eux-mêmes toujours vécu, et reconnu comme valables les lois (“Gesetzmassigkeiten”) posées dans la Bible. Tout ça avait, certes, fière allure, et n’avait rien pour choquer ou décevoir ou seulement susciter réflexion ou retenir l’attention chez son fils, qui avait pour elle une admiration sans bornes ! Ca faisait même longtemps que ce genre de choses au sujet de mon incomparable mère allait de soi. Avant c’étaient les hauts idéaux anarchistes dont elle était l’incarnation bien sentie, maintenant c’étaient les enseignements du Christ, pourquoi pas... S’il fallait juger par ce ton-là (le seul que j’aie trouvé dans les deux lettres à moi où elle parle de la chose...), j’aurais tout lieu de douter du sérieux de cette “lumière nouvelle”, et de l’expérience dont elle parlait. Le fait est que dans ses façons de parler, de sentir et de faire, elle n’avait pas changé d’un poil - elle n’avait pas à s’inquiéter à mon sujet, que j’allais plus la reconnaître ! Mais j’ai encore une longue lettre d’elle écrite six ans plus tard (en 1950), adressée à l’ancien pasteur qui m’avait recueilli. Elle a dû se sentir plus à l’aise avec lui, pour faire entrevoir un autre aspect de son expérience, qu’elle avait avec moi passé sous silence. Elle y parle de l’incapacité foncière des hommes d’aimer véritablement, mis à part un nombre infime (tel que lui- même, ou Gandhi...), dont elle admet sans réserve ne pas faire partie. Ce n’était sûrement pas une improvisation, venue là sous l’inspiration du moment, mais bien un reflet, très atténué, de ce qui s’était véritablement passé en elle au moment de ces retrouvailles. Elle a dû faire alors le constat de l’absence de véritable amour dans sa vie, comme j’ai été amené à le faire 86 moi-même pour ma propre vie, trente ans plus tard. C’est un tel constat, seulement, qui faisait de ce moment un “instant de vérité” - un instant où la voix de Dieu pouvait être entendue et reconnue... Mais quand elle écrit cette lettre, cela faisait six ans que cette connais- sance humble et vivante, qui lui avait alors fait retrouver Dieu (pour quelques heures ou pour quelques jours peut-être...), s’était figée en un souvenir, en des formules bien senties comme : “tous les hommes, hélas... - sans même m’ex- clure du nombre (tant je suis honnête avec moi-même)...”. Cette formule-là, six ans plus tard et même six jours plus tard déjà sûrement, ne signifiait plus rien. Pour aucun des êtres qu’elle prétendait aimer, et qu’elle avait tous pro- fondément marqués du sceau de sa violence, elle n’a pris la peine d’examiner en vérité quelle avait été sa relation à eux. Tout comme dans le passé, elle continuait à se maintenir dans le mythe du grand et inégalable amour entre elle et mon père, et dans celui de la mère remarquable et à tous égards exem- plaire qu’elle avait été. Et alors qu’elle avait retrouvé et remplumé encore son coussin de lauriers, les mêmes forces jamais examinées qui avaient opéré en elle sa vie durant, avaient repris et continuaient leur travail souterrain. Bientôt elles allaient dévaster à nouveau sa propre vie et celle de ses proches, et lui faire exécrer et maudire, pendant les années qui lui restaient encore à vivre, ceux qu’elle avait cru aimer, et jusqu’à Dieu Lui-même qui lui refusait les arides satisfactions auxquelles elle aspirait. Ainsi, j’ai eu le privilège de voir de tout près qu’une expérience de Dieu, si authentique et bouleversante ou exaltante soit-elle, quand elle n’impulse et n’alimente un travail intérieur patient et durable, pour prendre connaissance humblement de soi-même et de sa vie, et des illusions, des mensonges, de la violence cachée qui la traversent et la pénètrent de toutes parts, aussi profondément et tenacement que des racines de chiendent... - qu’une telle expérience est désarmorcée et vidée de la force de renouvellement qui vit en elle, laquelle est sa seule et véritable raison d’être. En un tournemain, sous l’action silencieuse et diligente des forces du moi, elle s’est déjà transformée en un colifichet de choix, qui vient à point nommé orner l’image de marque, et lui donner une “nouvelle dimension”, ma foi, du plus seyant effet ! Cette expérience de ma mère, venue dans son âge mûr comme l’accom- plissement inespéré et rayonnant de quatre longues et douloureuses années de captivité, peut-être a-t-elle été aussi le point culminant de sa vie, dans l’optique spirituelle j’entends, c’est-à-dire : aux yeux de Dieu. Mais ces re- trouvailles bénies ne lui ont servi de rien. Dans les jours déjà qui ont suivi, sûrement, leur véritable sens déjà était escamoté, disparu à la trappe. Elles 87 n’ont fait que rendre plus vertigineuse la chute qui les a suivies, et plus amère encore et plus démentielle, sa révolte contre Dieu. 3.6 32. L’appel et l’esquive (19 et 20 juin) Avec un recul de plus de quarante ans, quelle portée attri- buer à ce tournant dans ma relation à Dieu, à la fin de ma seizième année ? J’avais reconnu l’existence d’un Créateur aux moyens prodigieux, qui avait façonné l’Univers et animé de Son Souffle de vie les créatures de la terre. Voilà une connaissance qui à présent m’apparaît d’une portée immense, évidente, irrécusable. Mais, chose remarquable, au moment même où j’accédais à cette connaissance cruciale, je décrétai aussitôt qu’elle ne me concernait pas ! En fait, dès l’année d’après, jeune étudiant de dix-sept ans, j’allais me lancer à bride abattue dans la recherche mathématique, et pendant les vingt-cinq an- nées qui allaient suivre (jusqu’en juillet 1970) lui consacrer pratiquement la totalité de mon énergie disponible. Et jusqu’à quatre années plus tard encore, donc dans les trente années qui ont suivi mon décret péremptoire (et le milieu foncièrement déspiritualisé dans lequel j’évoluais aidant), cette connaissance resta inactive, pour autant que je puisse voir. Consacrer une pensée à Dieu, le grand Absent, l’Inconnaissable, ou à une question métaphysique, m’aurait semblé une pure perte de temps, un enfantillage. Moi je faisais du tangible et du solide, à pleines mains - je faisais des maths ! Evoquant maintenant toute cette situation, elle me frappe soudain comme un étrange paradoxe ! La découverte de la réalité de Dieu comme Créateur était un acte d’autonomie spirituelle, qui me faisait sortir du cercle idéolo- gique dans lequel mes parents s’étaient enfermés leur vie durant. Jusque-là et en dépit de toutes les influences contraires qui avaient essayé de m’en ar- racher, je m’étais maintenu dans ce cercle, comme une chose allant de soi. Les idées qui avaient baigné mon enfance, et qui formaient l’univers idéolo- gique de mes parents, représentaient pour moi un “absolu” tacite. C’était “la Vérité”, rien de moins, dont j’étais dépositaire, et même (je ne tardais pas à m’en rendre compte) un des très rares à l’être ! Et jusque-là, cette vérité-là ne s’était jamais trouvée en conflit avec le témoignage de ma saine raison, ni avec celui venant des couches plus profondes de l’être, de cet “instinct spiri- tuel” plus essentiel que les sentiments (lesquels sont encore, dans une large mesure, tributaires du conditionnement par l’entourage). La vision du monde me venant de mes parents ne manquait ni de cohérence, ni de générosité, et il aurait semblé qu’elle répondait à toutes mes aspirations. M’y maintenir contre vents et marées avait été plus encore une fidélité à moi-même, qu’à mes parents qui s’étaient désintéressés de moi pendant une période cruciale 88 de mon enfance. Là, c’était la première fois que cette “vérité” s’avérait insuf- fisante. Il n’y a eu alors aucune hésitation pour l’admettre - et par là-même, pourrait-on penser, à franchir le pas à prendre mon envol hors de l’univers mental qui avait entouré ma première enfance ! Du moins, en donnant à cette découverte la portée qui visiblement lui revenait, en vertu d’un simple “bon sens spirituel” qui ne me faisait sûrement pas plus défaut que le bon sens intellectuel, c’était bel et bien prendre mon envol, le premier grand pas vers une véritable autonomie spirituelle. Mais d’autre part, je vois bien que le premier pas hors de l’univers mental de mes parents, je ne l’ai accompli que trente ans plus tard, bien longtemps après qu’ils soient morts l’un et l’autre, lors de cet “instant de vérité” que j’ai déjà frôlé dans la réflexion d’avant-hier. Et du coup je vois apparaître le sens de cette cécité étonnante, classant comme une simple curiosité intellectuelle, quasiment, une découverte visiblement cruciale pour ma vision du monde (sinon encore pour celle de moi-même...). Mon décret péremptoire “ça ne me concerne pas !” - son véritable sens exprimé, c’était “Je resterai dans cet univers qui m’est si familier, et où je me sens au chaud ! C’était, sous couvert d’honnêteté intellectuelle (“j’ai découvert quelque-chose, mais je reconnais qu’elle est sans conséquence...”), de lucidité, une abdication spirituelle, un refus de véritablement assumer cette découverte. J’ai suivi alors la pente naturelle de la paresse spirituelle, me ramenant dans le “connu” de l’univers parental, au lieu d’entendre et d’accepter l’interpellation qui me venait alors de l’Inconnu - et de me confronter à Lui. Au lieu de prendre mon envol alors, de me frayer ma propre voie de connaissance, celle qui serait authentiquement mienne, je me suis lancé dès l’année suivante dans l’“inconnu mathématique”. Il avait bien de quoi me tenir en haleine, et ceci sans bousculer en rien mon inertie spirituelle - bien au contraire ! Je restais solidement campé entre les quatre murs de l’univers mental que m’avaient légué mes parents. Pendant trente ans encore, je le considérais comme le plus précieux des héritages spirituels, qu’il m’apparte- nait de préserver et de transmettre. Cet attachement indéfectible aux valeurs qui me venaient de mes parents n’avait rien pour déplaire à ma mère, certes - bien au contraire encore ! Elle qui venait de passer par l’expérience vivante d’une rencontre avec Dieu, et qui était la mieux placée (à part moi) pour sentir ce que mon attitude avait de faux, de forcé - je ne me rappelle pas qu’elle m’ait laissé entendre par un mot que je pouvais peut-être faire une autre place à Dieu que de Le ranger dans un coin, comme une simple curiosité métaphysique. 89 Et arrivé à ce point, je commence à entrevoir pourquoi ce bel élan en ma mère, pour rebâtir de fond en comble une vision du monde (à la place de celle qui s’était, disait-elle, brisée en “mille morceaux”), dans l’“éclairage nouveau” lui venant de Dieu, a tourné court si abruptement. Il n’en a plus jamais été question entre nous (pour autant que je m’en souvienne). Pourtant, Dieu sait qu’elle ne manquait ni de suite dans les idées, ni de souffle, pour les choses auxquelles elle tenait vraiment. Mais pourquoi se serait-elle donnée cette peine, alors qu’elle me voyait tellement à l’aise dans cet univers “en mille morceaux” qu’elle m’avait légué, et si peu pressé d’en sortir ? ! Cet univers était sa création, et mon attachement à lui, son sceau dans mon être. (Que cet univers s’était fêlé, voire même brisé en mille morceaux, elle ne s’était jamais soucié avant cette lettre (deux mois après que lesdits morceaux enfin se rassemblent providentiellement...) de me le laisser entendre. J’avais de quoi être un peu abasourdi de l’apprendre soudain comme en passant, à la quatrième page d’une lettre - pour oublier la chose vite fait !) N’avais-je pas déclaré que je n’avais que faire du Créateur qui venait là comme les cheveux sur la soupe, que j’étais très bien sans Lui dans les pénates parentales ? Et certes, ni par lettre ni de vive voix l’idée n’est jamais venue à ma mère de m’expliquer en quoi cet univers était fêlé. Du coup, sûrement, mon oreille abasourdie et distraite se serait faite attentive : au lieu d’une vague formule où il est question de mille morceaux, se rassemblant miraculeusement par la vertu du saint esprit, elle m’en aurait montré un ou deux de ces morceaux, bien tangibles, ou ne serait-ce qu’une fissure. Et l’idée ne m’est pas venue non plus de lui dire : chiche, où ce qu’ils sont, ces morceaux ! En somme, je ne prenais pas plus au sérieux ce qu’elle m’avait écrit et qui me passait par dessus la tête, que je n’avais pris au sérieux le bon Dieu. Ces fissures, et d’importance, j’ai fini par les découvrir par mes propres moyens, trente ans plus tard, après que ma mère était sous terre depuis dix- sept ans sans s’être décidée à me les montrer. Pour arriver à les voir enfin, ces fissures qui crevaient les yeux, il avait fallu que, quelques mois plus tôt, j’en arrive au constat d’une vie en ruines s’étendant derrière moi à perte de vue, et que je me dise : il y a quelque chose qui doit aussi clocher en toi... Pour ce qui est de ma mère, visiblement elle-même s’est dépêchée d’ou- blier et les fêlures, et les morceaux, et son beau projet de rebâtir à neuf - et ce faisant, de me forcer quasiment à prendre mon envol, à quitter cette prison (fêlée...) construite de ses mains - l’œuvre altière de son esprit, qu’elle renierait - qu’à Dieu ne plaise ! 90 Il y a eu au même moment, en ces premiers mois de l’année 1944, à des niveaux de profondeur différents mais très clairs l’un et l’autre, deux “appels de Dieu”, l’un à ma mère, l’autre à moi. Comme tout appel de Dieu sûrement, l’un et l’autre étaient appel à un renouvellement, à une libération intérieure. En apparence, ces appels ont été entendus - et on peut même dire, sûrement, que ma mère l’a entendu bel et bien, l’espace d’un instant. Mais l’appel n’a été suivi par elle ni par moi. Et je vois à présent que sa réponse et la mienne ont été étroitement solidaires, sans qu’il puisse même être question laquelle des deux a entraîné l’autre. Sûrement, si l’un de nous avait eu la vivacité spirituelle, la fidélité au meilleur en lui-même, pour suivre l’appel, pour “bouger” - l’autre n’aurait pu s’empêcher de se mettre en mouvement à son tour, à brève échéance - il n’aurait pu continuer plus longtemps à réfréner les forces profondes prisonnières en lui et qui demandaient expression. Mais au lieu que les forces vives en l’un et en l’autre se suscitent mutuellement et se stimulent, ce fut l’inverse. La paresse spirituelle en l’un a fait corps avec celle en l’autre, pour faire barrage aux forces de renouvellement et rester prudemment dans le statu quo. C’est ainsi que ces deux appels au renouvellement ont débouché, dans 1a vie de ma mère comme dans la mienne, sur une longue stagnation spirituelle. Chez ma mère, celle-ci s’est poursuivie jusqu’à sa mort en 1957, treize ans après ; et même (comme je sais par des rêves de l’an dernier) au delà de sa mort encore, pour prendre fin seulement au mois d’août l’année dernière - une stagnation qui s’est étendue sur quarante-deux ans. Chez moi, elle a duré trente ans, jusqu’en 1974 - jusqu’au moment où je me suis trouvé soudain dans une crise intérieure toute semblable à celle que ma mère avait éludée trente ans plus tôt. 3.7 33. Le tournant - ou la fin d’une torpeur (21 juin) Il n’est pas dans mon propos d’entrer ici dans cette longue période de stagnation spirituelle, nullement homogène, qui s’étend entre 1944 et 1974. Elle englobe les vingt-cinq années de ma vie, entre 1945 et 1970, où celle-ci était entièrement centrée sur mon travail mathématique, auquel je consacrais la quasi-totalité de mon énergie. C’est pendant cette période qu’est apparue en moi, sans même m’en rendre compte (est-il besoin de le dire), une nouvelle identité se superposant à l’ancienne, et coexistant avec elle sans trop de mal : celle de “mathématicien”, et plus précisément, celle de membre d’une “commmunauté mathématique” à laquelle je m’identifiais sans réserve. C’était, mise à part la famille dont j’étais issu, la première communauté humaine dont je me sois vraiment senti faire partie. L’épisode 91 où j’ai quitté cette communauté pour ne plus y revenir, en 1970, a été vécu d’abord comme un douloureux arrachement, avant d’être ressenti comme une libération - comme le franchissement d’une porte que j’avais maintenue fermée sur moi très longtemps et qui s’était ouverte soudain sur un monde nouveau, insoupçonné. Je ne puis certes dénier une portée “spirituelle” à ce tournant décisif dans ma vie. Mais je le vois à présent surtout comme un premier choc salutaire, amorçant un travail se poursuivant dans des profondeurs ignorées, et dont les vrais fruits spirituels ne se manifesteront que quatre ans plus tard, avec le “moment de vérité” (en avril 1974) et le travail de réflexion qui l’a suivi (juin à août de la même année), et surtout à partir des grands bouleversements intérieurs de 1976, année d’une véritable “fonte des glaces” dans la psyché. Jusque-là, la structure du moi, qui enserrait et étouffait mon être tel un lierre qui prolifère étranglant un arbre vigoureux, restait non seulement intacte, mais entièrement inaperçue. J’avais commencé à le voir chez d’autres et même à discourir à ce sujet, sans que l’idée ne m’effleure jamais qu’il pourrait en être de même chez moi ! C’est en 1976 seulement que se place le premier renouvellement profond et irréversible en mon être, culminant à la mi-octobre en les “retrouvaiiles avec moi-même” dont j’ai déjà parlé. Trois jours plus tôt, j’avais découvert pour la première fois le décollage faramineux entre l’image de moi entretenue une vie durant, et l’humble réalité - et en même temps la structure du moi, solidaire de cette image, s’était écroulée, pour la première fois de ma vie. C’est le jour aussi où “la méditation est entrée dans ma vie, c’est-à-dire une véritable réflexion sur moi-même, sous l’impulsion d’une soif de connaître que n’inhibe ni peur ni vanité. Mais j’anticipe... Dès “le grand tournant” de 1970 déjà, quand je quitte un milieu dont j’avais fait partie depuis plus de vingt ans, ma vision du monde connaît un bouleversement considérable. Peut-être exprimerai-je le mieux la significa- tion psychique et spirituelle de ce tournant, cependant, en disant que c’est le moment où je me libère des consensus du groupe auquel, non sans une ambiguité secrète, je m’étais jusque-là identifié tacitement. Quant à la mise en cause, qui était au premier plan à mes yeux comme aux yeux de tous, elle concernait bien plus le milieu que je quittais et, plus généralement, le milieu scientifique, son éthique, ses compromissions, que ma propre personne. Celle-ci n’était guère concernée qu’à titre de membre de ce milieu, auquel je continuais (et continue encore en ce moment même) de faire partie au sens strictement professionnel ou sociologique. La critique portait avant tout sur le rôle des scientifiques, et du savoir qu’ils représentent, 92 dans le monde d’aujourd’hui, Elle n’était nullement inhibée, comme c’était le cas chez presque tous mes collègues (parmi les rares où il y avait quelque vélléité critique), par ma propre qualité de scientifique. Spirituellement et idéologiquement, je m’étais dégagé déjà (ou “arraché” pour mieux dire !) de l’emprise du groupe. Par la suite cette critique s’élargit encore, à la dimension d’une critique de vaste envergure de la “civilisation occidentale” et du monde moderne qu’elle a conquis et nivelé, des valeurs qui le fondent, de l’“esprit du temps” qui le gouverne inexorablement et le mène vers la destruction du patrimoine terrestre biologique et culturel et, par là-même, vers sa propre destruction inéluctable. Cette réflexion “idéologique” (en partie collective) qui a eu lieu en les trois années 1970-72, et la compréhension (Erkenntnisse) à quoi elle a abouti, n’ont aujourd’hui rien perdu de leur actualité, bien au contraire ! Et assurément, dans ce livre que je suis en train d’écrire, comme dans les autres qui me restent à écrire, j’aurai ample occasion d’y revenir. Mais au point où j’en étais alors et par lui-même, ce renouvellement idéologique de vastes dimensions et de portée considérable, ne pouvait cependant tenir lieu de renouvellement spiri- tuel, ni même y contribuer de façon directe et efficace. Malgré mes apparents efforts pour “m’impliquer” au maximum, mes réflexions ne touchaient jamais que la périphérie de mon être. C’est pour l’avoir senti confusément, sûrement, que je me retire progressivement, au courant de l’année 1972, des activités antimilitaristes, écologiques et de “subversion culturelle”, sentant par ailleurs qu’elles étaient sur le point de s’enliser dans une routine militante, au lieu de s’insérer dans un mouvement plus ample qu’elles auraient aidé à naître et à prendre conscience de lui-même. Et c’est sans nul doute le même appel aussi qui me fait me lancer, avec la force sans réplique du noctambule, dans deux expériences communautaires, l’une en 1972, l’autre l’année suivante. Elles se soldent toutes deux par le plus lamentable échec. Ces échecs, après bien d’autres, m’apportaient obstinément un même message, une même leçon : à quel point, à mon propre sujet comme au sujet d’autrui, je vivais sur des idées toutes faites (fussent-elles de ma fabrication...) et des discours ad hoc, bien plus que sur une connaissance de la réalité, fruit d’une véritable atten- tion (que je ne cessais cependant de prôner...). Je n’ai commencé à apprendre cette insistante leçon que l’année d’après encore, en 1974. Me libérant de l’emprise idéologique du milieu dont j’avais fait partie, je mettais fin à une certaine ambiguité en moi. Je me retrouvais d’autant plus totalement dans l’idéologie me venant de mes parents, que je ressentais 93 toujours comme m’étant personnelle, et en même temps comme exprimant la “vérité” sans plus... Il est vrai que la tumultueuse course en avant des années 1970-72 m’en faisait sortir en apparence, en me faisant reconnaître la précarité de certaines valeurs culturelles qui, pour mes parents, avaient été des intangibles : “la science”, “la technique”, “l’art”, “l’instruction”, “l’abon- dance”, “la civilisation”, “le progrès”... Et plus d’une fois, en ces années, la pensée m’est venue qu’ils en feraient des drôles d’yeux, s’ils étaient là ! Et pourtant, je me rends compte à présent que ces ingrédients-là de l’idéologie, pour importants qu’ils soient, restent encore périphériques. Par eux-mêmes, ils ne touchent pas de façon vraiment névralgique, ou du moins ils ne tou- chaient pas en moi, à la relation à autrui. Or c’est bien là toujours que visiblement le bât blesse - et c’est bien au niveau de la relation à tous mes proches que ma vie, depuis vingt ans se réduisait à une longue suite d’écroulements (toujours aussi imprévus et déchirants) et d’échecs. Ma vie familiale semblait frappée, comme par une malédiction secrète, par une dégradation mystérieuse, inexorable. Il aurait semblé que tout mouvement que je faisais pour la stopper, remettre les choses à leur place ou les mettre au clair, ne faisait que la précipiter - comme dans une marche hallucinante sur des pavés de fière apparence et qui seraient en même temps, insidieusement et sans que jamais la chose ne soit dite, des sables mouvants... C’est le moment peut-être de préciser que cette période que j’ai qualifiée de “stagnation”, entre 1944 et 1974, inclut aussi (à deux années de décalage près) tout ce long mouvement d’une dégradation incomprise, sourdement inquiétante et, par moments, d’une violence hallucinante, d’abord dans la relation entre ma mère et moi (1952-57), puis, sans césure aucune, dans la famille que j’avais fondée dès l’année même de sa mort (1957-76). Cette dé- gradation ne prend fin qu’avec l’entrée de la méditation dans ma vie (octobre 1976) - c’est alors que ce poids-là, qui avait pesé si lourdement sur moi pen- dant près de vingt ans, se détache enfin de moi... Mais à nouveau j’anticipe ! Ce que j’entendais illustrer à l’instant, c’est que pour l’essentiel, pour ce qui concerne le fondement même de ma relation à autrui, je suis resté enfermé dans l’univers idéologique de mes parents bien au delà du premier grand tournant dans ma vie d’adulte, s’accomplissant en 1970. Dans l’optique spirituelle, je vois maintenant ce moment crucial comme celui où, sans m’éveiller encore tout à fait, je me suis secoué d’une torpeur mortelle et arraché d’un milieu anesthésiant, d’une étouffante am- biance de “serre chaude” scientifique. Mais le premier pas vraiment décisif 94 me faisant franchir enfin ce “cercle invisible” qui avait entouré mon enfance et enfermé à mon insu toute ma vie d’adulte, je l’accomplirai quatre ans plus tard seulement, en avril puis en juin et juillet : 1974. 3.8 34. Foi et mission - ou L’infidélité (1) (22 et 23 juin) Finalement, hier il n’a pas été du tout question du bon Dieu et de ma relation à lui. Aussi, une sorte d’inquiétude aurait voulu sans cesse me retenir : “franchement tu diverges - dans quelle digression es-tu encore en train de t’embarquer !”. Mais je ne me suis pas laissé impressionner. Il faut dire que je commence à être un peu aguerri contre ce genre d’admonestation tacite. Il ne doit pas y avoir une seule des 33 sections et 18 notes déjà écrites qui n’aient été écrites à l’encontre de cette même voix, me disant que j’étais encore en train de perdre le temps précieux du lecteur (sans compter le mien) à suivre ainsi mon incorrigible manie de couper en quatre d’invisibles cheveux, visiblement hors du sujet. Il faudra bien que je m’y habitue... Je commence d’ailleurs à me rendre compte qu’il serait artificiel de vou- loir me borner au pied de la lettre à mon propos initial : faire un (court ?) historique de ma relation à Dieu. Du moins, si je devais me limiter aux événements et épisodes de ma vie dans lesquels Dieu est intervenu nommé- ment d’une façon ou d’une autre. Je ne trouverais guère alors, avant le mois d’octobre dernier, que le maigre épisode de 1944 où j’admets sans réserve l’existence du Créateur de l’Univers, lui tire mon chapeau et le range dans un coin avec l’idée de ne plus l’en ressortir jamais. Plus (j’oubliais !) mon œuvre d’enfant précoce, “Sascha contre le bon Dieu”, ancêtre de la bande dessinée (métaphysique, en l’occurence), établissant l’inexistence dudit bon Dieu par un “argument par l’absurde” bien senti. Pourtant, même hier où le mot “Dieu” n’a pas été prononcé, je savais bien au fond qu’“Il” y était quand même. En fait, par la réflexion même que je suis en train de poursuivre par l’écriture du présent livre, je me rends compte de plus en plus que lors même que Dieu n’est pas nommé, tout ce qui concerne notre évolution spirituelle au vrai sens du terme concerne aussi notre relation à Dieu. Ou pour mieux dire, pour un œil pleinement ouvert à la réalité spirituelle, c’est-à-dire aussi et surtout pour Dieu lui-même, sûrement il n’y a aucune distinction entre la “spiritualité” d’un être à un moment donné, et sa relation à Dieu en ce même moment. Que la présence de Dieu et l’existence d’une relation à Lui, ou la portée de cette relation comme incarnant la qualité proprement humaine de cet être, ne soient pas reconnus par celui-ci, n’y change rien. 95 Ainsi mon propos initial, qui d’abord s’était présenté à moi sous un as- pect simpliste, formaliste, s’ajuste de lui-même par la logique intérieure de la réflexion écrite, pour peu à peu prendre son vrai visage : c’est une esquisse (à très gros traits) de mon évolution spirituelle depuis l’enfance jusqu’à l’an dernier que je suis en train de tracer. Et c’est de l’avoir senti avant même de me l’être dit, sûrement, qui m’a forcé la main hier à m’attarder comme malgré moi sur le tournant de 1970, qui représente aussi la grande césure dans ma vie de mathématicien. L’insistance même du mouvement en moi me portant hier, à l’encontre de mes intentions conscientes, à m’“attarder” ainsi sur un épisode “hors du sujet”, m’apparaît maintenant comme un signe et une confirmation de la portée de cet épisode dans mon aventure spirituelle. Du coup s’ajuste aussi ma vision de la “longue stagnation spirituelle”, que j’avais d’abord placée entre 1944 et 1974. Il me paraît plus raisonnable et plus juste à présent de la faire s’étendre jusqu’au début de 1970 seulement, même si un certain “pas décisif” n’a été accompli que quatre ans plus tard. L’“arrachement salutaire” à mon milieu professionnel, comme un premier pas vers une autonomie spirituelle, a été lui aussi un pas décisif, indispensable sûrement pour préparer celui qui l’a suivi quatre ans plus tard, et pour tous les autres qui se sont suscités l’un l’autre et ont été accomplis jusqu’à au- jourd’hui même. Dans les vingt-six années qui se sont écoulées entre 1944 (où je découvre le Créateur et Le range dans le tiroir des objets inutiles) et 1970 (où je m’ar- rache au milieu mathématique et où la mathématique cesse d’être la passion maîtresse de ma vie), je perçois un “temps fort” venant couper l’aride mo- notonie spirituelle de cette longue traversée du désert, telle une fraîche oasis rencontrée en chemin. Il se place au milieu pile, en 1957, année exceptionnelle dans ma vie à plus d’un titre. Il s’étend sur environ six mois, entre le mois de juin ou juillet et la fin du mois de décembre. Je voudrais en dire ici quelques mots. Cette année, avec celle qui l’a suivie, a été sans-doute la plus créatrice et la plus fertile dans ma vie de mathématicien. Elle marque la genése de la grande vision novatrice qui a inspirée toute mon œuvre de géomètre, dans les douze ans qui ont suivi et jusqu’au moment de mon départ du milieu mathématique. C’est aussi l’année de la mort de ma mère (au mois de décembre), qui marque une césure capitale dans ma vie. C’est, de plus, l’année de la rencontre avec celle qui devait devenir ma compagne. Dans les jours même qui suivent la mort de ma mère, et comme appelée par cette mort, commence une vie commune à deux qui allait devenir maritale : c’est alors que je fonde (sans 96 trop encore m’en rendre compte...) la nouvelle famille qui, dans mon esprit, devait continuer celle dont j’étais issu. La conjoncticn de ces trois circonstances suffirait certes, à elle seule, à marquer cette année comme exceptionnelle dans ma vie, et aussi dans mon aventure spirituelle. Mais c’est une autre circonstance encore qui m’incite à en faire ici mention. En cette année-là, pour la première fois depuis que, jeune adolescent de dix-sept ans, je m’étais lancé à cœur perdu dans le travail mathématique, et pour la seule fois aussi jusqu’au moment de mon départ du monde mathématique, je marque un temps d’arrêt. Pendant tout l’été, à partir du mois de juin et de juillet, je ne touche pas à la mathématique. Pendant ces mois, il y a comme l’amorce d’un retour sur moi-même, mais sans que l’idée me vienne d’une “réflexion” qui se dirait telle. Encore moins y a-t-il alors (comme ce sera le cas en 1974, dix-sept ans plus tard) une réflexion écrite, puisant dans l’écriture une vigueur dynamique comme celle qui anime mon travail mathématique. Mais pour la première fois de ma vie se fait sentir en moi un besoin de renouvellement, très clairement perçu et accepté comme tel. J’avais le sentiment, et non sans raison, que désormais je savais ce que c’était que le travail mathématique, et la création mathématique. Dans ce travail, j’avais commencé à donner ma mesure, et m’étais fait un solide renom international. Quelques mois plus tard, une percée décisive allait me consacrer “grande vedette” - mais c’était alors le dernier de mes soucis. Je savais bien que je pourrais encore faire du bon travail en maths, peut-être même des grandes choses qui sait (j’en avais en train que je sentais juteuses !), à jet continu et jusqu’à la fin de mes jours, sans jamais épuiser l’Inépuisable. Mais je ne voyais pas le sens de continuer ainsi, à me dépasser sans cesse moi-même. Ce n’est pas que j’étais fatigué du travail mathématique qui m’avait pas- sionné il y avait quelques jours ou quelques semaines encore, et encore moins blasé. Je ne sentais pas moins qu’avant la beauté et le mystère, et l’attirance quasiment charnelle de la mathématique - de celle qui avait été pour moi la plus accueillante des maîtresses, celle qui toujours quand je venais à elle m’avait comblé. Et je savais aussi la joie de celui qui édifie de ses mains, amoureusement, pierre après pierre, des belles et spacieuses demeures, qui ne ressemblent à aucune autre que main d’homme ait jamais construite, la joie de la création : faire surgir ce qui n’a jamais été avant, ce qu’aucun autre ne ferait à ma place juste de cette façon... Je savais tout cela, et en même temps j’ai su alors que ce “nouveau” que je pouvais continuer à volonté à faire sortir de mes mains, avec l’approbation 97 unanime de tous... - qu’il restait pourtant, dans une optique différente, en- fermé désormais dans le cercle du “déjà connu”. Tout “nouveau” qu’il était, il ne m’apprenait pourtant pas quelque chose de véritablement nouveau ! Ou pour mieux dire, peut-être : il avait cessé de véritablement nourrir mon être. Ou, s’il le nourrissait encore de quelque façon, il y avait pourtant carence de quelque chose d’essentiel, sûrement, qui lui manquait. C’étaient là ces choses senties, que je n’ai pas essayé alors de me formuler en mots, m’en rendre compte à moi-même pour approfondir cette perception encore confuse de quelque réalité que j’entrevoyais alors pour la première fois : celle des limites d’une chose pourtant illimitée, comme la création ma- thématique ; celle de la répétitivité d’un travail qui était pourtant bel et bien et irrécusablement, à son propre niveau, un travail créateur. Il me semble à présent que j’étais confronté alors, pour la première fois de ma vie peut-être (du moins avec une telle acuité), à la différence de niveau entre deux réalités de nature distincte quoique intimement reliées : la réalité “intellectuelle” où se plaçait mon travail mathématique, et la réalité “spirituelle” qui échappe presque entièrement à ce travail. Au niveau intellectuel mon travail était créateur, et m’assurait un épanouissement, une plénitude. Mais vu du niveau spirituel, plus élevé, ce travail s’accomplissait dans un contexte et dans des dispositions qui en faisaient un travail répétitif, un travail de routine - un travail assuré d’avance de sa moisson de succès, d’admiration et de louanges - un travail privé de l’incessant aiguillon de l’incertitude et du risque, qui en fait une aventure de l’esprit et non une sinécure. Mais surtout, c’était un travail dont la place dans ma vie était devenue dévorante, tel un organe jadis sain qui s’hypertrophie en tumeur et draine la force et la sève de tout le corps, au point de le faire s’étioler et dépérir et, à la limite, d’entraîner sa mort. Je devais sentir que sur ce plan plus élevé et plus profond à la fois que je ne percevais encore que très obscurément, je dépérissais, et qu’il était grand temps d’y remédier. Il n’y a eu alors aucune résistance contre la connaissance qui montait des profondeurs. Je lui ai fait une totale confiance, tout comme en 1976, près de vingt ans plus tard, je devais faire toute confiance aux messages me venant par mes rêves. Dans l’un et l’autre cas, je savais que ce qui m’était dit était vrai, et m’était dit pour mon bien. C’étaient des semaines de recueillement et d’écoute, venant là comme par miracle, sur un diapason tout différent de tout ce que ma vie avait été jusque-là. C’était une chose entendue alors que j’allais m’arrêter de faire des maths. Je n’ai pas même eu à prendre une “décision”, peser du “pour” et du “contre”. Toute réflexion était inutile. La joie que suscitait en moi la pensée de tourner cette page bien remplie, et 98 de me trouver devant la page blanche qui déjà m’appelait - cette joie me montrait, mieux que toute réflexion, que j’étais sur la vonne voie : la mienne. Je pensais que je me ferais écrivain. Pendant ces semaines, je passais une bonne partie de mon temps à écrire des poèmes, ou des courtes esquisses littéraires, à traduire en français une œuvre poétique en allemand qui m’avait enchanté... L’idée des difficultés matérielles que j’aurais à affronter en quittant une situation assurée au CNRS ne m’a pas effleuré alors. J’en avais vu bien d’autres ! Et je n’ai pas été troublé non plus par la perplexité, plus sérieuse : si je me fais écrivain, que vais-je donc écrire ? Je n’avais aucun doute que chaque jour me dirait lui-même ce que j’aurais à faire ce jour-là - quel travail mettre en chantier, et comment. En y repensant parfois en passant, après la “re-naissance” qui eut lieu en 1976, je me suis dit que je manquais de matu- rité, que je n’avais pas alors de message à communiquer, que je risquais de tourner à vide. Pourtant, revenant à présent sur cet épisode et me pénétrant de son sens, il m’apparaît qu’une telle confiance n’est jamais déplacée, quand elle est (comme ce fut alors le cas) expression d’une authentique foi en la voix intérieure. Cette voix-là n’est autre que la voix de Dieu. Les “moyens” (ici la maturité, le message) sont alors entièrement secondaires. Quand il y a la foi, et la fidélité à cette foi, ces moyens naissent et se développent au fur et à mesure des besoins, au jour le jour, par l’effet même du travail qui s’accomplit dans la fidélité à soi-même. Ces choses-là toujours nous viennent par surcroît. Je me rends compte à présent que rien que les vingt-neuf années qui étaient alors derrière moi représentaient une richesse prodigieuse, quasiment inépuisable. Si jusque-là je m’étais maintenu à la surface de tout ce qu’elle avait à m’enseigner, et à la surface de mon être aux profondeurs insoupçon- nées, c’était par un propos délibéré commun à tous et que je suivais yeux fermés, prisonnier sans le savoir d’une commune ignorance. Et la voix qui montait des profondeurs m’appelait, sûrement, à être libre de ce propos déli- béré, de cette ignorance, à prendre connaissance de la richesse inconnue que je portais en moi, à plonger, explorer - que le bourgeon riche de sève s’épa- nouisse en fleur et que la fleur devienne fruit et que le fruit mûrisse - pour mon bénéfice et pour celui de tous ! Cette voix intérieure que j’ai su alors écouter, je la reconnais à présent comme la voix d’une mission que je portais en moi à mon insu, depuis ma naissance sûrement voire même, dès longtemps avant ma naissance, depuis 99 toujours peut-être - comme chaque être, peut-être, porte en lui sa propre mission, qu’il lui appartient d’accomplir et de découvrir chemin faisant. Et dans ma foi en la voix intérieure, je reconnais la foi en ma mission, venant fertiliser ma vie à un moment où l’idée de quelque “mission” que j’aurais à accomplir ne me serait pas venue, et où j’aurais été bien incapable (à supposer par extraordinaire que quelqu’un me pose la question) de deviner et dire en quoi elle pourrait bien consister. Et pourtant il y avait bien alors la connaissance inexprimée, plus profonde que les mots, de la mission en moi - une connaissance qui était comme la chair de cette foi totale, sans réserve, qui vivait en moi. Et dans cette foi je reconnais en même temps “la foi en Dieu”, qui en ces semaines était vivante et forte en moi et agissait, alors que l’idée et le nom de Dieu étaient très loin de moi, et allaient le rester pendant près de trois décennies encore. Il y avait cette connaissance et cette foi, qui emplissaient mon être pen- dant des semaines, des mois peut-être. Et il était bien entendu que la ma- thématique, désormais, était un chapitre clos, que je laissais derrière moi. Et pourtant, je n’ai quitté le milieu mathématique que treize ans plus tard ! Pendant douze années, j’ai été infidèle à l’appel qui était monté en moi et que j’avais accueilli, infidèle au devenir qui obscurément était en gestation en moi et m’appelait pour se réaliser et être. C’est là, peut-être, la première infidélité de ma vie et la plus essentielle, une infidélité plénière. Car les fautes et les égarements qui découlent d’une ignorance, celle-ci fut-elle même vou- lue et entretenue, ne sont pas à proprement parler infidélité à soi. Ici, par contre, il y avait plénitude de connaissance (alors même que celle-ci restait inexprimée), et plénitude de foi (alors même que l’objet de cette foi restait obscur et incompris). Il n’y a jamais eu de décision vécue comme telle, du genre “après tout, je vais quand même continuer encore à faire des maths, c’est plus sûr...”. Plutôt un glissement insensible, me faisant retourner inexorablement dans l’orbite des habitudes acquises. J’avais quelques travaux en train, certes, qui me tenaient plus à cœur que d’autres, et je me disais qu’avant de fermer boutique, j’allais les mettre noir sur blanc et les publier - ce serait dommage qu’ils soient perdus ! Et c’était dit, on s’en doute, “avec la meilleure foi du monde”. Mais c’était là déjà, sûrement, l’acte de démission qui ne dit pas son nom. Car changer, ce n’est pas pour demain, ni pour dans six mois quand j’aurai terminé ceci ou cela. Ca n’a de sens que quand la vie change à l’instant même, sans se retourner ni tergiverser. 100 J’étais bien placé pourtant pour savoir qu’un travail qu’on met “noir sur blanc” en pensant y mettre trente pages, c’est trois cents qui s’alignent vite fait, et dix autres travaux qui se greffent dessus chemin faisant, auquel nul n’avait songé et qu’il faut également tirer au clair pour avoir vraiment l’impression d’avoir mené à bonne fin et compris le fin-fonds du travail par lequel on avait commencé. C’était fatal que j’allais être repris par l’engrenage, et ça n’a pas manqué ! Douze ans après j’y étais encore et si bien, que ça faisait longtemps que ces idées un peu fofolles de “me lancer dans la littérature” étaient bien oubliées. 3.9 35. La mort interpelle - ou L’infidélité (2) (24 et 25 juin) J’ai repensé à l’histoire du jeune homme qui “avait beau- coup de biens”, et qui “s’en alla tout triste” de ne pouvoir suivre Jésus qui l’avait appelé à donner ses biens aux pauvres et à le suivre. En le relisant, il y a quelques semaines à peine, je me suis dit : quelle chance extraordinaire qu’il a gâché, à cause de quelques malheureuses maisons et terres qu’il avait et qui le possédaient ! C’était chose entendue que si j’avais été à sa place, ça n’aurait pas fait un pli, j’aurais tout lâché sans y réfléchir à deux fois. Dommage que Jésus ne soit plus dans les parages... Je suis alors resté bien en surface du récit évangélique. L’appel de Dieu, que ce soit par le ministère de Jésus ou de toute autre façon, vient sans nous avertir et nous prend au dépourvu, dans la vérité de ce que nous sommes - et notre réponse nous révèle, comme rien d’autre ne pourrait le faire. Et il y a d’autres richesses que des maisons et des terres et des comptes en banque pour nous posséder. Chez moi, depuis les débuts des années cinquante et de plus en plus à mesure que j’amassais mes “biens”, ça a été mon œuvre de mathématicien qui me “tenait” - aussi bien celle derrière moi, publiée noir sur blanc dans des tirages à part et des volumes s’entassant en une pile ma foi coquette, que celle que je sentais germer et sourdre en moi et qui m’appelait et me tirait en avant pour être... Cette œuvre, m’enchaînait à un passé incompris et à un avenir dont je me croyais maître, et, tout ce qui allait avec pour me gratifier et me sécuriser, dans la plénitude de mes moyens et dans l’euphorie de l’approbation unanime... J’ai compris hier que j’ai été moi-même le jeune homme riche, entendant l’appel aussi clairement qu’on peut l’entendre, et s’en détournant finalement (non sans un secret malaise), car “j’avais beaucoup de biens...” Cette même année 1957, quelques mois à peine après l’épisode que j’ai 101 rapporté hier, l’appel s’est fait à nouveau entendre, mais cette fois avec une tout autre force péremptoire, par la mort de ma mère. Il m’a été donné d’être auprès d’elle dans les dernières semaines de sa vie, de la soigner et de la voir mourir. Et aussi, dans ces semaines ultimes, de voir se dissiper comme s’il n’avait jamais été, l’aride et âpre désespoir dans lequel elle s’était maintenue pendant les cinq dernières années. Aussi sa mort est-elle venue comme la résolution inespérée d’une tension accumulée telle, que je crois qu’elle m’aurait brisé si ma mère n’était morte réconciliée, aimante et en paix. Cette mort a été vécue par moi comme un immense soulagement. Pendant cinq ans, elle avait été maintenue suspendue sur moi comme une menace mortelle, comme une malédiction dévastatrice, depuis longtemps prononcée et qui inxorablement attendait son heure pour s’accomplir - et maintenant que cette mort était consommée, la malédiction qu’elle me réservait s’était évanouie, miraculeusement, et la violence sans nom qui l’avait inspirée. Dans ces dernières semaines précédant la fin, cette mort avait été pres- sentie imminente et en même temps désespérément refusée. Tout en moi se cabrait contre elle, tant je restais imprégné de toute l’angoisse refoulée des dernières années. Mais une fois l’impensable consommé, et le premier choc passé - dès le lendemain, après le sommeil nécessaire accordé à un corps vidé par les veilles ce sentiment de soulagement, d’une libération inespérée, m’a empli tout entier. Et dans ce soulagement immense, dans cette joie de la délivrance, il y avait une reconnaisance et une tendresse pour celle qui était morte - que ce dernier acte de sa vie ait été, non un acte de malédiction et de haine, mais, inespérément, acte de réconciliation et d’amour. J’ai accepté alors cette délivrance soudaine comme un don inespéré que la vie me faisait. Il n’y a pas eu de velléité de honte, faisant effort de refouler ces sentiments puissants, expression d’une réalité élémentaire, irrécusable, pour les remplacer tant bien que mal par un “deuil” de commande. Ma relation à la mort, saine initialement et nullement chargée des tonalités habituelles d’angoisse et de répulsion, avait été profondément perturbée par les dernières années de la vie de ma mère. Mais en reprenant contact, par la mort de ma mère, avec l’humble réalité physique de la dégradation de la chair et de la mort charnelle, cette relation s’est vidée d’elle-même du contenu de menace et de violence qui l’avait dénaturée, pour devenir une relation simple et de plein pied, une relation aimante. Dès ce moment, je crois, la mort a commencé par devenir pour moi presque une amie déjà, ou du moins un des visages de la vie. Un visage grave, mais nullement menaçant ni même fermé, doux dans ce recueillement du silence, et accueillant sûrement aussi, ce visage m’interpellait, et cette mort étrange - cette soudaine accalmie, après tant de 102 violence. C’est la première fois de ma vie, je crois, où j’ai senti qu’il y avait quelque chose à comprendre, quelque chose qu’il m’appartenait de sonder ; une leçon qui m’était proposée et que je devais apprendre. C’était un appel encore, mais plus clair encore cette fois, puisqu’il me posait une tâche, celle d’assumer un passé, de comprendre. Ai-je fait alors le rapprochement avec l’appel qui m’était venu au début de l’été ? (Déjà je m’étais laissé reprendre et porter et enfermer par les tâches familières et que je dominais, par ces tâches qui étaient mon bien et qui me possédaient. Je ne saurais plus le dire avec certitude. Cette fois encore, toutes ces choses n’existaient qu’au niveau du senti, sans que l’idée me vienne d’y réfléchir, et encore moins de m’en ouvrir à quiconque. Pourtant, je crois que ces deux appels ont dû alors s’associer en moi. C’est dans les jours qui ont suivi la mort de ma mère qu’a dû se présenter, oh très discrètement ! une idée qui est revenue parfois dans les mois et les années qui ont suivi, avec une certaine insistance (l’insistance discrète d’un songe qui revient hanter nos nuits...), avant de sombrer sans retour dans les marais de l’oubli... Voici de quoi elle retournait. Ma mère laissait à sa mort le manuscrit complet d’un roman autobiogra- phique (s’arrêtant en 1924, année de la rencontre avec mon père), et d’autres écrits également autobiographiques, qu’elle avait commencé à écrire en 1945 et laissés en chantier depuis 1952. Ces textes devaient s’assembler en une vaste fresque à la fois historique et personnelle, en trois grands volets, qu’elle n’acheva jamais. Elle estimait qu’aucun de ces écrits n’était en état pour pu- blication, et elle avait décidé que rien ne devait en être publié, même après sa mort. Avec le recul, je me rends compte que c’était là une sage décision, dictée sûrement par un sain instinct. Elle a dû sentir obscurément et sans se le reconnaître jamais, au delà des imperfections de la forme, une carence plus essentielle qui en était la véritable cause, la carence d’une profondeur qu’elle n’aurait pu atteindre qu’en laissant se réaliser une maturité en gestation en elle depuis son adolescence, et que sa vie durant elle avait repoussée... Tou- jours est-il que cette décision de ma mère me peinait, ne serait ce que par piété filiale. Pourtant, je sentais bien qu’elle n’était pas sans fondement, que quelque chose, que je n’aurais su moi-même alors nommer, “clochait” dans ce témoignage d’une vie qui me touchait de si près. Témoignage déconcertant, pour moi plus que pour quiconque, par une sorte de sincérité impitoyable et qui laisse sur sa faim, faute d’atteindre à la qualité de vérité (sauf en quelques rares instants). C’était comme un pain d’une pâte très riche mais qui faute de levain, n’aurait pas levé. 103 Mon idée était qu’avec le très riche matériau biographique laissé par ma mère, je pourrais peut-être prendre sur moi d’essayer de mener à bonne fin l’œuvre qu’elle avait commencé, ou ne serait-ce d’abord que le premier de ses quatre volets prévus. De publier le roman, déjà écrit, sous une forme peut-être très différente qui restait à trouver, sous son nom ou le mien ou les deux, je n’aurais su le dire... Bien sûr, j’avais beau manquer de maturité, je ne pouvais m’empêcher de sentir ce que cette idée avait de boiteux, à dire le moins - que je ne pouvais, avec les meilleures intentions et toute la piété filiale du monde, écrire l’œeuvre d’un autre. Et pourtant, cette idée a dû se présenter et revenir avec une insistance patiente et obstinée, pour que je m’en rappelle encore maintenant, alors que j’ai presque tout oublié ! Prise au pied de la lettre, elle me frappe même comme franchement absurde, comme folie, à tel point que je m’étonne maintenant que je ne l’aie pas renvoyée comme telle qu’elle ait gardé sur moi une si tenace attirance. Mais en même temps commence à poindre en moi que cette idée, folle certes et impossible à souhaits, était une idée fertile. Mieux même, c’était l’idée entre toutes, qui à ce moment avait la qualité particulière qui aurait pu me faire secouer la torpeur spirituelle qui m’avait reprise et reprendre contact, par une tâche précise, avec la mission informe, informulée, qui reposait en mes profondeurs et attendait que je lui donne latitude de prendre corps et de s’exprimer. Ce qui rendait l’idée si folle, c’était cela même qui lui donnait aussi sa force - toute la force de mon attachement à ma mère, de l’admiration que je lui vouais, du désir en moi de pouvoir la servir par delà sa mort, par un travail qui perpétuerait sa mémoire. Et ces motivations puissantes ainsi sollicitées n’étaient nullement un leurre. Il n’y a aucun doute que si j’avais eu la fidélité de suivre cet appel et que j’empoigne à bras le corps et de tout mon être cette impossible tâche, cette tâche folle - celle-ci se serait transformée au jour le jour par ce travail même. Elle se serait révélée comme le chemin que Dieu me proposait alors pour susciter et faire se déployer mon propre devenir embryonnaire, ignoré, non né encore et qui demandait à naître. Et ce travail qui m’appelait et me montrait le chemin de mon propre être, de mon propre devenir, il m’était destiné comme une bénédiction pour moi-même certes, mais aussi pour ma mère qui venait de mourir. Non certes, comme dans mon ignorance je l’imaginais, pour perpétuer son nom et le glorifier devant les hommes (comme elle-même sans se l’avouer avait voulu le faire), mais pour l’aider de quelque mystérieuse façon, au delà de la mort qui avait transformé son existence terrestre en une vie autre, à assumer dans l’au-delà ce qu’elle s’était refusée à assumer ici-même, et par là, à faire s’accomplir en elle son propre devenir, bloqué par elle sa vie durant. 104 Cet appel, je le vois maintenant très clairement, reprenait et précisait le premier appel, que j’avais éludé. A la perplexité qui était alors restée en suspens “que vais-je donc écrire, si je me déclare écrivain ?”, il donnait une réponse : rien qu’avec la vie de ma mère, j’avais du pain sur la planche plus qu’il ne m’en faliait ! Et cette idée folle et absurde pour une sagesse superficielle était, en vérité, une “idée géniale” - et providentielle ; si géniale et providentielle même, que non seulement à ce moment-là mais dans les vingt années encore qui ont suivi, j’aurais été bien incapable de la concevoir par mes propres moyens. A vrai dire, je ne la comprenais pas - je ne comprenais pas le sens derrière ce qui pouvait apparaître comme un non-sens, et qui pourtant continuait à me hanter comme un songe absurde, tenace et lancinant. Après quelques années, le Messager patient et bienveillant a dû se lasser. Ou plutôt, j’étais à tel point accroché et installé dans ma léthargie, que ce n’était plus la peine de parler à des oreilles si endormies. Le travail que Dieu m’avait alors proposé, j’ai fini par m’y mettre en août 1979, par un tout autre biais. Ca a été une méditation dès le départ, une méditation sur mes parents, au lieu de partir sur l’idée d’un roman, lequel “roman” aurait bien fini par se transformer en méditation chemin faisant et par me faire découvrir ma mère (pour commencer) telle qu’elle était vraiment, et le sens de tant de choses éludées que sa mort évoquait. Je ne me rappelle pas que pendant la longue méditation d’août 1979 à octobre 1980) l’idée m’ait effleuré jamais que j’étais en train, en somme, de faire un travail qui m’avait été offert vingt-deux ans avant, et que j’avais alors repoussé. C’est à l’instant seulement, en évoquant comme malgré moi une certaine idée saugrenue depuis longtemps oubliée, que pour la première fois se révèle à moi le sens caché derrière le non-sens apparent. Ce deuxième appel qui eut lieu en cette année mémorable, appuyé par toute la force de l’expérience indélébile des dernières semaines et des derniers moments de ma mère, et par toute la force du lien qui m’unissait à elle et que sa mort ne pouvait qu’approfondir, m’apparaît à présent dans toute sa pressante acuité. Cette fois, toute l’angoisse enfin dénouée des cinq années que je venais de vivre, et tout ce que ma mère représentait pour moi et tout ce que j’avais écarté et refoulé hors de ma vue, était englobé dans cet appel. Et pourtant, cette fois encore, j’ai éludé. J’ai choisi d’être infidèle au meilleur de moi-même, infidèle à l’élan d’une générosité qui acquiescait à cet appel des profondeurs, infidèle à l’instinct très sûr qui me montrait la voie d’une tout autre aventure. 105 J’ai été alors comme le condamné à mort, la corde déjà au cou, qui voit sa peine levée : va où bon te semble ! Je pouvais le prendre comme un encourage- ment, m’incitant à répondre à une grâce inespérée par un acte qui réellement y corresponde ; ou ne serait-ce qu’à m’enquérir des tenants et aboutissants qui m’avaient valu cette peine miraculeusement remise, histoire de ne pas me fourvoyer à nouveau dans une galère similaire. Au lieu de cela, je me suis laissé allé sur la douce pente de l’euphorie, de celui qui pour cette fois-ci en était quitte et qui ne demande pas son reste. C’était le “happy end” ! Désor- mais, il n’y avait plus aucune raison que le reste de ma vie et jusqu’à la fin de mes jours ne s’écoule sans encombres, dans des couleurs tout en rose : les matins, des amis partout dans le monde, une amie (qui allait devenir com- pagne) qui mavait assisté pour les derniers jours de ma mère et qui semblait toute dévouée - que pouvais-je demander de plus ? ! A quoi bon remuer de bien tristes souvenirs ? Quand je serai vieux peut-être... Maintenant, la vie m’appartenait ! ** * Il y a beaucoup d’appelés et peu d’élus. Mais les élus, ce me semble, sont ceux qui entendent, écoutent et suivent l’appel. Dieu choisit quand et comment Il appelle - et en est-il même un seul qui n’ait été appelé ? Mais ce n’est pas Lui qui choisit les “élus”. C’est chacun de nous, quand la voix appelle, qui choisit dans le bruit ou dans le silence, s’il fait taire la voix ou s’il la suit. On s’imagine volontiers Dieu dictant Ses commandements par la voix du tonnerre, pour être gravés, immuables, sur des tables de granit. En vérité, Dieu parle à voix très basse, et à l’oreille d’un seul. Il ne commande ni n’impose, mais suggère et encourage. Et ce qu’Il dit est folie pour tous ceux qui nous entourent, comme pour nous-mêmes qui en sommes un docile reflet. Rien autour de nous ni en nous, sauf cette seule voix, ne nous encourage à lui prêter oreille, et tout nous en dissuade... C’est pourquoi il est si rare que nous écoutions et plus rare encore que nous suivions. Et c’est pourquoi, sûrement, il y a si peu d’élus. Cette voix imperceptible est comme un vent léger qui passe dans herbes folles, et quand il a passé rien ne semble s’être passé, tout est comme il a toujours été. Les prophètes eux-mêmes, les mystiques, les saints l’ont d’abord 106 récusée, comme une vaine chimère ou comme un songe fou, avant d’oser la reconnaître et de miser leur vie sur cette foi téméraire, cette foi folle défiant toute “sagesse”. Si aujourd’hui à certains d’entre nous ils paraissent grands, eux qui furent pétris de la même argile que nous, c’est parce qu’ils ont osé eux, être eux-mêmes en osant ajouter foi au vent qui souffle et qui passe, montant des profondeurs. C’est leur foi qui les rend grands, en les rendant eux-mêmes et à eux-mêmes. Non la foi en un “credo” partagé par tous ou prôné par un groupe empressé de zélateurs. Mais la foi en la réalité et en le sens d’une chose délicate et imperceptible qui passe comme la brise et nous laisse seuls face à nous-mêmes comme si elle n’avait jamais été. C’est cela, la véritable “foi en Dieu”. Alors qu’on n’aurait jamais prononcé Son nom, c’est pourtant elle. C’est la foi en cette voix très basse qui nous parle de ce qui est, de ce qui fut, de ce qui sera et ce qui pourrait être et qui attend - voix de vérité, voix de nos visions... Nous sommes et devenons pleinement nous-mêmes quand nous écoutons cette voix seulement, et avons foi en elle. C’est elle qui agit en l’homme et le fait s’avancer et l’anime sur le chemin de son devenir. 3.10 36. Dieu parle à voix très basse... (26 et 28 juin) C’est une grande satisfaction de voir à quel point cet “historique de ma relation à Dieu”, que j’avais pensé insérer en passant et comme par acquit de conscience, est devenu l’occasion d’une redécouverte de ma vie par certains de ses temps forts et certains signes qui l’ont marquée, sur lesquels jusqu’à présent je ne m’étais jamais arrêté. La perspective toute nouvelle me fait embrasser ma vie dans sa globalité et avec un regard neuf. Au fil de la réflexion, je vois s’y manifester pas à pas un sens, un secret dessein, de moi-même ignorés ma vie durant et pourtant obscurément pressentis. Ce dessein, et le sens nouveau qu’il donne à ma vie, se sont révélés tout dernièrement seulement, de fin octobre à fin mars. Et encore est-ce sûrement une grâce toute particulière, qu’ils m’aient été signifiés expressément et de façon aussi claire, il est vrai qu’en étant aux débuts de ma soixantième année à me frayer encore une marche tâtonnante à travers la muit, alors que rien d’extérieur à moi n’était jamais venu me confirmer dans la voie hésitante suivie comme malgré moi, il était grand temps qu’une lumière enfin jaillisse et que mes tergiversations prennent fin, pour accomplir dans cette existence encore ce que je dois accomplir. Et qu’on ne s’imagine pas que l’évocation de mes tergiversations de na- guère et de mon infidélité de jadis soient pour moi occasion de regrets et 107 grincements de dents, “ah si j’avais ci ! ah si j’avais ça !”. C’est une joie de dé- couvrir ce qui a été, à la lumière de mon présent, et d’y discerner les labeurs d’un devenir qui se cherchait à tâtons, et jusques à travers mes abandons et mon infidélité au meilleur de moi-même. Il fallait que ces fruits-là aussi mûrissent à longueur d’années et de décennies leur chair d’amertume et qu’ils soient mangés, pour nourrir un autre fruit en devenir qui sourdement déjà germait. Et ce qui est vrai pour l’un est vrai pour tous, si amère que soit la récolte. Nul n’échappe à l’amertume de la souffrance qu’il s’est lui-même préparé ni à la délivrance que celle-ci prépare. J’ai pensé à l’apôtre Pierre, et à son reniement du Christ qui venait d’être livré pour être crucifié. Relisant ce récit il y a peu, j’ai longuement sangloté, comme si c’était moi qui venait de renier et trahir celui qui devait mourir abandonné de tous. Seule la vérité touche ainsi, au plus profond de l’être, et nous révèle à nous-mêmes. Et il n’y a pas à regretter que ce qui touche ainsi, comme une bienfaisante blessure qui saigne, ait été. Cette foi n’est autre que la foi en nous-mêmes. Non en celui que nous nous imaginons ou voudrions être, mais en celui que nous sommes au plus intime et au plus profond - en celui qui est en devenir et que cette voix appelle. Parfois pourtant la voix se fait forte et claire, elle parle avec puissance - non celle du tonnerre, mais par la puissance même qui repose en nous, ignorée, et que soudain elle révèle. Telle est-elle dans le rêve messager, fait pour nous secouer d’une torpeur (peut-être mortelle...). Mais c’est en vain que se déployent puissances insoupçonnées - car où est le mètre breveté qui les mesurera à son aune (et nous donne feu vert pour admirer...), où la balance qui les pèsera (pour nous faire constater qu’elles font le poids...), où le chronomètre qui les délimitera (pour limiter les dégâts...) ? Ce ne sont que des songes après tout, n’est-ce pas ? Qui donc serait si fou que d’écouter un songe, voire même le suivre ? Même quand par extraordinaire Il éléve la voix, on dirait que Dieu Lui- même fasse tout Son possible pour surtout ne pas faire pression sur nous si peu que ce soit pour L’écouter, alors que tout fait pression pour nous faire nous boucher les oreilles ! C’est presque comme si Dieu Lui-même se mettait de la partie pour surenchérir : “oh vous savez, faut surtout pas vous en faire ou vous croire obligés, si Je te parle c’est comme si Je me parlais à moi- même en marmonnant. Je ne suis pas après tout un personnage important comme Untel qui parle à la radio et Untelautre qui donne une interview et Untel encore qui vient de publier un livre très lu ou Celuici qui affirme d’un 108 air péremptoire en regardant autour de lui ou Cellelà à la voix de velours qui te retourne comme un gant... Je ne voudrais surtout pas leur faire la concurrence et d’ailleurs J’ai beaucoup de patience et énormément de temps, alors pour m’écouter rien ne presse, si ce n’est dans cette vie ce sera dans la prochaine ou celle d’après ou dans dix mille ans on a tout le temps. Avec tout ça, c’est même miracle qu’il arrive que l’Inimportant, le Tout Patient, l’Insensé, l’Ignoré - qu’il soit écouté jamais ! Il n’a qu’à s’en prendre à Lui-même, le Maître de toute chair qui aime tant se cacher et S’entourer de mystère et parler le langage des songes et du vent, quand Il ne fait silence. Le monde entier tonitrue et commande et décrète et statue, et promet et menace et fulmine et excommunie et taille sans merci quand il ne massacre sans vergogne, au nom de tous les diéux et toutes les sacro-saintes Eglises, de tous les rois “de droit divin” et tous les Saints-Sièges et tous les Saints- Pères et toutes les patries altières, et (last not least) au nom de la Science oui Monsieur ! et du Progrès et du Niveau de vie et de l’Académie et de l’Honneur de l’Esprit Humain, parfaitement ! Et dans cette clameur de toutes les puissances et toutes fringales et toutes violences, Un Seul se tait - et Il voit, et attend. Et quand d’aventure Il parle c’est à voix si basse que personne jamais n’entend, comme pour laisser entendre en même temps qu’Il murmure : oh Moi vous savez, c’est vraiment pas la peine de M’écouter. D’ailleurs dans ce vacarme ça vous fatiguerait... Les voies de Dieu, je reconnais, sont insondables. Si insondables qu’on ne peut guère s’étonner que l’homme s’y perde et perde même la trace de Dieu et jusqu’au souvenir de Lui. Les religions que, nul doute, Il a inspirées, se contredisent et s’exterminent les unes les autres, et les peuples mêmes qui naguère se proclamaient les fils d’une même Eglise, n’ont pas cessé de se massacrer les uns les autres à l’envi, à longueur de siècles et aux sons des mêmes hymnes funèbres célébrant le même Nom, les prêtres en chasuble en compagnie des poètes ceints de lauriers chantant pieusement amen “pour ceux qui pieusement sont morts pour la patrie...”. De nos jours le bon Dieu il a passé de mode, mais le cirque macabre tourne aussi fort que jamais : les prêtres et les poètes font toujours leur boulot de croquemorts, sous la houlette alerte des généraux des rois des présidents des pâpes, tandis que la Science (alias l’Honneur de l’Esprit Humain), toujours aussi sublime et aussi désintéressée fournit les moyens grandioses et impec- cables des Mégamassacres perfectionnés électroniques chimiques biologiques atomiques et à neutrons sur les charniers d’aujourd’hui et demain. 109 Seul Dieu se tait. Et quand Il parle, c’est à voix si basse que personne jamais ne L’entend. [...] Sections 37 à 65 [...] 3.11 66. Années-ouvrables et années-dimanche - ou tâches et gestation Après cette courte rétrospective sur le sens d’une “longue traversée du désert” qui déboucha sur les années ardentes que j’évoque dans les huit sec- tions qui précédaient, il est temps de reprendre à nouveau le fil de mon récit. Je m’étais arrêté sur la fin lamentable de la deuxième expérience com- munautaire, survenue en août 1973. [...] Par ailleurs, les trente hectares de broussailles, héritage de la “communauté” qui s’était volatilisée, étaient lais- sées à mes soins et à ma responsabilité. Pendant quelques années encore j’ai fait effort pour susciter la formation d’un petit groupe de néo-ruraux qui s’y implanterait, et auquel éventuellement je me serais associé d’une façon ou d’une autre qui restait à trouver. Pour le moment, je faisais de valeureux efforts pour y maintenir un jardin et l’agrandir, préparant surtout, pour me faire la main de “nouveau jardinier”, des tas non pareils longs et hauts comme ça de magnifique compost, de quoi déjà voir venir ! C’est alors aussi que j’ai appris à me servir d’une perceuse et d’autres outils à l’avenant, pour préparer la maison (reçue en plutôt déplorable état) et la rendre habitable et avenante pour l’hiver. J’avais aussi le projet de construire un grand dôme en argile, sans charpente, à la façon traditionnelle nubienne, pour nous y installer par la suite - ce n’était pas le terrain ni l’argile qui manquait ! Toujours branché, donc, sur l’idée “vie nouvelle”, que je n’allais pas lâcher comme ça. En cheville surtout avec les marginaux du coin, il y en avait un bon peu dans la région. Mais sans aucune velléité pour me relancer dans les activités militantes, alors pourtant que les occasions sur place, et même urgentes, ne manquaient pas. Bien guéri aussi de l’idée de tâter encore d’une vie communautaire - en tous cas pas sous forme de cohabitation sous un même toit. 110 A dire vrai, pas un seul des projets et des prévisions que je trimbalais alors et dans les années qui ont suivi ne s’est réalisé : tout ce que j’entreprenais, sur cette même lancée “vie nouvelle”, s’effritait. Ce n’était pas, je crois, par manque de conviction ou de mise d’énergie, pas plus que par incurie. Plutôt, je crois que ce n’était pas là vraiment la voie qui était alors devant moi, la voie de ma mission. Et tous les échecs innombrables de ces années, tant au niveau de mes relations à autrui qu’à celui de mes entreprises, je les vois à présent comme autant de coups de semonce me poussant vers la voie encore ignorée - celle qui attendait que je la découvre et que je l’invente au fur et à mesure que je m’y engageais et déjà la gravissais. (Sans la voir encore ni aucunement discerner le sens de ce que je faisais...). Les cinq ans qui ont suivi, jusque vers la fin de 1978, sont des années très particulières dans ma vie. C’est la seule période dans ma vie qui n’était pas dominée par quelque tâche maîtresse dans laquelle je me serais investi à fond pour la mener à bonne fin ou du moins, aussi loin qu’il me serait donné. Ce n’est pas, certes, que je sois resté désœuvré. Des occupations intéressantes, utiles, instructives, voire passionnantes ne m’ont jamais manqué, pas plus en ces années-là qu’à aucun autre moment depuis l’adolescence. Mais mainte- nant c’étaient des “occupations” seulement. Elles n’étaient pas vécues comme des grandes tâches, qui m’auraient requis tout entier. Je n’étais pas alors de toutes mes forces projeté dans un avenir inconnu, vers l’accomplissement de la tâche que je servais et qui, en même temps, m’asservissait. C’étaient des années où, autant qu’il m’a été alors donné, j’ai vécu dans le présent. Les années où je me suis accordé, à côté d’un “faire” qui déjà ne me main- tenait plus entièrement prisonnier, le loisir aussi de vivre. De vivre, et de regarder, écouter, sans autre raison ni cause que de vivre, regarder, écouter. J’avais passé près de trente ans de ma vie à trimer à brin de zinc sans jamais vraiment m’arrêter - trimer “maths” d’abord et “écologie”, “Survivre et Vi- vre”, “Révolution culturelle”, et tout ça ensuite - maintenant je m’accordais quelques années à muser. Cinq “années-dimanche” en somme, après trente années-ouvrables ! Ce n’était pas là l’effet d’aucune décision délibérée. Ça s’est fait comme ça, simplement, je ne saurais dire moi-même comment ni pourquoi. Je ne me rappelle pas d’ailleurs, au cours de ces années, m’être jamais aperçu de cette chose-là, pourtant frappante, et encore moins m’y être arrêté : tiens, que se passe-t-il avec toi, de ne plus être embringué dans aucune grande tâche ? Je n’en ai fait la constatation que beaucoup plus tard, en passant et sans non plus alors m’y arrêter. 111 Avec le recul de plus de dix ans, je pressens que ce très long “dimanche” a été une chose nécessaire et salutaire. Le travail qui devait se faire en moi n’aurait sans doute pu se faire, et ce qui devait prendre naissance, naître, si je ne m’étais accordé ce répit. Comme une femme enceinte baisserait le rythme d’une vie qui peut-être fut trépidante, pour laisser s’accomplir dans un calme propice le travail tout autrement plus profond et plus délicat qui se poursuit en elle, sous l’action de forces obscures qui sont en elle mais qui en même temps la dépassent infiniment et qu’elle ne contrôle pas. Ces années-là qui au regard superficiel pourraient sembler gaspillées furent pourtant, au plan spirituel, des années exceptionnellement fécondes dans leur ensemble (sinon chacune séparément) - infiniment plus fécondes sur ce plan-là (celui qui seul compte aux yeux de Dieu) que les trente années “trimantes” qui avaient précédé. C’étaient les années quand après de très longues et souvent arides semailles, la pluie enfin venue, ont commencé à lever les moissons et à être rentrées les premières récoltes - riches bien au delà de tout ce qu’une sagesse humaine n’aurait pu prédire ni espérer ! Ce sont ces années apparemment “oisives”, aussi, qui ont fait mûrir en moi de tout autres tâches, des tâches dont je n’aurais pu avoir alors aucun soupçon. Comme s’ouvrent à la jeune mère qui vient pour la première fois d’enfanter des tâches d’une dimension toute nouvelle, dont les occupations qui précédemment l’absorbaient tout entière n’auraient certes pu lui donner la moindre idée. Vues dans l’optique spirituelle, nos activités de toutes sortes, si absorbantes et si utiles (voir indispensables ou fascinantes) soient-elles, et alors même que nous nous y adonnerions avec passion, nous font mouvoir dans le cercle clos du connu. Par elles-mêmes, elles ne nous ouvrent pas sur des mondes nouveaux. A la limite, faute de lâcher prise quand l’heure en est venue, elles nous ligotent, empêchant l’éclosion de ce qui doit éclore. Car les forces qui dans les replis obscurs de l’être font sourdre et bourgeonner et ger- mer le nouveau, et qui le font émerger au jour quand l’heure est venue - ces forces-là ne sont pas de l’homme, et elles œuvrent suivant des voies et vers des fins tant proches que lointaines que l’homme peut au mieux pressentir (en les moments éphémères de plus grande clarté...) mais jamais prévoir ni prédire et encore moins diriger. Ni même les peut-il seconder par une acti- vité consciemment décidée et systématiquement poursuivie. En ces moments sensibles entre tous (et que nulle semonce ni son de trompe n’annonce !) où l’être lui-même bourgeonne et s’apprête à se transformer sous l’action des forces obscures qui ne sont pas de nous, le mieux que nous puissions faire de notre côté, c’est d’acquiescer pleinement, par tout ce que nous sommes, à Celui qui œuvre en nous ; de Le laisser agir sans trop interférer par notre vou- loir et par nos idées sur ce qu’il convient que nous soyons, que nous fassions 112 ou que nous devenions. Et encore cet acquiescement de l’être, notre seule et humble contribution à l’Œuvre inconnue qui se poursuit en nous, s’accomplit et se renouvelle jour après jour sans même que nous nous en doutions, dans l’ombre et dans le silence, dans des lieux très profonds dérobés à jamais au pataud regard de la conscience. 113 |
Là ça ne marche pas encore à merveille mais pourquoi donc? Là ça ne marche pas encore à merveille mais pourquoi donc? | Là ça ne marche pas encore à merveille mais donc? Là ça ne pas encore à merveille mais pourquoi donc? Là ça ne marche pas encore à merveille mais pourquoi donc? Là ça ne marche pa à merveille mais pourquoi donc? Là ça ne marche pas encore à merveille mais pourquoi donc? Là ça ne marche pas encore à merveille pourquoi donc? Là ne marche pas encore à merveille mais pourquoi donc? |
A aimer le bien, à ne pas être séduit par le mal, à faire ce qu'on doit faire et à se garder de ce qu'il faut éviter. | La science a un contrat avec la société. Contrat qui consiste à faire avancer les connaissances. AMOS COMENIUS (père sprituel de l'UNESCO) : " Nous voulons que tous les êtres humains, ensemble ou pris isolément, jeunes ou vieux, riches ou pauvres, nobles ou roturiers, hommes ou femmes, puissent pleinement s'instruire et devenir des êtres achevés. Nous voulons qu'ils soient instruits parfaitement et formés non seulement sur tel ou tel point, mais également sur tout ce qui permet à l'homme de réaliser intégralement son essence. D'apprendre à connaître la vérité, à ne pas être trompé par des faux semblants. A aimer le bien, à ne pas être séduit par le mal, à faire ce qu'on doit faire et à se garder de ce qu'il faut éviter. A parler sagement de tout, avec tout le monde. Enfin, à toujours traiter les choses, les hommes et Dieu avec prudence et non à la légère. Et à ne jamais s'écarter de son but, le bonheur ". Le Galilée de l'éducation comme on le surnommait s'est posé une question à la fois très simple et très révolutionnaire. Il s'était demandé en effet : "Comment faire en sorte que tous les hommes accèdent à tout le savoir disponible ?" Comment offrir à tous un panorama complet de ce que les hommes savent ? " C'est de l'ignorance, et de l'ignorance seule que l'homme doit se libérer. " |
Si la mondialisation marchande à l’anglo-saxonne s’est faite au détriment d’autres types de capitalismes (modèles scandinave, germano-français ou méditerranéen), c’est parce qu’elle a été lancée dans sa forme nouvelle, depuis les années 1990, par l’Empire américain et favorisée par son immense puissance de frappe financière, puis sa domination politico-stratégique, culturelle et économique sur la vieille Europe, d’ailleurs reconstruite à cette condition après la Seconde Guerre mondiale.
» Cette idée est présente également dans les analyses de Samuel Huntington, pour qui la mondialisation et Internet n’ont pas fait disparaître les identités des peuples, mais ont permis a contrario à ces derniers d’accéder à une « conscience civilisationnelle » déterritorialisée et plus large, de sorte qu’un exilé serait aujourd’hui bien plus lié à son pays d’origine et s’assimilerait bien moins facilement à la société d’accueil qu’avant l’ère des télécommunications où les émigrés étaient coupés de leur milieu d’origine par les lois de la géographie.
Pris au piège de l’illusion dangereuse selon laquelle ils vivront indéfiniment protégés des menaces externes par leur pacifisme et leur renoncement à l’identité, ces non-puissances ouest-européennes ne semblent plus capables de défendre sur leur sol leurs propres valeurs et civilisation, menacées non pas par une immigration extra-européenne qui serait positive si elle était assimilée, mais par les appétits de conquête de prédateurs externes : la Chine impériale renaissante, l’empire acculturant McWorld, et les puissances revanchardes panislamistes, comme la Turquie néo-ottomane d’Erdoğan, qui instrumentalisent l’ouverture européenne et y embrigadent les communautés immigrées musulmanes pour servir leur expansionnisme, remplissant ainsi le vide laissé par les États désouverainisés et désindustrialisés d’Europe occidentale.
Les leçons de la gestion chinoise et asiatique de la crise sanitaire Avec le recul nécessaire, un an et demi après les premiers confinements qui ont paralysé et continuent de paralyser les pays occidentaux (surtout l’Union européenne) – faute de lits suffisants dans les hôpitaux, de discipline et de fermeture des frontières –, les modèles alternatifs confucéens de Taiwan, Singapour, Corée du Sud et a fortiori de la Chine ont incontestablement fait preuve d’une plus grande efficacité, au prix d’une fermeture précoce des frontières, d’un traçage massif liberticide, de quarantaines drastiques, mais relativement courtes, et d’une emprise technologico-politique sur les citoyens.
Elle nous rappelle que le monde multipolaire qui se dessine n’est pas seulement fait de pôles émergents et de puissances jalouses de leurs prés carrés géopolitiques, mais aussi de polycentrisme des valeurs, celles de l’Occident libertaire- mondialisé étant perçues par les autres civilisations comme une menace idéologique anarchisante, acculturante et civilisationnellement mortelle.
L’Europe dupe de son interprétation utopique de la mondialisation La thèse majeure du présent essai est que la mondialisation a révélé les vulnérabilités majeures de l’Europe, ventre mou de l’Occident, qui se retrouve, de par son ouverture sans limites, exposée à toute une série de nouveaux défis qu’elle peine encore plus que les autres grandes puissances à relever : pandémie, chômage endémique, crises économiques et financières récurrentes, dépopulation des campagnes, vieillissement, fuite des cerveaux (notamment vers les États-Unis), bureaucratisation, anémie entrepreneuriale, délocalisations industrielles, dumping social asiatique, concurrence déloyale chinoise, islamisme conquérant, immigration incontrôlée, terrorisme, trafics de drogue et crime organisé, rivalités énergétiques et menaces hydriques.
Un des effets secondaires et curieux de ce processus est que les Européens sont les seuls dans le monde à rejeter et diaboliser leur identités et frontières alors que les autres nations non occidentales, à commencer par la Chine, l’Inde, la Turquie, l’Asie du Sud-Est (etc.), se développent en réaction à l’universalisme occidental et utilisent au contraire la mondialisation comme un levier de leur puissance nationale et civilisationnelle.
L’existence d’une façade maritime ou son absence et donc la recherche d’un accès à la mer, figure depuis des siècles aux tout premiers rangs des préoccupations majeures des grandes nations (voir chapitre X), cet ouvrage évoquant notamment le cas de l’Arménie enclavée et prise en tenailles par ses ennemis turco-azéris, ou celui de la Russie-URSS qui a toujours recherché un accès aux « Mers chaudes 15 », d’où les tensions russo- atlantistes actuelles en mer Baltique, en mer Noire (Ukraine/Crimée), ou même passées lors de l’alliance entre les États-Unis et les moudjahidines après l’invasion soviétique de l’Afghanistan, sur la route directe de l’océan Indien.
Ce constat rend compte également qu’au-delà de la définition même de la géopolitique, l’approche de cette dernière est, depuis des générations, partagée entre deux sensibilités : considérer effectivement que le poids des tendances lourdes est primordial, s’inscrivant ici dans l’héritage d’illustres ancêtres (Jules César qui, à la veille de la conquête de la Gaule, fait étudier minutieusement par ses conseillers les spécificités géographiques du territoire à conquérir et les mœurs et coutumes de ses futurs adversaires ; Richelieu, père des « frontières naturelles », Frédéric II ou Bismarck...), ou au contraire privilégier les variables contemporaines, à l’image de Tamerlan, de Napoléon Bonaparte, du Vietnamien Giap ou des théoriciens comme John Frederick Charles Fuller et Pierre Marie Gallois, lointains disciples du plus génial des géostratèges : Alexandre le Grand.
Ces disciplines, qui se doivent d’être menées de façon dépassionnée et désidéologisée, sont de ce fait aux antipodes du manichéisme idéologique et donc de tout politiquement correct : géopolitologues et stratèges postulent en effet que les États-nations – acteurs géopolitiques majeurs – ont et continueront toujours d’avoir des intérêts froids et des alliés comme des ennemis ; que seuls ceux qui renoncent à leurs prérogatives régaliennes seront désouverainisés par la mondialisation ou le supranationalisme ; et enfin qu’ils sont condamnés à conduire des politiques de civilisation et à se préparer à des menaces – internes ou externes –, à la guerre économique ou à la guerre tout court, s’ils ne veulent pas disparaître.
La relecture de ces grandes écoles de pensée s’interrogeant sur l’avenir du monde postbipolaire peut nous inciter, rétrospectivement, à critiquer ou valider leurs analyses à vocation plus ou moins prédictive, d’autant qu’elles ont toutes abordé d’une façon ou d’une autre la question de la mondialisation et du devenir de l’Empire américano-occidental, aujourd’hui contesté dans ses fondements mêmes par les outsiders.
Il est aujourd’hui encore trop tôt pour pouvoir émettre un jugement objectif sur les prises de position d’un Donald Trump entre 2016 et 2020, d’autant que, en comparaison avec ses prédécesseurs, Trump aura été plutôt un non- interventionniste et n’a pas commis les graves erreurs de politique étrangère de Bill Clinton, George Bush père et fils et même Barack Obama (guerres d’ex-Yougoslavie, Irak 1 et 2, Libye, Afghanistan).
Toutefois, la proposition barberienne de conjurer le scénario chaotique d’un « Mad Max universel » par la réhabilitation de l’État souverain confirme la nécessité que ce dernier demeure l’acteur majeur de la politique mondiale et le fait qu’il soit le cadre le plus approprié pour assurer les droits des citoyens – donc la démocratie elle-même – comme seule alternative viable face aux forces impériales et néobarbares de djihad, de Mad Max et de McWorld qui annoncent la guerre de tous contre tous.
En fin de compte, la multiplication des conflits depuis la fin de la guerre froide peut s’expliquer non seulement par le fait que la sanctuarisation nucléaire ne suffit pas et ne concerne que peu de nations, mais aussi par l’échec patent du multilatéralisme, qui n’a réglé pratiquement aucun des conflits, excepté les exemples discutables des Balkans : échecs au Rwanda, à Chypre, en Israël-Palestine, en République démocratique du Congo, en République centrafricaine, en Syrie, en Libye, en Irak, en Corée du Nord, au Yémen, en Somalie, et aussi sur le dossier nucléaire iranien, les exemples sont trop nombreux pour être tous énumérés.
Le conflit du Haut-Karabagh La récente confrontation armée entre l’Azerbaïdjan et les Arméniens du Haut Karabagh (27 septembre- 10 novembre 2020) n’est que l’énième épisode d’un antagonisme géopolitique violent qui date des années 1988- 1991 : l’Arménie chrétienne ex-soviétique est non seulement enclavée mais surtout prise en tenailles entre Turcs musulmans sunnites à l’Ouest et Azéris musulmans chiites à l’Est (turcophones également), et n’a de bons rapports qu’avec les Russes et dans une moindre mesure, avec les Perses voisins, eux-mêmes concurrents des Turcs et des Russes et méfiants vis-à-vis de l’irrédentisme azéri dans le nord de l’Iran...
En septembre 1991, l’Assemblée nationale du Haut-Karabagh réitéra sa déclaration d’indépendance, ratifiée par le référendum du 10 décembre, avec une écrasante majorité de « oui », mais elle n’a jamais été reconnue par aucun État..., pas même par les Nations unies ou d’autres organisations internationales intergouvernementales qui ne veulent pas compromettre leurs relations avec l’Azerbaïdjan riche en pétrole et bien plus prospère que la petite Arménie enclavée, et sous embargo turco-azéri...
On remarquera en passant que, dans le cadre de ce monde multipolaire en voie de constitution, ce n’est pas le Groupe de Minsk, cité précédemment, qui a fait avaliser le cessez-le-feu du 10 novembre 2020, mais une entente tripartite fort cynique entre l’Azerbaïdjan, la Turquie et la Russie, excluant soigneusement des termes de l’accord les parrains occidentaux du Groupe de Minsk (France, États-Unis) : Erevan s’engage à rétrocéder à Bakou les districts d’Aghdam et de Kelbadjar ; un corridor est aménagé à Latchin ; le retour des personnes déplacées sera effectué sous le contrôle de l’ONU ; et, plus concrètement encore, dès le lendemain de la signature de l’accord, deux mille soldats russes sont déployés le long de l’ancienne ligne de front (voir carte n o 10).
Certes, on n’en est pas là, mais il ne faut jamais oublier, contrairement aux fantasmes de certains russophiles extrêmes, que Moscou n’est pas une puissance idéaliste chrétienne nécessairement proarménienne, mais qu’elle cherche à rester présente sur l’ensemble du Caucase riche en hydrocarbures (Azerbaïdjan), traversé par les routes de transit énergétique, et que dans ce contexte, elle n’a jamais considéré le Haut-Karabagh comme autre chose qu’une partie intégrante du territoire de l’Azerbaïdjan souverain...
Le Président turc a ainsi fait d’une pierre deux coups en appuyant ostensiblement, politiquement et militairement (coordination entre les armées turque et azérie), cette guerre pour les « frères turcs azéris » : il fait oublier des problèmes économiques et politiques intérieurs ; il consolide l’alliance électorale de son parti l’AKP, avec les nationalistes panturcs du MHP ; et il renforce la présence turque dans la région stratégique et riche en hydrocarbures du Caucase turcophone (mer Caspienne), alors que la Turquie manque d’énergies fossiles et ne veut pas trop dépendre du gaz russe.
Côté ukrainien, certaines sources indiquent qu’il y aurait également une volonté de reproduire le scénario azéri, pour récupérer militairement les territoires russophones rebelles de l’Est, l’Ukraine escomptant que la Russie n’ose pas intervenir massivement et directement dans le Donbass pour plusieurs raisons : primo, Moscou n’a pas le droit légal d’intervenir sur le sol ukrainien dont le Donbass (voir carte n o 14) fait partie, sachant que l’indépendance de ces républiques autoproclamées n’a jamais été reconnue par les autorités russes elles-mêmes (comme celle du Haut-Karabagh).
On peut citer, par exemple, la guerre civile syrienne, sur laquelle nous reviendrons, celle du Yémen, toujours en cours, qui oppose rebelles chiites-houthistes soutenus par l’Iran, d’une part, aux sunnites progouvernementaux liés aux Frères musulmans et aux monarchies du Golfe, de l’autre, soutenus par les États-Unis et l’Occident ; le conflit intercommunautaire opposant les Philippines à la Malaisie dans l’État malaisien de Sabah (2013) ; les conflits africains, surreprésentés : Congo/Kinshasa 17 ; Ethiopie, où les rebelles de la région dissidente du Tigré (Nord), en guerre contre le pouvoir central et son ethnie majoritaire (Oromo), ont pris les principales villes de la zone, Adigrat, Shiré et depuis le 29 juin 2021, la capitale régionale Mekele ; Côte d’Ivoire (opposition entre ethnies rivales, Nord rebelle et capitale, puis entre pro-Gbagbo et pro-Ouattara) ; Kivu 18 ; République centrafricaine (luttes interethniques et conflits sédentaires chrétiens/musulmans venus du Nord), génocides du Soudan (1990- 2000 : chrétiens du Sud-Soudan et musulmans noirs du Darfour exterminés par la junte nationale-islamiste arabe du Nord) ou du Rwanda (1994, Hutus contre Tutsis).
Cet archipel revêt un fort intérêt économico-stratégique pour la Russie, car il recèle des réserves minières et de terres rares, comme le rhénium 23 , ainsi que des gisements de pétrole et de gaz, il constitue aussi une porte stratégique sur le Pacifique pour les deux bases navales russes de Vladivostok, d’où les navires partent via le détroit qui ne gèle pas en hiver entre les îles Kounachir et Itouroup, deux des quatre îles Kouriles ; le contentieux autour des îles Senkaku (ou Diaoyu en chinois), revendiquées par ces mêmes puissances où la situation est devenue très conflictuelle depuis que le gouvernement japonais a décidé, en septembre 2012, de nationaliser trois des cinq îles de l’archipel 24 qui se situent en mer de Chine orientale.
Le Viêtnam, puissance émergente du monde multipolaire, qui tente de réaffirmer sa maritimisation régionale, ne pouvant pas lutter à armes égales contre la Chine, mise sur le dispositif de l’Asean (voir cartes n os 3 et 4), qui inclut des pays partageant les mêmes préoccupations (Malaisie, Philippines, Brunei), et se rapproche des États-Unis, l’ancien ennemi juré, ainsi que de l’Inde, et de l’Australie dans une logique d’endiguement de la Chine.
Outre ces contentieux historiques, dont Hong Kong est un des symboles, deux faits majeurs ont rappelé que la Chine est de plus en plus sûre d’elle- même : parallèlement aux incidents de frontières avec la Russie le long du fleuve Amour – rivalité qui persiste malgré leur alliance stratégique au sein de l’OCS (voir chapitre V) –, son contentieux avec l’Union indienne, d’une part, et son souci de s’affirmer comme une véritable puissance maritime, d’autre part, sont des tendances lourdes.
Deux contentieux frontaliers ont ainsi resurgi récemment entre la nouvelle superpuissance chinoise et l’Union indienne, puissance nucléaire depuis 1974 : après une période de relative accalmie, les pays rivaux sont en situation de conflit latent à l’est du Cachemire (également source de conflits pérennes avec le Pakistan, autre puissance nucléaire), et l’on se souvient de la guerre sino-indienne de 1962, brève mais très violente, pour le contrôle des territoires himalayens.
Un monde d’incertitudes, de risques asymétriques et de retour des conflits de haute intensité Pour récapituler, dans le monde instable et multipolaire qui vient, les conflits majeurs et potentiels – qui ne comprennent pas les risques climatiques ou sanitaires, plus indépendants des agendas politiques et géopolitiques et étudiés plus loin – peuvent être fondés sur : des antagonismes géoénergétiques ou autour de l’eau et des terres rares ; la persistance des rivalités et conflits infra-étatiques internationalisés ou régionalisés ; la guerre géoéconomique et financière autour des rivalités entre l’Occident et ses outsiders et entre les acteurs principaux du monde polycentrique ; des conflits identitaires que Samuel Huntington a rangés dans la catégorie des « chocs de civilisations » ; des phénomènes migratoires de masse incontrôlés ; le terrorisme international, très majoritairement islamiste ; les chocs des empires naissants ou résurgents (néo-ottomanisme turc versus nationalismes arabes et Europe ; États-Unis versus Chine et Russie).
Les États-Unis, l’Alliance atlantique et l’Union européenne – vassalisée depuis 1950 – ont étendu leur puissance vers l’Europe centrale et orientale, jusqu’aux pays baltes et aux Balkans, ce qui a été ressenti par la Russie comme une humiliation, car il s’agit de son ancienne zone d’influence du temps de la guerre froide.
À cet égard, les premières déclarations et décisions du président Joe Biden, pourtant supposé être plus mesuré que son prédécesseur Donald Trump, n’ont pas été dans le sens de l’amélioration des relations russo-américaines : après avoir qualifié (17 mars 2021) Vladimir Poutine de « meurtrier », Joe Biden a accusé la Russie d’essayer de continuer à influencer la politique intérieure américaine et il a non seulement renforcé les sanctions contre Moscou en mettant sur une liste noire trente-cinq personnes morales et physiques russes, mais aussi interdit aux entreprises et citoyens américains d’acquérir et acheter des bons du Trésor russe destinés à financer la dette de la Russie.
Certes, l’OCS est composée, comme les Brics (Brésil, Russie, Inde, Chine, Afrique du Sud), d’États parfois ennemis entre eux (l’Inde et la Chine), mais outre que la Chine et la Russie, son noyau dur, sont des alliées stratégiques face à l’Otan et aux États-Unis, elle représente tout de même un ensemble multipolaire qui dispose de 38 % des ressources mondiales de gaz, de 20 % de celles en gaz, de 40 % du charbon, de 30 % de l’uranium de la planète et des deux armées les plus puissantes après les États-Unis, de surcroît nucléaires.
Ce mouvement renforcera non seulement les liens entre la Chine, la Russie, l’Iran et l’Inde, mais il attirera aussi contre lui des pays du monde musulman et des acteurs souverainistes pas forcément antioccidentaux, pour qui l’hégémonie américaine est rédhibitoire, donnant ainsi corps à l’alliance antihégémonique que redoutait tant Zbigniew Brzezinski dans Le Grand Échiquier.
Le nombre de grandes puissances va être plus élevé qu’il ne l’a jamais été par le passé : on trouve tout d’abord le « club des sept empires » (Giannulli), à savoir les États-Unis, l’Union européenne, le Japon, le Brésil, la Russie, l’Inde et la Chine, qui représentent à eux seuls plus de 50 % de la population mondiale et 75 % du produit intérieur brut (PIB) mondial, puis viennent dans un second cercle de puissances de moindre poids l’Afrique du Sud, la Colombie, l’Indonésie, l’Égypte, l’Iran, la Turquie, chacune de ces puissances évoluant dans leur « étranger proche » sur la base de leurs propres valeurs et intérêts, portant ainsi une vision spécifique.
La crise économique et financière a par ailleurs accentué le phénomène de rééquilibrage économique et géopolitique mondial en faveur d’une participation plus importante des pays non occidentaux aux affaires du monde : la part de l’Asie dans l’économie mondiale est passée de 7 % en 1980 à 30 % en 2020, tandis que les marchés d’Asie représentent aujourd’hui 34 % de la capitalisation boursière mondiale (devant les États-Unis, 29 %, et l’Europe 24 %).
L’Union européenne est aujourd’hui une organisation hybride : un Ogni, un objet géopolitique non identifié : elle n’est ni un État, ni une fédération, ni même une confédération, mais une organisation internationale très divisée et hétérogène, unie en apparence seulement par une idéologie sociale-démocrate universaliste et une économie de marché, qui s’applique à elle-même des règles de limitation des souverainetés, de répression des identités nationales, d’ingénuité géoéconomique, de strict respect de la concurrence, de protection des travailleurs et de l’environnement ou de multiculturalisme, que les autres acteurs du monde ne s’appliquent pas à eux-mêmes, mais exigent opportunément d’elle, dans l’intention de la conquérir.
Rejet de l’occidentalisation et de la domination américaine Les nouveaux dispositifs géopolitiques mis en œuvre depuis la fin de la guerre froide par les partisans d’un nouvel ordre international polycentrique, émancipés de l’hégémonie de l’Occident et des États-Unis, donc en quête de « désoccidentalisation », appartiennent à deux grands groupes : premièrement, les groupes d’États qui s’opposent à l’Occident, combattent ses valeurs et sa civilisation ; deuxièmement, ceux qui ne sont pas forcément antioccidentaux mais qui veulent un monde multipolaire fondé sur le respect de la souveraineté des États maîtres de leurs zones d’action géopolitique, économique et stratégique respectives.
D’après Ziegler, cette haine antioccidentale paralyse les Nations unies : l’Assemblée générale de l’ONU est d’ores et déjà composée en grande majorité de pays du Sud et émergents (Afrique, Asie du Sud, Amérique latine, monde islamique-OCI, OCS, Brics, etc.), qui contestent l’unipolarité du monde, alors que l’organe décisionnel stratégique (les cinq États membres permanents du Conseil de sécurité) demeure dominé par des États vainqueurs de la Seconde Guerre mondiale (États-Unis, France, Grande-Bretagne, Russie, Chine) qui refusent pour l’heure de revoir cette composition qui ne reflète pourtant plus du tout l’état du monde dans sa pluralité ni l’émergence de nouveaux acteurs stratégiques clés du Sud, comme l’Inde, le Brésil ou l’Afrique du Sud. Tant à la conférence antioccidentale de l’ONU organisée à Durban, en 2000 puis en 2009 (« Durban II »), qu’au Conseil des droits de l’homme des Nations unies à Genève ou à l’Assemblée générale des Nations unies, à New York, on constate la radicalisation d’un front antioccidental, rappelant à la fois l’expérience de la Tricontinentale et des non-alignés, et unissant, contre Israël, les États-Unis, et les pays industriels démocratiques des États aussi différents que l’Égypte, le Pakistan, Cuba, la Bolivie, le Venezuela, les États membres des groupes africains, arabes, musulmans (OCI) et latino-américains, la Corée du Nord, la Chine ou la Russie (Brics, OCS, États non-alignés).
La Chine va ainsi asseoir encore son influence économique et industrielle sur toute l’Asie, en déployant de nouvelles chaînes de production en Asie du Sud-Est, sanctuarisant de ce fait sa puissance industrielle et commerciale et contestant le réseau d’alliances militaires et économiques des États-Unis par une stratégie économico-financière de contre-encerclement asymétrique, qui va de pair avec la stratégie du collier de perles et l’initiative BRI...
Cette théorie néo-impériale de l’État universel islamique s’oppose par principe à la coexistence d’une pluralité d’États égaux et souverains, et c’est pour cette raison notamment que l’islamisme radical n’est pas qu’une menace terroriste (partie émergée de l’iceberg totalitaire) mais avant tout un défi géopolitique et stratégique pour tous les États-nations attachés à leur souveraineté et à leur pérennité, qui voient dans l’islamisme un projet subversif à la fois séparatiste (en interne) et suprémaciste conquérant (au niveau externe).
Cette idéologie fondée sur le règne de la charia et du califat planétaire, appelée à soumettre, de gré ou de force, l’humanité (voir carte n o 8), est portée depuis des décennies par des grands pôles étatiques 8 : le wahhabisme salafiste officiel d’Arabie saoudite, avec son bras prosélyte mondial, la Ligue islamique mondiale ; le pôle indo-pakistanais, cofondateur du Jamaat al-islamiyya ; des talibans d’al-Qaida ; le Qatar, parrain du Hamas et des Frères musulmans, à la tête du média planétaire Al Jazeera ; le pôle néo-ottoman réhabilité par la Turquie postkémaliste de Recep Tayyip Erdoğan ; la révolution islamique iranienne chiite, influencée dans ses origines par les Frères musulmans bien qu’étant chiite ; sans oublier les puissantes institutions et organisations internationales panislamiques comme l’Organisation de la coopération islamique (voir infra), qui réunit cinquante-sept pays musulmans désireux d’instaurer un ordre international alternatif fondé sur la charia, l’Organisation du monde islamique pour l’éducation, les sciences et la culture (Isesco, sorte d’« Unesco » islamique, influencée par les Frères musulmans) ; et enfin, les grandes centrales terroristes comme al-Qaida ou Daesh, et les groupes franchisés associés comme Aqmi, Boko Haram, shebab somaliens, etc.
Concernant la Syrie, la situation est loin de s’améliorer et toute l’action des Occidentaux, encore obnubilés par leur stratégie d’endiguement de la Russie et de ses alliés stratégiques iranien et syrien, semble concourir à faire le jeu de l’islamisme et du djihadisme : en juin 2019, Washington a fait adopter de nouvelles sanctions à travers la loi César (Caesar Syria Civilian Protection Act), extraterritoriale, qui prévoit d’interdire l’entrée aux États-Unis et de barrer l’accès au système financier américain à toute personne, institution ou entreprise soutenant l’État syrien dans la reconstruction ou les hydrocarbures (y compris la vente).
Si les États-Unis retirent des milliers de soldats d’Afghanistan, al-Qaida est également bien placée pour profiter du vide qui en résulte et régénérer son réseau dans toute l’Asie du Sud. L’organisation, toujours dirigée par l’un de ses fondateurs historiques, Ayman al-Zawahiri, a survécu pendant plus de trois décennies grâce à la capacité du groupe à innover en affinant constamment des tactiques, des techniques et modus vivendi caractérisés par une très forte capacité d’adaptation selon les circonstances, les contextes culturels et les zones géographiques.
Ces pôles institutionnels de l’islamisation qui dénoncent verbalement la violence djihadiste tout en affirmant qu’elle n’a « rien à voir avec l’Islam » – et donc en niant son existence même – pratiquent de leur côté une ingérence politique dans les affaires de tous les pays du monde où vivent des musulmans, sous couvert de défense de l’islam et des musulmans « persécutés », se nourrissant aussi d’une « islamophobie » souvent imaginaire.
Toujours est-il qu’une des conséquences principales des sanctions renforcées par Donald Trump (« pression maximale ») a été le renforcement de la coopération irano-chinoise qui a franchi un nouveau cap avec l’officialisation d’un accord stratégique de vingt-cinq ans entre les deux pays en mars 2020, un rapprochement que voudrait éviter à tout prix Joe Biden mais qui participe d’une tendance lourde inhérente à la multipolarisation et aux rivalités entre les États-Unis et le tandem russo-chinois 19 .
De fait, leur influence financière, économique, politique et souvent même géopolitique, est impressionnante, et grâce à cette force financière et géoéconomique, les FMN ont toujours plus d’ambition pour se mesurer aux États, voire tenter de les dépasser dans certains domaines, ainsi qu’on l’observe de façon flagrante avec Tesla et le projet spatial de son P-DG, Elon Musk, qui a conçu et mis en service des lanceurs réutilisables sur sa fusée Falcon 9 (la plus puissante du monde). | Ouvrages des mêmes auteurs Alexandre Del Valle – Le Projet (L’Artilleur, 2019) – La Stratégie de l’intimidation (L’Artilleur, 2018) – Les vrais ennemis de l’Occident (L’Artilleur, 2016) – Comprendre le chaos syrien (avec Randa Kassis, L’Artilleur, 2016) – Le Complexe occidental (L’Artilleur, 2014) – Pourquoi on tue des Chrétiens aujourd’hui dans le monde (Maxima, 2011) – La Turquie dans l’Europe (Syrtes, 2004) – Islamisme et Etats-Unis, une alliance contre l’Europe (L’Age d’homme, 2000) Jacques Soppelsa – Les sept défis capitaux du nouvel ordre mondial (A2C, 2009) – Géopolitique du monde contemporain (en collaboration, Nathan, 2008) – Les Etats-Unis. Une histoire revisitée (La Martinière – Seuil, 2004) – Les dates clefs du dialogue régionale en Amérique latine (Ellipses, 2002) – Géopolitique de l’Asie-Pacifique (Ellipses, 2001) – Dix mythes pour l’Amérique (Ellipses, 1997) – Léxique de géopolitique (Dalloz, 1997) ISBN : 978-2-81001-023-3 © 2021, Éditions de l’Artilleur / Toucan – éditeur indépendant 16 rue Vézelay – 75008 Paris www.lartilleur.fr Le Code de la propriété intellectuelle interdit les copies ou reproductions destinées à une utilisation collective. Toute représentation ou reproduction intégrale ou partielle faite par quelque procédé que ce soit, sans le consentement de l’auteur ou de ses ayants cause, est illicite et constitue une contrefaçon sanctionnée par les articles L. 335-2 et suivants du code de la propriété intellectuelle. Ce document numérique a été réalisé par Nord Compo. « Le vieux monde se meurt, le nouveau monde tarde à venir et dans ce clair-obscur surgissent les monstres. » Antonio Gramsci « Nous sommes entrés dans un monde en transformation rapide qui présente de formidables opportunités, notamment technologiques. Mais ce monde est aussi celui de l’incertitude et de l’instabilité, où le rapport de force redevient le mode de règlement des différends entre Nations. Le combat de haute intensité devient une option très probable. » Thierry Burkhard, chef d’état-major de l’armée de terre française SOMMAIRE Titre Ouvrages des mêmes auteurs Copyright Exergue Prélude Chapitre I - Déclin de l’Occident ? Mondialisation américaine McWorld ? La mondialisation, apogée ou crépuscule ? Ventres mous civilisationnels versus ventres durs identitaires Déclassement de l’Occident et mondialisation du virus Les leçons de la gestion chinoise et asiatique de la crise sanitaire L’Europe dupe de son interprétation utopique de la mondialisation Désoccidentalisation, antiaméricanisme et rejet des institutions multilatérales héritées de 1945 Défis géopolitiques : constantes et variables Les tendances lourdes Variables contemporaines Partie I - Les tendances lourdes Chapitre II - La période contemporaine : ordre ou désordre ? Djihad versus McWorld ? Chapitre III - De la multiplication des conflits Multiplication des conflits infra-étatiques internationalisés Échec du multilatéralisme ? Le conflit du Haut-Karabagh Deux principes de légitimité s’opposent Du rôle de la communauté internationale Le retour de la guerre dans le Caucase La Turquie est entrée en scène... Les leçons de la guerre du Haut-Karabagh Le spectre d’une guerre interétatique entre l’Ukraine et la Russie Stratégies et buts de guerres de part et d’autre Taiwan : vers un affrontement direct Chine-États-Unis ? La « surreprésentation » des conflits intraétatiques Trente-sept conflits ouverts en cours aujourd’hui La zone Sahel devenue une des plus létales au monde... L’incessant conflit du Cachemire entre Inde et Pakistan La multiplication des tensions et conflits locaux en Asie La Chine à l’assaut de la mer de Chine méridionale L’aberration géopolitique de la question nord-coréenne La superpuissance montante et revancharde chinoise Un monde d’incertitudes, de risques asymétriques et de retour des conflits de haute intensité Chapitre IV - De l’ancienne à la nouvelle guerre froide ? L’Europe, théâtre de guerre nucléaire entre États-Unis et Russie ? L’occasion manquée de l’alliance russo-occidentale (1999-2003) La rupture stratégique des années 2003-2005 La Russie, une menace plus grande que le terrorisme islamiste pour les atlantistes... L’OCS, ou l’alliance « antihégémonique » russo-chinoise redoutée par Brzezinski Chapitre V - ... ou désordre mondial multipolaire ? Fractures internes et externes Le monde n’appartiendra plus à personne... La stratégie du collier de perles Outsiders, émergents, Brics, acteurs de la désoccidentalisation du monde Inexorable montée en puissance de l’hégémon chinois Patriots vs McWorldists ? L’Europe : « impuissance volontaire » et dindon de la farce de la mondialisation ? Un objet « géopolitique non identifié » et postcivilisationnel Rejet de l’occidentalisation et de la domination américaine Monde multipolaire ou polycentrique Désoccidentalisation de la mondialisation marchande et technologique La région Asie, nouveau phare du monde Chapitre VI - Géopolitique linguistique : le français vecteur multipolaire ? L’emprise de l’anglo-américain Le paradoxe québécois Francophonie avec un grand F : l’Organisation internationale de la francophonie Partie II - Variables contemporaines Chapitre VII - Islamisme et terrorisme mondialisés De quoi parle-t-on au juste ? Les pôles majeurs du totalitarisme vert : de l’islamisme institutionnel au djihadisme L’erreur occidentale et atlantiste des alliances contracivilisationnelles État des lieux et stratégies du djihadisme Une menace asymétrique à la fois exogène et endogène Djihadisme low cost ubérisé Situation actuelle/future de Daesh/al-Qaida Daesh n’est pas mort Daesh conserve un trésor de guerre et de dizaines de milliers de combattants djihadistes Al-Qaida redevenue la plus puissante organisation terroriste L’Asie du Sud, nouvel horizon des centrales djihadistes Le djihadisme en pleine ascension au Sahel Les islamistes ont une vraie stratégie, contrairement à leurs ennemis et à l’Occident... Nomades musulmans peuls fuyant la désertification en razziant les sédentaires du Sud : un double mouvement de fond climatique et civilisationnel Extension du domaine du djihadisme : de la Somalie à l’Afrique australe Le terrorisme islamiste : guerre psychologique et propagande par l’action Les cerveaux djihadistes recrutent des délinquants pour leur aptitude à la violence L’efficacité de la stratégie de l’intimidation Le continuum djihadisme-islamisme et le chantage à l’islamophobie La vulnérabilité des sociétés démocratiques et multiculturelles Chapitre VIII - Prolifération nucléaire et aléas du désarmement Des origines du nucléaire militaire à l’échec des traités de désarmement et de non-prolifération Les conséquences géopolitiques de l’atome Bouleversement des hiérarchies militaires étatiques classiques Le « club nucléaire » La prolifération nucléaire Le cauchemar du « terrorisme nucléaire » Quid de l’Iran ? Le commerce des armes à l’heure du système postbipolaire Contrôle des armements ? Désarmement ? Le maigre bilan de décennies de désarmement Les accords bilatéraux de Salt I et Salt II La période 1985-2020 : du contrôle des armements au concept de désarmement, Start I, Start II, Start III et New Start Les traités multilatéraux Relance de la course aux armements sur fond de néoguerre froide... Chapitre IX - Le crime organisé : grand gagnant de la mondialisation ! Blanchiment : la mondialisation financière et le capitalisme dérégulé, des opportunités pour le crime organisé Le trafic de drogue, entreprise presque aussi lucrative que le pétrole ! Le trou noir narco-islamiste afghan Géographie du crime organisé Mafias italiennes Mafias albanaises Les cartels d’Amérique centrale Mafias russophones Mafia nigériane La France, les quartiers de non-droit ou la loi des caïds Drogue et terrorisme : la face cachée mafieuse de Daesh et al-Qaida Trafic d’êtres humains et prostitutions : esclavage des temps modernes L’incroyable business de l’immigration clandestine Les passeurs de clandestins, à la pointe du marketing digital et de la mondialisation... Trafic d’organes Trafic d’espèces sauvages et braconnage Contrefaçon et mondialisation marchande Trafics d’armes L’arrivée sur le marché des armes 3D... La 5G sera un casse-tête sécuritaire Cybercriminalité et Darknet Les criminels profitent de la crise sanitaire ! Chapitre X - Géopolitique écoénergétique, guerres du gaz et guerres de l’eau... La menace du réchauffement climatique et de ses conséquences Les climatosceptiques en question Les éléments de préoccupation s’accumulent L’accord de Paris, enjeux de rivalités de leadership entre nations Transition énergétique et croissance économique : l’ultrapolarisation du débat aux États-Unis Vers une « civilisation écologique », le nouveau leitmotiv de Xi Jinping Le projet chinois de « croissance verte », aux antipodes de la décroissance des écolos européens : un autre grand déclassement en cours... Vers un nouveau paradigme écoénergétique Depuis la COP 21, les tentatives de résurgence de l’Ancien Monde paraissent peu à peu s’éloigner... Pétrole et gaz de schiste et filières nucléaires, les énergies renouvelables n’ont pas encore gagné la partie... Les gazoducs russo-européens, des épines dans le pied pour l’hégémon américain... Le nucléaire : énergie de tous les dangers pour certains, solution de décarbonation pour d’autres... La Chine une fois de plus leader dans le domaine L’enjeu géoéconomique majeur des terres rares, la Chine toujours no 1 Les terres rares, clé des énergies renouvelables, mais désastre pour l’environnement... Stress hydrique et barrages : les guerres de l’eau en question Quelques chiffres Le contrôle des rivières, mers et océans, source de conflits Guerres de l’eau entre la Turquie et ses voisins La Turquie à l’assaut des réserves de gaz et de pétrole de Méditerranée orientale Conflit avec Chypre et la Grèce Conflit avec l’Égypte autour de la Méditerranée et de la Libye De l’Asie centrale au Golfe arabo-persique La Chine à la conquête de la puissance maritime et des ressources subaquatiques Partie III - Nouveaux défis Chapitre XI - Les défis démographiques 1/ L’explosion démographique. De quelques chiffres édifiants Explosion de la population mondiale Le déséquilibre démographique international L’hiver démographique des Occidentaux et d’une partie de l’Asie ? Russie, trop grande trop vide... La démographie, un facteur critique pour l’alimentation Relativisons les chiffres catastrophiques Démographie et Inégalités 2/ Les migrations internationales « Préparez Venus viendra Mars... » Les conséquences sociopolitiques et géocivilisationnelles de l’immigration Quelques chiffres qui parlent d’eux-mêmes Le droit d’asile, principal prétexte à la migration clandestine Le tabou du coût de l’immigration Pause migratoire ? Chapitre XII - Puissances multinationales et digitales face aux États souverains La puissance des firmes multinationales Délocalisation, fiscalité avantageuse et comportements parfois criminels Les Gafam en question... ou l’économie virtuelle à l’assaut du monde ancien La puissance financière, politique et technologique démesurée des Gafam Multinationales prédatrices et capitalisme ubérisé : l’émergence d’un nouveau sous-prolétariat Le bras de fer entre les cryptomonnaies et les États Liberté individuelle, espionnage Les Gafam, danger pour les États... sauf pour les deux hyperpuissances qui les ont créés... Réseaux sociaux, entre trop grande liberté et néocensure très orientée... Oligopole des Gafam face au Big Brother chinois des « BATX » La guerre froide sino-américaine et l’enjeu géoécomique majeur de la 5G « Le Yalta des mondes digitaux » La nationalisation des moyens d’information Chapitre XIII - Crise sanitaire et biotech, l’Europe déclassée ? État des lieux et chiffres La crise économique est une crise sanitaire Géopolitique de la Covid-19 L’endettement colossal et le spectre d’une banqueroute de l’économie mondialisée La France et l’Europe au bord de la faillite ? Explosion de la dette et risque d’implosion de l’euro Perdants et gagnants de la crise sanitaire Biotech, ordinateurs quantiques, thérapies génétiques : la Chine et l’Asie en voie de déclasser l’Occident ? Nanotechnologies Physique et Internet quantique Médecine régénérative et édition génomique Chapitre XIV - Démondialisation ou désoccidentalisation de la mondialisation ? Postmondialisation ? Ralentissement de la mondialisation chinoise et postmondialisation régionalisée De la troisième vague de mondialisation à la démondialisation Doublement du commerce extérieur en valeur, mais augmentation très modérée du taux d’importation Des échanges de services demeurés localisés Le retour du bilatéralisme, reflux des investisseurs internationaux et reréglementation financière Reréglementation financière, effets du Brexit et renationalisations tous azimuts Monétisation et nationalisation de la dette publique Flottement des changes et retour au contrôle des changes L’arrêt durable des voyages d’affaires et du tourisme de masse Conclusion - Gouverner c’est prévoir, le désordre actuel était prévisible... Cartes géopolitiques Bibliographie des ouvrages cités Index des noms propres Remerciements Prélude Cet ouvrage a été écrit à quatre mains, par deux géopoliticiens appartenant à deux générations successives, mais complémentaires. La mienne a été en quelque sorte pionnière, lorsque, avant même d’être nommé président de l’Université de Paris Panthéon Sorbonne (1982-1989), à une époque où la géopolitique n’était pas à la mode, je fus titulaire, en 1978, de la première chaire de Géopolitique, recréée en Sorbonne, après des décennies de mise à l’écart d’une discipline bafouée par les errements de Karl Haushoffer et de ses disciples... Vingt-deux ouvrages et des années plus tard, je me félicite du fait que notre discipline soit désormais en odeur de sainteté et « démocratisée », même si l’on peut déplorer des usages parfois intempestifs du terme par des journalistes. Parallèlement aux travaux d’Yves Lacoste, puis, un peu plus tard, à ceux de Michel Korinmann, de François Thual ou de Pascal Lorot, et dans le sillage du général Pierre Marie Gallois, nous fûmes en quelques sorte des pionniers de l’école française de géopolitique, aujourd’hui écoutée ailleurs dans le monde, notamment en Italie ou aux Etats-Unis. La génération d’Alexandre del Valle, auteur prolixe, que j’ai suivi depuis ses premières publications, assure la relève. Et c’est dans cet esprit intergénérationnel et de complémentarité, que j’ai eu l’idée d’écrire avec lui, en novembre dernier, le présent ouvrage. J’avais d’ailleurs envisagé au départ de l’intituler Le nouveau désordre mondial, mais le texte a évolué aux cours des mois et de nos échanges, à l’image de la démarche géopolitique faite de constantes et de variables, au point d’aborder des domaines et pistes d’étude au départ non envisagés. Del Valle figure depuis de nombreuses années aux tous premiers rangs de cette nouvelle génération de géopoliticiens qui n’a guère à rougir de la comparaison avec son homologue anglo-saxonne. Souhaitons ainsi que notre collaboration contribue, aux yeux de ses lecteurs, à l’intérêt de cet ouvrage. Au-delà de la géopolitique, c’est aussi un même lien d’amitié avec le personnage hors pair qu’était Pierre-Marie Gallois, l’un des grands de cette discipline, qui a achevé de nous convaincre de commettre ensemble ce manuel de géopolitique engagé. Nous dédions La Mondialisation dangereuse à ce stratège de renommée mondiale admiré par des personnalités aussi illustres et différentes que Jean-Pierre Chevènement ou Henri Kissinger, lequel venait le consulter à Paris. Gallois nous a beaucoup transmis. Il venait d’ailleurs de la génération d’avant la mienne : il avait connu les deux guerres mondiales. Sa carrière de militaire, fut hors-norme (officier-pilote, résistant engagé dans la Royal Air Force contre l’Allemagne nazie, stratège et conseiller de Charles De Gaulle, père de la force de frappe nucléaire française, impliqué dans le programme nucléaire israélien) et son parcours intellectuel, tout d’abord au sein de la revue créée à Londres par Raymond Aron sur demande de De Gaulle, La France Libre, puis comme enseignant de géopolitique et de stratégie à l’OTAN et à l’Ecole de Guerre, puis, bien sûr comme essayiste, fut exceptionnel. Ses ouvrages 1 remarqués sur les folles aventures militaires des Etats-Unis en ex-Yougoslavie et en Irak nous inspirent encore. Dans les années 1990, alors qu’il écrivait son oeuvre, il échangeait régulièrement avec nous, à son domicile de la rue Rembrandt, à Paris, comme à l’Institut international de géopolitique de Marie France Garraud. Jusqu’au soir de sa vie, il garda son extraordinaire perspicacité quant à l’évolution du monde. Lucide jusqu’au pessimisme, mais jamais passéiste ou dépassé, ce polyglotte au savoir encyclopédique portait un regard sans concession sur l’évolution de la France, de l’Europe, de l’Occident et du monde. Il entrevoyait le désordre mondial en devenir ; le processus inexorable de la multipolarisation de l’échiquier mondial post-Guerre froide et de sa désoccidentalisation ; la montée de la Chine et des puissances émergentes et ou revanchardes d’Asie et du Sud ; le péril de l’islamisme radical, longtemps encouragé par les Occidentaux, surtout américains ; les effets paradoxaux et dangereux d’une nucléarisation militaire mondiale désormais hors de contrôle, de surcroît accélérée par la nouvelle guerre froide Occident-Russie qu’il déplorait. Il redoutait aussi les revers de la mondialisation marchande anglo- saxonne, objet central de ce livre, tout aussi incontrôlable et de plus en plus subvertie par la Chine au détriment des dindons de la farce ouest-européens, et il déplorait le processus de dévalorisation de l’intérêt général et du sens national, phénomène de société purement occidental qui promettait, selon lui, nos vieilles sociétés ouest- européennes au déclin, qu’il nommait la « sortie de l’Histoire ». Gageons qu’il ait péché par excès de pessimisme... Jacques Soppelsa 1. Géopolitique : Les Voies de la Puissance, Paris, Plon, 1990 ; La France sort-elle de l’histoire ? Paris, L’Age d’Homme, 1999 ; Le Sang du pétrole, les guerres d’Irak, 1990-2003, Paris, L’Age d’Homme, 2002 ; L’heure fatale de l’Occident, Paris, L’Âge de l’Homme, 2004. CHAPITRE I Déclin de l’Occident ? « Chaque culture traverse les phases évolutives l’homme en particulier. Chacune a son enfance, sa jeunesse, sa maturité et sa vieillesse. » Oswald Spengler, Le Déclin de l’Occident (1918) Spengler avait-il raison ? Dans son essai Le Déclin de l’Occident 1 , le philosophe allemand, adepte d’une vision des civilisations marquées par des phases d’expansion, d’apogée et de chute, annonçait le déclin de l’Occident au moment même de son zénith. Les Européens étaient les maîtres incontestés du monde, de la science, de la technologie, des échanges et de l’industrialisation. Le paradoxe n’est qu’apparent, car l’expansion et le progrès ne sont jamais des acquis définitifs et ils peuvent précéder des processus d’involution et de régression. En dépit de son déterminisme historique, Spengler avait pressenti il y a un siècle que l’Occident – alors encore colonial – allait être détrôné, rongé qu’il était déjà de l’intérieur par des doutes existentiels qui allaient en faire une civilisation complexée. Beaucoup se réfèrent encore à lui parmi les déclinistes pour annoncer le déclassement de la vieille Europe, freinée par sa réticence à employer le hard power, sa culpabilisation civilisationnelle, son formalisme juridico-constitutionnel, ses scrupules moraux qui l’empêchent d’engager une politique de puissance, comme on le constate depuis les années 2010 vis-à-vis de la Turquie conquérante d’Erdoğan. Les Européens brillent d’ailleurs de plus en plus par leur absence un peu partout dans le monde, si l’on met de côté les cas de la France et de la Grande- Bretagne. Si l’on s’interroge sur l’état actuel de l’Occident, on constate un lien évident entre ce qu’a annoncé Spengler et les conséquences de la mondialisation qui, dans sa lecture sans frontiériste, implique un effacement des identités et du principe même de souveraineté. Presque cent ans plus tard, à l’analyse de Spengler fait étonnamment écho le positionnement décomplexé des puissances du nouveau monde multipolaire comme la Russie de Vladimir Poutine, la Turquie de Recep. Tayyip Erdoğan, l’Inde de Narendra Modi, et, bien sûr, la Chine de Xi Jinping, qui semble incarner le contre-modèle – autoritaire, certes – le plus efficace face au système libéral-démocratique occidental. Ces puissances, qui voient, à tort ou à raison, l’Occident impérial comme une civilisation déclinante et décadente, sont toutes souverainistes donc aux antipodes de l’universalisme occidental. De ce point de vue, la mondialisation, comprise par les élites américaines et ouest-européennes comme le triomphe de leur idéologie planéto-libertaire devant nécessairement déboucher sur la fin des identités, peut être analysée comme une dernière phase d’un processus « morphologique » de disparition civilisationnelle pour paraphraser Spengler. Ceci conduit surtout la vieille Europe à délégitimer la puissance souveraine et sa propre identité au nom d’une vision internationaliste qui est non seulement vouée à l’échec, mais qui ne peut qu’accentuer la propension des autres civilisations à haïr l’Occident, dont l’Union européenne apparaît comme le ventre mou voué à servir les intérêts de l’Empire anglo- américain. De fait, le déclin de l’Occident complexé semble plus concerner, aujourd’hui, le Vieux Continent que les États- Unis, lesquels n’ont pas renoncé à la recherche de la puissance et de l’hégémonie, et investissent bien plus que les Européens dans l’innovation, la R&D, les applications, le soft power et la puissance militaire. Toutefois, la fracture croissante au sein de la société américaine qui oppose – jusqu’au risque de nouvelle guerre civile – l’Amérique WASP judéo-chrétienne européenne conservatrice, d’une part, à l’Amérique-monde démocrate, multiculturaliste, de l’autre, montre que la puissance étatsunienne elle-même peut être prise au piège de sa propre doxa planétariste. Notre diagnostic est que si cette idéologie de la mondialisation (McWorld) a été mise en œuvre au départ par l’hyperpuissance américaine pour asseoir sa domination planétaire en détruisant la souveraineté et les traditions culturelles des autres nations – mais pas la sienne ! –, ses effets en termes de déstructuration et d’hétérogénéisation identitaire s’avèrent à terme subversifs, y compris pour ses créateurs américains, désormais incapables de contrôler leur Golem. C’est là tout le problème « géocivilisationnel » de l’Occident. Mondialisation américaine McWorld ? Si la mondialisation marchande à l’anglo-saxonne s’est faite au détriment d’autres types de capitalismes (modèles scandinave, germano-français ou méditerranéen), c’est parce qu’elle a été lancée dans sa forme nouvelle, depuis les années 1990, par l’Empire américain et favorisée par son immense puissance de frappe financière, puis sa domination politico-stratégique, culturelle et économique sur la vieille Europe, d’ailleurs reconstruite à cette condition après la Seconde Guerre mondiale. La mondialisation marchande et consumériste, telle que nous la connaissons depuis la fin de la guerre froide, fort opposée aux précédentes mondialisations préindustrielles (mongolo-chinoise, vénitienne, génoise, portugaise ou hollandaise), est en fait une projection vers l’extérieur d’un modèle anglo-saxon capitaliste largement inspiré par les dérégulations néolibérales thatchérienne et reaganienne des années 1980 (chapitre IV). Elle a longtemps profité essentiellement aux intérêts planétaires de l’empire multiculturaliste américain piloté par le camp démocrate – aujourd’hui en guerre contre les souverainistes trumpistes – et aux multinationales qui portent ce modèle. La culture que ces puissances multinationales et digitales anglo-saxonnes venues des États-Unis diffusent (voir chapitre XII) est fondée sur le fast-food, le fast fashion, le mimétisme des stars de la pop ou d’Hollywood, l’ubérisation et la déhiérarchisation du travail, puis le fast thinking du politically correct, de la cancel culture, des revendications des minorités (positive discrimination, woke, BLM) portées à leur paroxysme dans les milieux universitaires et médiatiques, les séries de Netflix ou les réseaux sociaux des Gafam. Cependant, si l’on met à part le cas des sociétés musulmanes en voie de réislamisation radicale (chapitre VII), deux États-nations du monde multipolaire offrent une résistance farouche à ce modèle de mondialisation à l’anglo-saxonne baptisée McWorld par le politologue américain Benjamin Barber, et appellent les autres nations émergentes ou multipolaristes à réhabiliter des modèles géocivilisationnels enracinés qui remettent totalement en question l’internationalisme américano-occidental : la Russie et la Chine. Si Pékin s’oppose à McWorld en désoccidentalisant la mondialisation et en la retournant contre les États-Unis pour asseoir la domination mondiale du modèle autoritaire chinois antioccidental, Moscou accuse la mondialisation anglo-saxonne et les États- Unis de détruire les identités nationales et de menacer la souveraineté russe et sa civilisation slavo-orthodoxe. La Russie postsoviétique et poutinienne se présente même comme le dernier rempart face au déracinement opéré par McWorld et le seul pôle – multipolaire – de défense de l’Europe et des traditions judéo-chrétiennes face à une mondialisation atlantiste et marchande aux mains de l’Empire américain (chapitre V). Dans le même temps, le monde musulman remet frontalement en cause le libertarisme occidental jugé pervers et déstructurant pendant que les nations émergentes du Sud, notamment l’Inde, aux mains des adeptes du radicalisme hindoutva du parti BJP au pouvoir, le Brésil de Jair Bolsonaro ou les nations d’Afrique, du Moyen-Orient et d’Asie, allient toutes leur développement à une fierté civilisationnelle et nationaliste. La mondialisation, apogée ou crépuscule ? Pour les adeptes d’une vision idéaliste de la politique mondiale, la globalisation libérale conduirait inéluctablement à la fin des égoïsmes nationaux, à l’avènement de la paix universelle, et ne pourrait que renforcer de façon linéaire le processus de démocratisation et d’unification de la planète au profit d’un multilatéralisme pacifiant, voire d’une gouvernance mondiale. Cette idéologie de la « mondialisation heureuse », notamment portée par des penseurs libéraux comme Alain Minc 2 , Thomas Friedman (La Terre est plate), ou néo-hégéliens comme Francis Fukuyama, est aujourd’hui largement remise en question par le fait que conflits et guerres n’ont pas disparu, que la pauvreté et les inégalités progressent et que des pans entiers de la planète demeurent exclus de la digitalisation. D’après le géographe John Agnew, la mondialisation pousserait inéluctablement à l’effacement des identités et des nations. Selon lui, cinq tendances à l’œuvre depuis la fin de la guerre froide, pas forcément toujours vertueuses, seraient inévitables : l’effacement des identités nationales et ethniques à la suite de l’intensification des flux migratoires ; les inégalités croissantes conduisant à l’élargissement du fossé Nord-Sud ; la « métropolisation » comme moteur de la croissance économique mondiale ; la montée du supranationalisme au détriment des souverainetés des États-nations et la globalisation de la production et des mouvements financiers qui modifieraient et affaibliraient les marges de manœuvre économiques des États 3 . D’autres, notamment le politologue Bertrand Badie en France, ont développé cette thèse dans le sens d’une « désouverainisation » et donc d’une réduction de la puissance de l’État déclassé dans son ancien statut d’acteur majeur des relations internationales au profit d’organisations internationales, des multinationales et des firmes digitales qui annoncent l’avènement du capitalisme ubérisé et du multilatéralisme. Le présent essai prend le contre-pied de cette lecture idéologique de la mondialisation, car en tant que théâtre d’échanges, de rivalités et de conflits entre puissances, la mondialisation, processus en réalité neutre, peut favoriser l’expansion de puissances hégémoniques, souverainistes ou même néo-impériales qui savent la canaliser, comme les deux supergrands chinois et étatsunien, notamment. Notre analyse prend acte de l’essoufflement d’une idéologie qui se heurte de plein fouet au réel et dont les promoteurs et protagonistes (institutions internationales, multinationales, Gafam, dirigeants des pays occidentaux) sont de plus en plus remis en cause par les États-nations et les peuples, demandeurs de « resouverainisation » et donc de démondialisation. Notre thèse soutient que le processus de mondialisation n’a pas abouti à la disparition des identités et des États, car il intensifie avant tout une concurrence entre États, seuls ceux qui ne savent pas en tirer profit ou ne sont pas assez performants ou volontaires perdent de leur puissance souveraine. La mondialisation désigne en fait simplement le processus d’interconnexion à l’échelle planétaire des affaires et des communications qui s’est accéléré avec la fin de la guerre froide et l’ouverture des anciens pays communistes à la liberté de circulation des biens, des informations et des personnes. Il s’agit là d’une prolifération mondiale de technologies de pointe qu’il convient de ne pas confondre avec les utopies cosmopolites liées aux projets de conquête mondiale qui ont toujours existé dans l’histoire (Alexandre le Grand, Empire mongol, communisme soviétique, etc.) avec souvent peu de durabilité en raison de leur caractère coercitif, générateur de réactions antihégémoniques (Brzezinski). Dans la mesure où cette vision a été essentiellement conçue et portée au départ par des pays occidentaux, la mondialisation est par ailleurs souvent perçue par d’autres civilisations, qui forment les quatre cinquièmes du globe, comme un avatar de l’impérialisme occidental. Dans son ouvrage La Revanche de la géographie, le politiste américain Robert D. Kaplan explique que cette mondialisation, loin de supprimer les identités lorsqu’elle affaiblit l’État, peut au contraire les réveiller, et même les radicaliser en réaction : « Le pouvoir né de la communication de masse [...], les technologies de communication, ont permis la montée en puissance des mouvements panislamiques, de l’Afrique noire à l’Asie, et elles ont facilité les soulèvements populaires dans de nombreux États musulmans 4 . » Cette idée est présente également dans les analyses de Samuel Huntington, pour qui la mondialisation et Internet n’ont pas fait disparaître les identités des peuples, mais ont permis a contrario à ces derniers d’accéder à une « conscience civilisationnelle » déterritorialisée et plus large, de sorte qu’un exilé serait aujourd’hui bien plus lié à son pays d’origine et s’assimilerait bien moins facilement à la société d’accueil qu’avant l’ère des télécommunications où les émigrés étaient coupés de leur milieu d’origine par les lois de la géographie. De ce point de vue, la mondialisation – au sens neutre et technologique et non politique du terme – n’empêche pas les appartenances de compter dans les dispositifs politiques et géopolitiques. Elle favoriserait même la constitution de pôles géoéconomiques et civilisationnels : accords de libre-échange du nord de l’Amérique (Alena, voir cartes n o 3 et 4 5 ), Union européenne et AELE, Communauté des États indépendants et Union économique eurasiatique 6 (ex-URSS), OCS (Organisation de la conférence de Shanghai qui réunit Russie, Chine et quatre pays d’Asie centrale opposés à l’Otan, voir carte n o 3), pays de l’Est asiatique (Asean, Apec, voir cartes n o 3 et 4), Conseil turcique, qui réunit cinq États turcophones : Turquie, Azerbaïdjan, Kazakhstan, Ouzbékistan et Kirghizstan (voir carte n o 11), monde islamique (cinquante-sept pays musulmans de l’OCI, Ligue islamique mondiale), zones de libre-échange latino-américaines et interafricaines 7 . Les blocs géoéconomiques (voir carte n o 2), ethnoreligieux, les particularismes, les séparatismes et les conflits identitaires sont en fait encouragés par la globalisation, de ce fait régionalisée, tandis que le côté « unificateur » universaliste de cette dernière ne touche que les intelligentsias occidentales mondialisées. On ne rappellera d’ailleurs jamais assez que l’ensemble des puissances émergentes/réémergentes du monde non occidental (Russie, Chine, Inde, Brésil, pays émergents, non alignés), donc multipolaire, n’a pas du tout renoncé aux souverainetés et identités nationales, ni aux politiques de puissance qui sont présentées comme un mal absolu par l’Union européenne. Bien au contraire. Totalement opposés à la gouvernance occidentale, les adeptes du multipolarisme revendiquent un ordre mondial décentralisé fondé sur l’autonomie, la non-ingérence dans les affaires intérieures de chacun et le rejet de l’universalisme occidental considéré comme un masque d’une nouvelle forme d’impérialisme arrogant et hypocritement moralisateur (droits de l’homme, politiquement correct, pandémocratisme, etc.). La mondialisation n’affaiblit donc que les États déjà amoindris et/ou démissionnaires de leur souveraineté. Elle renforce au contraire les États stratèges adeptes de la Realpolitik et de la guerre économique qui cherchent à instrumentaliser la mondialisation vue comme un levier de concurrence et d’expansion de leurs puissances. La Chine est à cet égard l’exemple parfait de cette vision antimondialiste et souverainiste de la globalisation. Ventres mous civilisationnels versus ventres durs identitaires Le lien entre géopolitique et identité constitue l’un des fils rouges du présent ouvrage. Nous postulons que les nations ou les civilisations qui diluent leurs identités au nom de la mondialisation et du multilatéralisme renoncent de ce fait, tôt ou tard, à leur puissance et à leur souveraineté et mettent ainsi en péril leur avenir d’un point de vue géocivilisationnel. Schématiquement, on peut diviser l’échiquier géopolitique mondial en deux catégories d’acteurs. La première est composée de puissances souverainistes qui s’appuient sur leur identité civilisationnelle et défendent leurs intérêts nationaux et qui voient la mondialisation comme un champ d’expansion de puissances rivales ou antagonistes. Cette catégorie comprend notamment des nations émergentes et identitaires caractérisées par une croissance économique soutenue et un activisme sur la scène internationale. On trouve parmi celles-ci entre autres la Chine, la Russie, l’Inde, la Turquie, les émergents du Sud et les États-Unis (qui sont, certes, en perte de vitesse et plus isolationnistes qu’interventionnistes depuis une vingtaine d’années). Ces puissances participent toutes à une reconfiguration des relations internationales causée par la fin du monde bipolaire et l’émergence de la multipolarité marquée par un déplacement de l’épicentre géopolitique du monde de l’ouest vers l’est de l’Eurasie. La deuxième catégorie est composée d’acteurs géopolitiques de second ordre ou d’anciennes nations hégémoniques ou coloniales d’Europe de l’Ouest ayant volontairement renoncé à toute politique de puissance et de civilisation. Certains d’entre eux, dépourvus de ressources, stagnent sur le plan économique et, pour des raisons évidentes, sont plus sujets qu’acteurs des relations internationales. D’autres se retrouvent dans une impasse historique par manque de volonté et surtout par un refus idéologique de mettre au premier plan la défense des intérêts nationaux et des citoyens autochtones au nom d’un multiculturalisme naïf et d’un multilatéralisme incarnés par l’ONU et l’Union européenne. Ces deux organisations, impuissantes sur le plan international, plaident pour l’émergence d’intérêts supranationaux – qui par définition n’existent pas – et ne peuvent justifier leur existence qu’en promouvant l’effacement des frontières des pays qui acceptent d’abdiquer leur souveraineté, sans pour autant parvenir à créer une nouvelle souveraineté supranationale. Ce dernier groupe en voie de désouverainisation, donc en train de « sortir de l’Histoire », comme l’avait annoncé le général Gallois, comprend les États de l’Europe continentale dont le processus de déclassement en cours découle de l’illusion que leur richesse économique passée et leur idéologie pacifiste et multiculturaliste les protégeront indéfiniment du monde extérieur. Pris au piège de l’illusion dangereuse selon laquelle ils vivront indéfiniment protégés des menaces externes par leur pacifisme et leur renoncement à l’identité, ces non-puissances ouest-européennes ne semblent plus capables de défendre sur leur sol leurs propres valeurs et civilisation, menacées non pas par une immigration extra-européenne qui serait positive si elle était assimilée, mais par les appétits de conquête de prédateurs externes : la Chine impériale renaissante, l’empire acculturant McWorld, et les puissances revanchardes panislamistes, comme la Turquie néo-ottomane d’Erdoğan, qui instrumentalisent l’ouverture européenne et y embrigadent les communautés immigrées musulmanes pour servir leur expansionnisme, remplissant ainsi le vide laissé par les États désouverainisés et désindustrialisés d’Europe occidentale. Déclassement de l’Occident et mondialisation du virus La perte d’attractivité et de magistère moral des Occidentaux au profit des modèles multipolaristes, qui s’est accrue depuis la fin du siècle dernier, a été considérablement amplifiée par les crises sanitaires (chapitre X et XII) et économico-financières de 2008-2020, accélérant ainsi le double processus de « démondialisation » (chapitre XIV) et de désoccidentalisation du monde en voie de multipolarisation. La crise de la Covid-19 a retiré les dernières illusions de ceux qui croyaient encore à la supériorité des acquis, valeurs et avancées de la civilisation occidentale par rapport au reste du monde. Avec un recul de près de deux ans déjà, la Chine autoritaire, considérée jadis comme condamnée à l’imitation et donc à être toujours à la traîne de l’Occident triomphant et vertueux, a démontré qu’elle était capable de gérer de manière bien plus efficiente que l’Europe la présente crise, à la fois sur les plans sanitaire, technologique, économique, diplomatique et financier, et qu’elle n’est plus suiviste mais avant-gardiste. Elle compte même pleinement profiter de l’effondrement économique et social de la civilisation européenne pour pouvoir s’imposer d’ici quelques années comme la première puissance économique et géopolitique mondiale (chapitre XIII). La Chine et son aire géocivilisationnelle sont les zones où la croissance positive oscille à nouveau depuis fin 2020 entre 6 et 10 % par an, pendant que l’hémisphère nord-occidental en voie de paupérisation continue son lent déclin géopolitique et technologique, Europe de l’Ouest en tête. Les États-Unis restent, certes, combatifs et résilients, tandis que l’Europe peine à devenir un acteur géopolitique identifiable. La recherche, par le pouvoir de Pékin, de la suprématie mondiale passera par la maîtrise du numérique, des nanotechnologies, des neurosciences, de la 5G (chapitre IX), de la génétique, de l’espace, et même de la transition écoénergétique (chapitre XII), qui ont été lancés par les Occidentaux mais que la Chine leur ravit en profitant de leur incapacité à mettre en œuvre des plans de développement et d’investissement ambitieux et de long terme (R&D). En cause aussi, l’avidité de leurs multinationales qui ont accepté de facto d’être pillées technologiquement par Pékin en échange de facilités de délocalisations et de contrats commerciaux léonins... Dans ce contexte, la question qui vient naturellement à l’esprit est celle de la pertinence du modèle chinois, et, plus largement, la plus grande efficience des modèles autoritaires asiatiques ou illibéraux et de la prévalence de la stabilité à l’asiatique, qui concilie les opposés (yin et yang) puis privilégie le groupe à l’individu et l’ordre social à la liberté hédoniste à l’occidentale, de plus en plus associée à l’ingouvernabilité et au chaos. Les leçons de la gestion chinoise et asiatique de la crise sanitaire Avec le recul nécessaire, un an et demi après les premiers confinements qui ont paralysé et continuent de paralyser les pays occidentaux (surtout l’Union européenne) – faute de lits suffisants dans les hôpitaux, de discipline et de fermeture des frontières –, les modèles alternatifs confucéens de Taiwan, Singapour, Corée du Sud et a fortiori de la Chine ont incontestablement fait preuve d’une plus grande efficacité, au prix d’une fermeture précoce des frontières, d’un traçage massif liberticide, de quarantaines drastiques, mais relativement courtes, et d’une emprise technologico-politique sur les citoyens. La Chine, d’où est parti le virus, a jugulé la pandémie puis est parvenue à transformer rapidement cette catastrophe économico-sanitaire en une occasion d’accélérer le déclassement d’un Occident qui n’a pas semblé tirer les leçons de son hyperdépendance vis-à-vis de l’usine du monde chinoise désormais autonomisée. Soudainement, le modèle nationaliste-maoïste-confucéen, fondé sur l’ordre autoritaire et la soumission des individus à l’État-nation, s’est posé en alternative au rêve libertaire sans frontiériste occidental dépeint par Thomas Friedman dans son ouvrage La Terre est plate, qui annonçait un monde unifié sur les ruines des identités et des frontières au nom d’un consumérisme anglophone planétaire. Les questions qui viennent alors à l’esprit, d’un point de vue géopolitique, sont les suivantes : ce monde « plat » promis par les adeptes de la « mondialisation heureuse » est-il seulement un modèle viable ou au contraire dangereux pour ceux qui en sont dupes ? Le projet de suprasociété mondiale mis en œuvre par les élites de McWorld (Benjamin Barber, voir infra) ne s’apparente-t-il pas à une périlleuse utopie déconstructrice ? Celle-ci n’a-t-elle pas déjà fait disparaître des milliers de langues minoritaires, donc des cultures, au nom même d’une fausse « diversité » uniformisatrice ? Cette mondialisation n’est-elle pas menaçante lorsqu’elle délégitime l’État-nation – pourtant le plus à même de protéger les citoyens et de faire respecter un « vouloir-vivre ensemble », lorsqu’elle déconstruit ou diabolise les traditions, les normes sociales, les valeurs et les principes d’autorité au nom d’un libertarisme consumériste, alors que les normes et l’autorité sont vitales pour échapper à la barbarie ? La diabolisation de l’identité portée par ce projet de Village mondial (« Global village 8 ») au nom d’une pensée « cosmopolitiquement correcte » n’est-elle pas une trahison de la diversité qui, par essence, est composée d’identités ? Face à ce risque d’anomie bien analysée par les sociologues, la Chine autoritaire, qui n’est pas dupe de la confusion fâcheuse entre mondialisme et mondialisation, et qui utilise au contraire cette dernière pour servir ses intérêts nationaux (« post-mondialisation »), apparaît de plus en plus comme un modèle alternatif efficient. Elle nous rappelle que le monde multipolaire qui se dessine n’est pas seulement fait de pôles émergents et de puissances jalouses de leurs prés carrés géopolitiques, mais aussi de polycentrisme des valeurs, celles de l’Occident libertaire- mondialisé étant perçues par les autres civilisations comme une menace idéologique anarchisante, acculturante et civilisationnellement mortelle. La crise de la Covid-19 a brutalement rappelé les effets parfois tragiques de la mondialisation marchande. Ses effets néfastes ont déjà fait leurs preuves avec la prolifération ininterrompue – depuis les années 1990 – du crime organisé transnational (chapitre VIII), de l’islamisme radical (chapitre VII), de la pollution environnementale et des délocalisations/désindustrialisation, génératrices d’hyperdépendance ; de l’appauvrissement culturel et de la destruction des liens réels liés aux réseaux sociaux mondialisés et aux industries du divertissement et médias ; sans oublier les migrations incontrôlées et l’affaiblissement des souverainetés et identités nationales qui préparent, en réaction, un violent retour du refoulé identitaire. C’est d’ailleurs probablement pour avoir osé annoncer – dans son ouvrage prémonitoire, Le Choc des civilisations – que la mondialisation marchande et l’empire consumériste McWorld n’allaient pas créer une fraternité universelle mais au contraire accentuer les chocs de civilisations et conflits identitaires que Samuel Huntington a été conspué par l’intelligentsia occidentale. L’Europe dupe de son interprétation utopique de la mondialisation La thèse majeure du présent essai est que la mondialisation a révélé les vulnérabilités majeures de l’Europe, ventre mou de l’Occident, qui se retrouve, de par son ouverture sans limites, exposée à toute une série de nouveaux défis qu’elle peine encore plus que les autres grandes puissances à relever : pandémie, chômage endémique, crises économiques et financières récurrentes, dépopulation des campagnes, vieillissement, fuite des cerveaux (notamment vers les États-Unis), bureaucratisation, anémie entrepreneuriale, délocalisations industrielles, dumping social asiatique, concurrence déloyale chinoise, islamisme conquérant, immigration incontrôlée, terrorisme, trafics de drogue et crime organisé, rivalités énergétiques et menaces hydriques. Un des effets secondaires et curieux de ce processus est que les Européens sont les seuls dans le monde à rejeter et diaboliser leur identités et frontières alors que les autres nations non occidentales, à commencer par la Chine, l’Inde, la Turquie, l’Asie du Sud-Est (etc.), se développent en réaction à l’universalisme occidental et utilisent au contraire la mondialisation comme un levier de leur puissance nationale et civilisationnelle. Derrière l’utopie consumériste, hédoniste et politiquement correcte de McWorld, les autres nations du monde multipolaire en gestation et a fortiori la Chine et ses alliés décèlent une nouvelle forme d’impérialisme cognitif déterritorialisé essentiellement incarné par les puissances anglo-saxonnes (« lutte pour les cœurs et les esprits », selon la doctrine du général américain David Petraeus). Cet impérialisme anglo-saxon, incarné par le soft power étatsunien d’Hollywood, des Gafam (chapitre XII), des applications, et son protectorat ouest-européen (Otan), cherche en fin de compte, sous couvert d’universalisme, à effacer les identités, traditions et souverainetés des autres acteurs, donc la diversité elle-même. Et en même temps que McWorld tente avec de moins en moins de succès d’uniformiser les mœurs à la façon libertaire, l’Occident piégé par sa lecture mondialiste de la globalisation scie la branche sur laquelle il est assis en participant à l’effacement de sa propre civilisation et de ses normes et valeurs morales fondatrices. À cet impérialisme cognitif de l’Occident mondialisé, le reste du monde en voie de multipolarisation résiste. Principalement la Chine (Gafam chinois), la Russie avec Yandex, et même l’Inde, ces pays cherchant par ailleurs à se débarrasser de l’hégémonie du dollar et à fonder des institutions internationales multipolaires alternatives à celles créées par les Occidentaux depuis 1945. Nous verrons dans les chapitres suivants que le nouveau Grand Jeu stratégique 2.0 ne fait que commencer. Cette période de mutation ne se fera pas, certes, sans que l’hégémon planétaire américain ne dise son dernier mot, donc pas sans réactions et conséquences lourdes en termes de déstabilisation, de remises en question du statu quo mondial actuel occidentalo-centré, et d’inéluctable rééquilibrage par de nouveaux rapports de force et de nouveaux pivots géostratégiques mondiaux. À l’ancienne dichotomie The West and The Rest se substitue désormais une nouvelle division des zones de puissance réparties entre l’Asie et le Reste du monde, l’Occident devant s’adapter à la perte progressive de son hégémonie planétaire comme de son magistère moral, idéologique et sociétal, largement démonétisé et contesté. Comme nous l’avons vu à l’aune de la gestion par les différents pays de la pandémie mondiale de la Covid-19, le statut des puissances sur le nouvel échiquier multipolaire sera redéfini en partie en fonction des capacités de chacune à gérer les crises sanitaire, économique et financière en cours. Les conséquences de ces crises, aux fortes implications sociopolitiques, technologiques, industrielles et géopolitiques, auront des effets multiples et profonds durant toute la décennie en cours. Désoccidentalisation, antiaméricanisme et rejet des institutions multilatérales héritées de 1945 Le centre de gravité du capitalisme, des échanges internationaux, et donc de la mondialisation marchande, est en train de basculer des États-Unis et de l’Occident vers l’Asie. Parallèlement, les institutions internationales créées sous l’impulsion américaine sont remises en question par les nouveaux acteurs géopolitiques du monde postguerre froide en voie de multipolarisation. Depuis le 11 septembre 2001 et leurs coûteuses interventions en Afghanistan, en Irak ou ailleurs, qui ont contribué à augmenter le chaos mondial, les États-Unis ont perdu une grande partie de leur capacité de séduction planétaire, même si leur industrie du divertissement, et donc leur instrument de soft power, continue d’inonder l’humanité et d’imprimer les consciences. Le politologue et stratège américain Zbigniew Brzezinski, dans son ouvrage Le Grand Échiquier, faisait cette remarque, certes cynique, quant au soft power américain : « la nature cosmopolite de la société américaine, écrit-il, a permis aux États-Unis d’asseoir plus facilement leur hégémonie dans le monde sans laisser transparaître son caractère strictement national [...]. La domination culturelle des États-Unis a jusqu’à présent été un aspect sous-estimé de sa puissance globale. Quoi que l’on pense de ses qualités esthétiques, la culture de masse américaine exerce sur la jeunesse en particulier une séduction irrésistible. Les programmes américains alimentent les trois quarts du marché mondial de la télévision et du cinéma. De ces avantages, [...] l’Amérique tire un prestige politique et une marge de manœuvre inégalés 9 ». Toujours est-il que l’Occident, associé à cette culture mondiale consumériste, déconstructrice de valeurs et d’identités, est de plus en plus rejeté par les protagonistes du monde multipolaire. Du fait de la neutralité des technologies dont les Occidentaux n’ont plus le monopole, ces puissances non occidentales sont déjà en train de démondialiser et de désoccidentaliser la globalisation, dans le cadre d’une « seconde décolonisation » (chapitre IV), parfois revancharde. Les valeurs des démocraties occidentales ne sont plus la norme. Leur universalisme discrédité par leurs entreprises guerrières, leur soutien aux révolutions de couleur qui ont déstabilisé maints régimes en ex- Union soviétique, dans les Balkans et dans le monde arabe, et leur impérialisme culturel – dont se félicitait Brzezinski – sont perçus par d’autres nations et civilisations comme un poison acculturant et le cache-sexe d’une hégémonie, sous couvert de défense des droits de l’homme et de démocratie libérale. Signe de cette perception très négative de l’universalisme libéral occidental, le document 9 du Parti communiste chinois de 2013 citait parmi les « sept périls principaux » pour l’État chinois : le « nihilisme, la démocratie constitutionnelle occidentale et les valeurs universelles occidentales 10 » ! Défis géopolitiques : constantes et variables Les différents et complexes enjeux de la mondialisation sont analysés ici dans le cadre de la démarche géopolitique. Rappelons tout d’abord ce que recouvre ce concept, longtemps ignoré (notamment des institutions universitaires) et qui a aujourd’hui littéralement inondé les médias. La géopolitique, terme popularisé il y a plus d’un siècle par le Suédois Rudolf Kjellén 11 , à la différence de la géographie politique, qui décrit l’organisation du monde divisé en États à un moment donné, analyse, d’après le général Pierre Marie Gallois, « l’influence du milieu sur l’Homme », ou encore, « l’étude des relations qui existent entre la conduite d’une politique de puissance et le cadre géographique dans lequel elle s’exerce 12 ». Pour Yves Lacoste, la démarche géopolitique « analyse les rivalités de pouvoir sur des territoires, en confrontant les points de vue des différents protagonistes 13 ». Cette dernière définition rend compte des représentations antagonistes développées par chaque camp dans le cadre de la revendication du pouvoir sur le territoire convoité, élément que nous avons défini comme la « guerre des représentations 14 ». Au-delà de ces différentes acceptions, soulignons d’emblée que certains facteurs sont relativement stables et d’autres beaucoup plus conjoncturels. Bref, il est incontournable de distinguer entre des « tendances lourdes » d’une part, et les « variables contemporaines », de l’autre, telles que définies par Fernand Braudel dans La Grammaire des civilisations. Les tendances lourdes Les tendances lourdes correspondent à des évolutions observées sur une longue période et reposent fondamentalement sur deux types de dimensions : celles qui sont liées à la géographie (l’Espace), et celles qui émargent à l’histoire (le Temps). Ce croisement entre temps et espace invite bien sûr les géopolitologues à accorder une place importante au facteur identitaire et donc aux appartenances civilisationnelles, forces motrices des « temps longs de l’Histoire », pour paraphraser Braudel. Pour ce qui est de la géographie, la taille et la position d’un État, par exemple, notions certes banales, sont déterminantes. L’existence d’une façade maritime ou son absence et donc la recherche d’un accès à la mer, figure depuis des siècles aux tout premiers rangs des préoccupations majeures des grandes nations (voir chapitre X), cet ouvrage évoquant notamment le cas de l’Arménie enclavée et prise en tenailles par ses ennemis turco-azéris, ou celui de la Russie-URSS qui a toujours recherché un accès aux « Mers chaudes 15 », d’où les tensions russo- atlantistes actuelles en mer Baltique, en mer Noire (Ukraine/Crimée), ou même passées lors de l’alliance entre les États-Unis et les moudjahidines après l’invasion soviétique de l’Afghanistan, sur la route directe de l’océan Indien. Comment ne pas souligner également le rôle ancestral (conforté par la mondialisation et l’essor soutenu du commerce international) joué à l’échelle de la planète par les isthmes et les détroits, de la Sonde à Gibraltar, du Bosphore au Sud scandinave, de l’isthme de Panamá à celui de Suez. Les données climatiques et biogéographiques ont aussi joué un rôle difficilement négligeable. Les armées napoléoniennes furent en effet vaincues non par Koutouzov ou Bagration, mais plus efficacement par le « général Hiver », le plus fidèle allié des Russes durant plusieurs siècles. De même, durant la guerre des Malouines, nombre des neuf cent vingt victimes argentines, mal préparées et sous-équipées, provenant des provinces intertropicales du nord du pays, sont morts de froid et pas seulement des offensives de l’armée britannique. Quant au rôle de l’eau, il constitue depuis des siècles un élément majeur des typologies régionales et zonales esquissées ici et là, avec, pour simplifier, au plan des précipitations proprement dites, trois types de situations : les nations à climat tempéré, bénies des dieux ; celles qui souffrent de la surabondance pluviométrique, du Bangladesh aux Maldives ; et les zones désertiques ou semi-désertiques, de la Mongolie au Sahel ou à l’Arabie saoudite... Enfin, la place des grands fleuves dans l’émergence et l’épanouissement de certaines civilisations ne prête guère à contestation : imagine-t-on l’Égypte sans le Nil ou la Mésopotamie sans le Tigre et sans l’Euphrate ? (chapitre XII sur les guerres de l’eau). Les données de l’Histoire sont tout aussi fondamentales. Songeons par exemple (nous y reviendrons dans les deux chapitres qui suivent) à la multiplication des conflits intraétatiques générés en Afrique subsaharienne par les vagues de décolonisation et le caractère artificiel des frontières imposées par les anciennes métropoles ; au rôle majeur des schismes tout au long de l’histoire de l’Islam, et tout particulièrement aux tensions ancestrales entre sunnites et chiites ; aux données démographiques (chapitre X) liées au contexte religieux ; à la donne linguistique (à l’image de la place de la Francophonie – voir chapitre V – au cœur du Pacifique Sud), ou encore aux liens culturels et socioculturels... On pourrait également rappeler l’alliance des « Five Eyes » (abrégé FVEY), qui unit de façon très stratégique, et au détriment de leurs autres partenaires de l’Otan et de l’UE, allègrement espionnés, les services de renseignement de cinq pays frères anglo-saxons partageant une même langue (voir chapitres VIII et XIV), une même civilisation, et une partie d’histoire commune : Australie, Canada, Nouvelle-Zélande, Royaume-Uni et États- Unis. La Grande-Bretagne partage d’ailleurs sa souveraineté nucléaire avec les États-Unis et a longtemps espionné pour le compte de la National Security Agency (NSA) ses propres partenaires de l’Union européenne avant de finir par quitter cette dernière... De Gaulle n’avait ainsi pas entièrement tort de dire qu’elle était un « cheval de Troie des États-Unis en Europe ». C’est ainsi qu’en toute logique géopolitique, Winston Churchill déclarait à la veille du débarquement de Normandie : « Chaque fois qu’il nous faudra choisir entre l’Europe et le grand large, nous serons toujours pour le grand large. » Et le célèbre dirigeant anglais précisa, lorsqu’il proposa la création des « États-Unis d’Europe », que son pays fût « with it, not in it »... Témoin aussi le poids de certaines Constitutions : un exemple édifiant est illustré par le triple refus (à portée internationale), sous les présidences démocrates de Woodrow Wilson, de Jimmy Carter et de Bill Clinton, décidé par un Congrès à majorité républicaine, de ratifier un traité international signé par le Président : non-ratification du traité Salt II en 1977 (voir chapitre VII), sous Carter ; non-ratification du traité d’interdiction complète des essais nucléaires (CTBT 16 , voir chapitre III) en 1999, sous Clinton et, plus spectaculaire encore, non-reconnaissance, par le Congrès, de la Charte en quatorze points créant notamment, le 19 mars 1920, la Société des nations, une charte conçue et proposée par Woodrow Wilson en personne. À preuve encore du poids de l’Histoire, l’interventionnisme des superpuissances durant la période bipolaire, dans le cadre de la logique des Blocs, ou, depuis 1990, celui des États-Unis, volontiers gendarmes du monde, systématiquement lié à un credo inébranlable : les États-Unis sont bénis de Dieu (God bless America) et bénéficient des effets de la « Destinée manifeste » et du « efficiency first for us ». Il est donc de leur devoir de contribuer à implanter les vertus de la démocratie américaine partout dans le monde, même si les nations et les peuples concernés ne sont pas demandeurs. Variables contemporaines Toutefois, les tendances lourdes peuvent être, ici ou là, perturbées par l’impact de variables contemporaines : coups d’État, restauration de la démocratie, changements d’alliances, dévaluation monétaire, crises économiques ou sanitaires (Covid-19, voir chapitres X et XIII), découvertes plus ou moins inopinées de ressources minérales ou énergétiques... Ce constat rend compte également qu’au-delà de la définition même de la géopolitique, l’approche de cette dernière est, depuis des générations, partagée entre deux sensibilités : considérer effectivement que le poids des tendances lourdes est primordial, s’inscrivant ici dans l’héritage d’illustres ancêtres (Jules César qui, à la veille de la conquête de la Gaule, fait étudier minutieusement par ses conseillers les spécificités géographiques du territoire à conquérir et les mœurs et coutumes de ses futurs adversaires ; Richelieu, père des « frontières naturelles », Frédéric II ou Bismarck...), ou au contraire privilégier les variables contemporaines, à l’image de Tamerlan, de Napoléon Bonaparte, du Vietnamien Giap ou des théoriciens comme John Frederick Charles Fuller et Pierre Marie Gallois, lointains disciples du plus génial des géostratèges : Alexandre le Grand. Notre analyse géopolitique associe donc ces deux approches, dans le cadre d’une vision holistique et pragmatique des relations internationales et de l’étude des rivalités de pouvoirs sur des territoires disputés. Ces disciplines, qui se doivent d’être menées de façon dépassionnée et désidéologisée, sont de ce fait aux antipodes du manichéisme idéologique et donc de tout politiquement correct : géopolitologues et stratèges postulent en effet que les États-nations – acteurs géopolitiques majeurs – ont et continueront toujours d’avoir des intérêts froids et des alliés comme des ennemis ; que seuls ceux qui renoncent à leurs prérogatives régaliennes seront désouverainisés par la mondialisation ou le supranationalisme ; et enfin qu’ils sont condamnés à conduire des politiques de civilisation et à se préparer à des menaces – internes ou externes –, à la guerre économique ou à la guerre tout court, s’ils ne veulent pas disparaître. Car l’humanité est hélas encore très loin d’avoir atteint le stade de la sagesse, de la paix universelle ou de la « conscience cosmique »... 1. Oswald Spengler, Le Déclin de l’Occident, Paris, Gallimard, 1948. 2. Voir Alain Minc, La Mondialisation heureuse, Paris, Pocket, 2019 ; et Francis Fukuyama, La Fin de l’histoire et le dernier homme, Paris, Flammarion, 2009. 3. John Agnew, Geopolitics, Re-Visioning World Politics, Londres/New York, Routledge, 2003, p. 127. 4. Robert Kaplan, La revanche de la géographie, L’Artilleur, 2014. 5. L’accord nord-américain renégocié par Donald Trump en 2019 qui remplace depuis juillet 2020 l’Alena est l’Accord Canada-États-Unis- Mexique (ACEUM). 6. Cette organisation réunit l’Arménie, la Biélorussie, le Kazakhstan et le Kirghizistan. 7. Alexandre Del Valle, « La mondialisation en question et le destin de l’Occident », Géoéconomie, n o 72, septembre 2014, p. 29-48. 8. Marshall McLuhan, The Gutenberg Galaxy: The Making of Typographic Man, Toronto, University of Toronto Press, 1962. 9. Zbigniew Brzezinski, Le Grand Échiquier. L’Amérique et le reste du monde, Paris, Bayard, 1997. 10. Michel Geoffroy, La Nouvelle Guerre des mondes, Via Romana, Paris, 2020. 11. Friedrich Ratzel, Anthropogeographie. Die geographische Verbreitung des Menschen, Stuttgart, J. Engelhorn, 1882-1891. Pour Jacques Soppelsa, la géopolitique « analyse les principaux facteurs dynamiques rendant compte de ladite organisation, pour aboutir à la synthèse d’une situation politique existante et de ses potentialités ». 12. Pierre Marie Gallois, Géopolitique. Les voies de la puissance, Paris, Plon, 1990. 13. Yves Lacoste, Géopolitique. La longue histoire d’aujourd’hui, Paris, Larousse, 2006. 14. Alexandre Del Valle, Le Complexe occidental, Paris, Toucan, 2014. 15. Comme l’avait démontré l’illustre amiral russo-soviétique Gorchkov, devenu le nom du porte-avions éponyme. 16. Le Traité international « Comprehensive Test Ban Treaty » (CTBT, « Traité d’interdiction complète des essais nucléaires », TICEN) engage chaque État à ne pas réaliser d’explosions expérimentales d’armes nucléaires. Ouvert à la signature le 24 septembre 1996, il n’est jamais entré en vigueur. En 2020, 36 États sur 44 ont ratifié le texte. PARTIE I LES TENDANCES LOURDES CHAPITRE II La période contemporaine : ordre ou désordre ? « Un bon politicien est celui qui est capable de prédire l’avenir et qui, par la suite, est également capable d’expliquer pourquoi les choses ne se sont pas passées comme il l’avait prédit. » Winston Churchill Avant d’analyser en détail les différents aspects de la mondialisation dangereuse, il est important de revenir en préalable sur les différentes interprétations de ce qu’allait devenir, selon les plus grands auteurs anglo-saxons, le nouvel ordre international postguerre froide. Ceux-ci ont émis des hypothèses a priori contradictoires quant à la configuration du « nouvel ordre mondial », annoncé par George H. Bush en 1990. La relecture de ces grandes écoles de pensée s’interrogeant sur l’avenir du monde postbipolaire peut nous inciter, rétrospectivement, à critiquer ou valider leurs analyses à vocation plus ou moins prédictive, d’autant qu’elles ont toutes abordé d’une façon ou d’une autre la question de la mondialisation et du devenir de l’Empire américano-occidental, aujourd’hui contesté dans ses fondements mêmes par les outsiders. Cinq courants peuvent être distingués en la matière : l’école « unipolariste décliniste », autour des travaux de Paul Kennedy ; le courant « unipolariste optimiste » de Francis Fukuyama ou Joseph Nye ; l’école de l’empire face à ses ennemis, de Zbigniew Brzezinski et Graham Allison ; le paradigme civilisationnel de Samuel Huntington ; la critique de la mondialisation anglo-saxonne productrice de réactions identitaires (Djihad versus McWorld) par Benjamin Barber. 1) Le « déclinisme » de Paul Kennedy. La vision de cet auteur britannique, auteur d’un essai majeur sur le déclin de l’Empire américain 1 , est relativement simple : l’univers bipolaire a disparu, relayé par un monde unipolaire dominé provisoirement par les États-Unis condamnés, à plus ou moins brève échéance, à un inexorable déclin. Son argument central est que : « Tout Empire périra », selon la célèbre expression de Jean Baptiste Duroselle (1981). Trente ans plus tard, force est de constater que son verdict pessimiste a été singulièrement contredit par les faits : les États-Unis, au cours de cette période, n’ont nullement renoncé à leur statut d’hyperpuissance. Il n’est certes pas question de minimiser aujourd’hui la sévère crise financière et boursière qui a secoué l’économie américaine en 2007 ; ni de nier les conséquences dramatiques des initiatives de l’administration Bush Junior en Irak. Il est aujourd’hui encore trop tôt pour pouvoir émettre un jugement objectif sur les prises de position d’un Donald Trump entre 2016 et 2020, d’autant que, en comparaison avec ses prédécesseurs, Trump aura été plutôt un non- interventionniste et n’a pas commis les graves erreurs de politique étrangère de Bill Clinton, George Bush père et fils et même Barack Obama (guerres d’ex-Yougoslavie, Irak 1 et 2, Libye, Afghanistan). Beaucoup d’experts brodent sans état d’âme sur le déclin de l’Empire américain, que la nouvelle superpuissance chinoise cherche à déclasser. Ils ont oublié la rigoureuse mise en application du programme de « Missile Defense » (bouclier antimissile susceptible d’assurer la protection du territoire américain et des alliés), sur laquelle nous reviendrons, et proclament un peu trop hâtivement la fin de l’hyperpuissance américaine avant même qu’elle n’ait été vaincue... En réalité, le déclin semble bien plus frapper l’Europe que les États-Unis. Les États-Unis restent en effet la première et la seule puissance capable d’intervenir dans tous les recoins de la planète, grâce à ses 745 bases militaires dans 149 pays, ses 7 flottes, son budget de défense annuel de 720 milliards de dollars, autant que le budget total de tous les autres pays réunis (et 4,2 fois plus que celui de la Chine – 178 milliards USD). Sa domination satellitaire et technologique, son soft power culturel et sociétal universel, l’impérialisme de sa monnaie, l’Alliance atlantique, plus puissant système de défense mondial, sa maîtrise des institutions internationales (certes en décroissance, mais encore importante), et sa pratique des juridictions coercitives extraterritoriales, demeurent des instruments hégémoniques redoutables. Quant aux capacités de l’économie américaine à rebondir après les crises, toute l’histoire des États-Unis fourmille d’exemples révélateurs. Bref, en dépit d’inévitables difficultés conjoncturelles, les États-Unis revendiquent plus que jamais le statut inédit d’hyperpuissance, via la concrétisation progressive d’une véritable géopolitique orbitale. Est-ce à dire qu’ils ont toujours vocation à être les gendarmes du monde et qu’ils réussiront à stopper l’avancée fulgurante de l’outsider chinois ? Seul l’avenir le dira. 2) L’unipolarisme « euphorique » de Fukuyama, et des néoconservateurs. Cette option a été, elle aussi, balayée par les faits. Pour Francis Fukuyama 2 , le monde postguerre froide devenu unipolaire, dominé par une Amérique exemplaire et caractérisé par le triomphe du libéralisme capitaliste et de la démocratie, serait la « fin de l’histoire politique mondiale », le modèle indépassable pour les Nations. Rappelant que les États-Unis demeurent les plus puissants dans tous les domaines, tangibles (ressources de base, secteur militaire, énergie, sciences et technologie) comme intangibles (du patriotisme à la « culture universelle »), Fukuyama estime que « l’Occident a gagné la guerre froide et, à l’échelle du monde, les conflits entre les nations sont terminés (sic) ; l’idéologie communiste a échoué et le libéralisme deviendra l’idéologie universelle 3 ». Bénie de Dieu, la nation américaine a le devoir d’implanter ses vertus démocratiques partout dans le monde. Comme le rappelait Warren Christopher, ancien Secrétaire d’État de Bill Clinton, « la fin de la guerre froide nous a donné une possibilité sans précédent de façonner un monde plus sûr, dans lequel les intérêts et les idéaux américains peuvent s’épanouir 4 ». Mais l’option de Fukuyama, singulièrement optimiste, s’est heurtée à la réalité. Les faits sont têtus, disait Lénine. C’est aussi vrai en géopolitique. Elle a été contredite en effet par une série d’événements convergents, durant la dernière décennie. D’abord, Washington a manifestement sous-estimé l’évolution de la sécurité collective. Le maintien de la posture américaine triomphaliste post-guerre froide a entraîné de graves dysfonctionnements dans plusieurs points chauds du globe, comme la Corne de l’Afrique ou, a fortiori, le Moyen-Orient et l’Asie méridionale. Les États-Unis ont aussi pris conscience tardivement que la revendication de leur leadership devait s’accompagner d’une diplomatie cohérente, étayée par la concrétisation de promesses ou de gestes significatifs : Barack Obama ne promettait-il pas dès le début de son premier mandat la fermeture définitive de la prison de Guantanamo ? Dans un autre registre, Daesh n’aurait pas pu terrifier le monde arabe, s’emparer d’une partie de l’Irak et de la Syrie en 2014 si, en 2009, Barack Obama n’avait pas décidé de retirer d’un coup les troupes américaines sans « service après-vente ». On est ainsi passé de l’excès de l’intervention militaire américaine en Irak stupidement menée par les « néocons » de l’administration Bush Jr, en 2003, qui ont instauré un chaos en détruisant totalement l’État baathiste irakien, à un désengagement brutal qui a créé un vide et poussé les tribus sunnites massacrées par les chiites revanchards dans les bras des djihadistes à peine relâchés des prisons américaines d’Irak et des geôles syriennes à la faveur des révolutions arabes... Dans un tout autre domaine, prétendre au premier rang en matière de culture et d’éducation... tout en quittant, en réintégrant, puis en quittant de nouveau l’Unesco, était pour le moins contre-intuitif. Enfin, et surtout, les États-Unis n’ont pu, jusqu’à une date récente, contribuer efficacement à l’éradication du terrorisme islamiste international. Au contraire, ils ont même longtemps directement contribué à son expansion, via leur stratégie pro-islamiste en Afghanistan sous la guerre froide contre l’armée soviétique puis dans les Balkans en 1992-1999, et indirectement, par leurs folles aventures militaires en Irak, en Afghanistan ou en Libye. La mort de centaines de milliers d’innocents (« dommages collatéraux » des bombardements aériens massifs) a été de ce point de vue véritable semence de djihadistes selon la formule du célèbre général américain David Petraeus : « deux terroristes tués avec des dommages collatéraux humains en font naître quatre »... On peut également mentionner que Washington a négligé le nouveau rôle croissant et de plus en plus incontrôlable des organisations supraétatiques, des puissances multinationales et digitales, comme des nouveaux acteurs régionaux du monde multipolaire qui poursuivent leurs propres intérêts. Plus étonnant encore, l’échec de l’Accord de libre-échange nord-américain (Alena 5 ), pourtant contrôlé par les États-Unis... Quant à la gestion du contrôle des armements (voir chapitre VIII), le moins que l’on puisse écrire, c’est que depuis le 12 octobre 1999 et le refus du Congrès de ratifier le CTBT (traité d’interdiction complète des essais nucléaires), puis de poursuivre Start III, le « gendarme du monde » a peu contribué à son évolution et a plutôt œuvré objectivement à une néoguerre froide dangereuse avec la Russie jetée de ce fait dans les bras du rival chinois... Enfin, il convient de rendre justice au fait que Fukuyama est revenu en partie, par la suite, sur son idéalisme triomphal propre à l’école néoconservatrice, notamment dans son ouvrage Trust: Social Virtues and Creation of Prosperity 6 , reconnaissant alors que la culture, donc l’identité et l’élément géocivilisationnel, ne peut pas être clairement séparée de la géoéconomie, et que cela implique de relativiser le caractère universel des valeurs portées par l’Occident. 3) « L’Empire américain face à ses ennemis », de Zbigniew Brzezinski et Graham Allison. En 1997, dans Le Grand Échiquier, le célèbre politologue et stratège américain Zbigniew Brzezinski expliquait que l’Eurasie, vaste ensemble allant de l’Europe de l’Ouest à la Chine via l’Asie centrale, constituait la scène centrale de la politique mondiale et qu’elle était l’enjeu principal pour l’Amérique. Selon lui, la Russie, puissance majeure du heartland (voir carte n o 1), devait être endiguée sur son périmètre et ses flancs afin qu’elle ne redevienne jamais une grande puissance eurasienne. Quant à l’hyperpuissance américaine, devenue le cœur de l’empire occidental après la victoire contre l’URSS, elle devait impérativement prévenir l’émergence d’une puissance eurasienne antagoniste (la Russie, puis plus tard la Chine), donc conjurer toute alliance « antihégémonique » russo-européenne. Brzezinski suggère ainsi d’« utiliser tout moyen pour prévenir l’émergence d’une coalition hostile [en Eurasie] qui pourrait défier la primauté de l’Amérique » ou la « possibilité d’un pays de se substituer aux États-Unis en tant qu’arbitre en Eurasie ». Il affirme qu’il faut soutenir les forces et États jadis occupés par l’Union soviétique ou ses alliés en visant particulièrement la Pologne, les pays baltes, la Roumanie, et surtout l’Ukraine. Dans sa vision, cette dernière est un verrou destiné à « prévenir l’expansion russe dans son étranger proche 7 », dernier rempart face à l’avancée de la Russie vers le sud, d’où sa volonté de financer les forces antirusses de l’ouest de l’Ukraine afin de faire perdre à Moscou le contrôle de ce pays charnière entre la Russie, l’Europe et la Méditerranée (via la Crimée et la mer Noire et les détroits turcs) (voir chapitres III et IV et carte n o 14). L’encouragement occidental à la révolution orange de 2004 et à l’Euromaïdan de 2013-2014 était annoncé noir sur blanc dans Le Grand Échiquier, avec comme conséquences prévisibles la réaction convulsive de Moscou et le chaos régional (guerre civile en Ukraine, voir carte n o 14). Sa préconisation du « double élargissement » (avancée le plus possible vers l’est de l’Otan et de l’UE) a en fait débouché sur une nouvelle guerre froide entre l’Occident atlantiste et la Russie postsoviétique. En fait, la « doctrine Brzezinski » poursuivait celle de John Foster Dulles, concepteur de la doctrine du roll back (refoulement) contre la Russie/URSS sous la guerre froide, lequel continua lui-même la vision du stratège anglais Halford John Mackinder, qui appelait à endiguer le heartland russe et à encercler l’Eurasie avant même l’existence de la menace soviéto-communiste 8 (1904, voir carte n o 1). Ceci dit, Brzezinski a été moins primairement impérialiste qu’on le croit : dans les années 2000, à la fin de sa vie, il a critiqué l’interventionnisme des néoconservateurs et leurs guerres mal menées en Irak et Afghanistan qui ont contribué à faire perdre aux États-Unis leur pouvoir de séduction. Plus surprenant, celui qui apparut longtemps comme un russophobe acharné a fini par regretter lucidement à la fin de sa vie, comme Georges Kennan peu avant lui, le fait que l’échec de l’intégration de la Russie dans l’orbite occidentale a jeté la Russie de Vladimir Poutine dans les bras du vrai nouvel ennemi de l’Empire américain : la Chine... Passons au second théoricien de l’Empire américano-occidental face à ses ennemis : Graham Allison, professeur à Harvard, comme Huntington et Fukuyama, a théorisé l’affrontement apparemment inéluctable entre l’Amérique et l’ennemi chinois depuis la chute de l’URSS. Dans son ouvrage Destined for War 9 , l’auteur s’appuie sur la théorie du piège de Thucydide 10 selon laquelle une puissance dominante, comme les États-Unis, mais en déclin, tendrait à faire la guerre pour empêcher qu’une puissance rivale, comme la Chine, encore inférieure mais en pleine expansion, ne finisse par la remplacer. Le piège résiderait dans le fait que c’est la puissance dominante qui déclenche la guerre qui est vaincue par l’outsider... Pour Allison, la poursuite et l’intensification constatées des rivalités entre les deux superpuissances sur presque tous les fronts (stratégique, politique, technologique, idéologique, énergétique et économique) rendent le choc militaire inévitable... Sauf si l’Oncle Sam et l’oncle Xi s’entendent dans une sorte de duopole/condominium. L’auteur rappelle que, de l’Antiquité à nos jours, le « piège de Thucydide » s’est vérifié à seize reprises et a débouché douze fois sur une guerre que l’empire sortant a perdue face à l’outsider... Finalement, quelle que soit l’issue de la guerre qui vient entre les deux empires, Graham Allison dépeint un monde divisé, comme sous la guerre froide, mais cette fois-ci dans le cadre d’une lutte entre deux capitalismes concurrents, le capitalisme d’État maoïsto- confucéen, d’une part, et le capitalisme occidentalo-libéral, de l’autre. Certes, on peut espérer que la dissuasion, pas seulement nucléaire, mais économique et financière (interdépendance), donc la raison et les intérêts mutuels, empêchera ce scénario pessimiste du conflit militaire direct et le limitera à un conflit/bras de fer économique, comme c’est le cas actuellement. Le pire n’est jamais certain, et lorsqu’il advient, ce n’est pas toujours là où on l’avait envisagé... 4) Le paradigme civilisationnel de Samuel Huntington. En 1993, ce professeur de Harvard publie un article, puis, à partir de ce dernier, un ouvrage, le Clash of Civilizations and the Remaking of World Order (traduit en français en 1997) qui va devenir très vite une référence incontournable... et la cible d’une multitude de critiques. Après avoir à son tour rappelé la disparition du monde bipolaire issu des accords de Yalta, Huntington développe une idée majeure : la transition des relations entre États-nations à celles impliquant des « aires culturelles ». Il constate que les affrontements idéologiques de la guerre froide (communisme soviétique versus monde capitaliste) ont laissé la place au paradigme civilisationnel : « les différences entre les civilisations ne sont pas seulement réelles ; elles sont fondamentales, écrit-il. Les peuples des différentes civilisations ont des conceptions différentes des relations entre Dieu et les hommes, les individus et le groupe, le citoyen et l’État [...]. Ces antagonismes, séculaires, ne disparaîtront pas de sitôt. Ils sont bien plus fondamentaux que les différences relatives à l’idéologie politique ou aux régimes politiques. [...]. À travers les siècles, les différences entre les civilisations ont engendré les conflits les plus longs et les plus violents 11 ». Huntington conçoit le paradigme du choc des civilisations comme une nouvelle rivalité globale entre, d’une part, les démocraties occidentales et le reste du monde, en particulier le monde sino-confucéen et le monde musulman, les deux aires culturelles qui contestent le plus l’universalisme occidental, et, de l’autre, entre les aires culturelles qui s’affrontent le long des « lignes de fractures civilisationnelles » : Chine confucéenne vs Inde ; Inde majoritairement hindoue vs Pakistan musulman ; catholiques occidentaux vs slavo-russes-orthodoxes « postbyzantins » ; musulmans bosniaques vs Croates catholiques et Serbes orthodoxes dans les Balkans (voir carte n o 5). Contrairement à ce qu’ont dit ses détracteurs qui ne l’ont pas lu, il ne nie pas, bien au contraire, la complexité et donc les fractures à l’intérieur de mêmes zones culturelles : Alaouites laïques et autres minorités vs sunnites islamistes en Syrie, chiites vs chrétiens et sunnites au Liban, chiites vs sunnites au Yémen ou en Irak, « tiraillements » internes en Turquie. Prémonitoire, mais souvent caricaturé, Huntington annonce l’affrontement entre kémalistes et islamistes en Turquie, l’éclatement de l’Ukraine entre prorusses et antirusses, il prédit la montée des identités séparatistes en Catalogne, Écosse, Kurdistan, etc., ainsi que la montée des populismes anti-immigration en Europe en réaction à l’immigration de masse. Loin d’être un impérialiste unipolariste, il constate la remise en question de la suprématie occidentale, qu’il qualifie d’arrogante, en préconisant, pour faire baisser cette inimitié, l’acceptation d’un monde multipolaire dans lequel l’hyperpuissance américaine s’accommoderait de l’apparition des pôles de valeurs, d’identité et de puissances autonomes qui ne partagent pas l’universalisme occidental (voir chapitre V). On est très loin de l’occidentalo-centrisme qu’on lui a prêté. Certes, Samuel Huntington n’étant pas un stratège, sa théorie générale est critiquable : il semble considérer les concepts de superpuissance et d’hyperpuissance comme des synonymes, au risque de tomber dans une simplification. Rappelons quand même que, pour qu’un leadership planétaire perdure, il doit s’appuyer sur la maîtrise des quatre éléments de la puissance : la terre, la domination territoriale d’un espace, gage de la puissance moyenne ; l’eau (la domination des mers), passeport pour revendiquer le statut de grande puissance ; le feu (le feu nucléaire en l’occurrence) gage de la superpuissance ; l’air (l’espace) qui, au moins partiellement maîtrisé, permet d’acquérir le statut d’hyperpuissance. Concernant les « aires de civilisation », son postulat selon lequel le XXI e siècle sera « spirituel ou ne sera pas », comme l’avait évoqué naguère André Malraux, et se caractérisera par une compétition globale entre civilisations, avec à leur tête leurs leaders respectifs, est à nuancer, car les États souverains ont leur logique propre, parfois contra- civilisationnelle. Sa distinction de sept aires culturelles est également discutable 12 . Huntington est toutefois assez lucide lorsqu’il redoute l’expansionnisme antioccidental de deux aires culturelles montantes, la Chine et le monde musulman : « Ces deux civilisations pourraient en outre former un axe islamo-confucianiste susceptible de constituer une véritable menace pour le monde occidental. » Cette énumération a suscité de vives critiques, en partie justifiées 13 , mais que l’alliance renforcée de la Chine et du Pakistan, à la fois contre l’ennemi commun indien- hindouiste et contre l’Occident, a tout de même confirmée. Ses classifications sont parfois discutables : une civilisation japonaise dérivée de la chinoise ? Un monde latino-américain judéo-chrétien mais distinct de l’aire occidentale ? Mais sa description d’une Afrique tiraillée entre une civilisation propre, « l’Afrique noire » non musulmane, et l’ère islamique, ou son affirmation que l’Amérique latine, l’Afrique noire et le monde musulman sont privés de leaders ou « États phares », à la différence des civilisations occidentales (États-Unis), orthodoxes-slavo- byzantine (Russie), japonaise (Japon), sino-confucéenne (Chine) ou hindouiste-indienne (Inde), ne sont pas inintéressantes. Contrairement à ce qu’ont dit ses détracteurs, Huntington n’a pas nié les fractures internes entre les civilisations, ni présenté l’islam comme une civilisation homogène, puisqu’il souligne son extrême division due aux rivalités internes pour son leadership. Et son affirmation que le monde musulman et l’islam mondial officiel connaîtraient depuis les années 1980 un mouvement de radicalisation intégriste tourné contre l’Occident et les autres civilisations rivales (Inde-hindouiste, Afrique noire animiste-chrétienne, Asie du Sud-Est bouddhiste) est loin, hélas, d’avoir été démentie par les faits. Djihad versus McWorld ? 5) La critique de la mondialisation anglosaxonne McWorld de Benjamin Barber. Une autre clé de lecture, fort originale, est celle du politologue-sociologue Benjamin Barber, qui complète les autres et mérite un développement à part. Dans son ouvrage, Djihad versus McWorld, publié en 1996, l’auteur dépeint de façon prémonitoire la lutte très actuelle entre, d’une part, l’Empire anglophone de troisième type, qu’il appelle McWorld, excroissance hybride des États-Unis échappant à son créateur dans le cadre d’une mondialisation consumériste et informationnelle, et, de l’autre, « djihad ». Terme qu’il a regretté par la suite car il voulait décrire par là l’ensemble des forces identitaires radicales et « paroissiales » (pas seulement l’islamisme) qui défendent les valeurs traditionnelles, le nationalisme, la religion, et autres appartenances tribales, face à l’empire déstructurant et acculturant de McWorld associé à l’Occident libertaire. Pour Barber, la mondialisation non réglementée et ses multinationales américaines couplées à la technologie de l’information formeraient une sorte d’empire antinational planétaire alimenté par une déconstruction permanente des valeurs, des identités et des souverainetés. McWorld conduirait à l’anomie et à l’anarchie générale qui ne peuvent qu’appeler des réactions identitaires violentes. Celles-ci pourraient même survenir à l’intérieur de l’Occident, de ce fait divisé entre « mondialistes » et « souverainistes », en l’absence de réponse à la demande d’identité et de souveraineté nationale des peuples. « La vérité paradoxale est que les tendances tant de Djihad que de McWorld se développent en même temps et que l’on peut les voir toutes deux à l’œuvre au même endroit et au même moment [...]. Chacun des deux produit son contraire et a besoin de lui 14 . » Visionnaire, Barber annonçait ainsi la polarisation actuelle américaine entre le camp pro-Trump, anti- interventionniste, nationaliste, isolationniste, conservateur et antimondialiste, et le camp démocrate Biden-Obama, multilatéraliste, universaliste, mondialiste, assimilé à McWorld, aux délocalisations massives et aux Gafam. Du point de vue géopolitique, cet antagonisme majeur, qui fracture les sociétés occidentales, se retrouve aussi dans l’opposition entre, d’une part, les puissances émergentes non occidentales, identitaires et partisanes d’un ordre international multipolaire hostiles au multilatéralisme, aux interventions et à l’hégémonie américano-occidentales et donc au démocratisme droits-de-l’hommiste qui les justifient hypocritement, et, de l’autre, l’Occident mondialisé des démocrates/néocons américains, l’Otan, des sociaux-démocrates ouest-européens, qui voudraient étendre à l’humanité tout entière leurs valeurs woke consuméristes. Barber fut également précurseur, car à l’époque de la rédaction de son ouvrage, Internet n’en était qu’à ses débuts et les réseaux sociaux n’existaient pas, mais il pressentait la puissance de plus en plus défiante, pour les identités stato-nationales et les traditions enracinées, que sont les puissances digitales et autres multinationales déterritorialisées. La thèse de Barber met en lumière les revers de la mondialisation « pas toujours heureuse ». Il s’est probablement trompé, dans sa conclusion, en postulant que l’empire marchand anglo-saxon pourrait l’emporter. Aujourd’hui, le McWorld occidental est largement concurrencé par son rival le Big Brother chinois articulé autour de gigantesques multinationales et des « BATX » (Baidu, Alibaba, Tencent, Xiaomi, voir chapitre XII). Ces nouveaux conquérants véhiculent des valeurs opposées à celles, libérales-libertaires, du McWorld anglo-saxon, et surtout sont contrôlés par l’État. En octobre 2020, on a vu le patron d’Alibaba, Jack Ma, disparaître avant de se faire recadrer par la Cour pénale chinoise 15 ... Toutefois, la proposition barberienne de conjurer le scénario chaotique d’un « Mad Max universel » par la réhabilitation de l’État souverain confirme la nécessité que ce dernier demeure l’acteur majeur de la politique mondiale et le fait qu’il soit le cadre le plus approprié pour assurer les droits des citoyens – donc la démocratie elle-même – comme seule alternative viable face aux forces impériales et néobarbares de djihad, de Mad Max et de McWorld qui annoncent la guerre de tous contre tous. Kennedy, Fukuyama, Brzezinski, Huntington, Allison, Barber... Des visions prophétiques du monde postbipolaire, parfois – mais pas toujours – contrariées par les faits, que l’on peut appliquer selon ses préférences analytiques à une planète qui, depuis un quart de siècle, tend davantage à flirter avec le concept de désordre qu’avec celui de nouvel ordre. Un univers caractérisé par la multiplication des défis, des contentieux, des menaces et des crises. 1. Paul Kennedy, The Rise and Fall of the Great Powers, 1987. 2. Ex-néoconservateur issu de l’administration Reagan source d’inspiration pour les interventionnistes démocrates. 3. Francis Fukuyama, La Fin de l’histoire et le dernier homme, op. cit. 4. Christian Harbulot et Jean Pichot-Duclos, La France doit dire non, Paris, Plon, 1999. 5. L’Accord de libre-échange nord-américain (Alena), en anglais NAFTA (North American Free Trade Agreement), en vigueur le 1 er janvier 1994, crée une zone de libre-échange entre EU, Canada et Mexique et couvrant 480 millions d’habitants, a été complété en 2019 par l’accord Canada- États-Unis-Mexique. 6. Francis Fukuyama, La Confiance et la puissance. Vertus sociales et prospérité économique, Paris, Plon, 1997. 7. Zbigniew Brzezinski, Le Grand Échiquier, op. cit. 8. Halford John Mackinder, « Le pivot géographique de l’Histoire », The Geographical Journal, vol. 23, n o 4, avril 1904, p. 421-437. Voir aussi le précurseur de l’endiguement, Nicholas Spykman, qui préconisait de ceinturer la Russie/Heartland par une chaîne d’alliances ouest/centre européenne, turcophone, arabo-islamique et asiatique (Rimland) destinée à isoler l’Empire russe et l’empêcher d’accéder aux Mers chaudes et au Sud, objectif de l’Otan, pendant et après la guerre froide. 9. Graham Allison, Vers la guerre. L’Amérique et la Chine dans le piège de Thucydide ?, Paris, Odile Jacob, 416 p. 10. En référence à l’opposition (–431-404) entre Athènes – puissante ascendante – et Sparte – puissance ancienne – relatée par Thucydide dans La Guerre du Péloponnèse. 11. Samuel Huntington, Le Choc des civilisations, Paris, Odile Jacob, 1997, 402 p., p. 73. Voir carte n o 5. 12. Ces sept aires sont : – la civilisation occidentale, fondée sur l’héritage judéo chrétien ; – latino-américaine, dérivée de celle-ci (sic) ; – confucianiste chinoise ; – la shintoïste-japonaise, dérivée de cette dernière (sic) ; – hindouiste ; – musulmane ; – et une civilisation africaine tiraillée entre islam et non islam. 13. Alexandre Del Valle, adepte de la « géopolitique géocivilisationnelle », est ici plus hungtintonien que Jacques Soppelsa. 14. Benjamin R. Barber, Djihad versus McWorld, Paris, Desclée de Brouwer, 1996, p. 24-25 15. Voir chapitre VIII. Le patron d’Alibaba, Jack Ma, 25 e fortune mondiale, a disparu en octobre 2020 après un discours sévère à l’égard de Pékin, qui a suspendu l’entrée en Bourse de la fintech Ant Group, la banque en ligne d’Alibaba. Alibaba a été accusée de « pratique anticoncurrentielle » par la Cour populaire suprême chinoise. CHAPITRE III De la multiplication des conflits « Soyons pessimistes par réalisme et optimistes par nécessité. » Benjamin Disraeli La période 1945-1990, au-delà de quelques nuances conjoncturelles, était considérée comme une ère de certitudes avec des menaces et des ennemis potentiels clairement identifiés. Hormis l’affaire de Suez – qui s’illustra par l’alliance de facto entre les États-Unis et l’URSS d’une part, la France et le Royaume-Uni, d’autre part –, la plupart des crises et des contentieux virent s’affronter indirectement les deux superpuissances dans le cadre d’un monde bipolaire. La chute du mur de Berlin, l’effondrement des démocraties populaires, la disparition de l’Union soviétique, ont fait en revanche entrer la planète dans une ère d’incertitudes 1 , caractérisée par une gamme de plus en plus nourrie de menaces, de crises, de défis multiformes. Depuis lors, le monde, encore plus durablement déstabilisé par la pandémie, navigue dans une grande tempête, sans gouvernance capable d’envisager un ordre mondial plus multilatéraliste. Dans ce contexte, et contrairement à une idée reçue très ancrée dans les consciences occidentales selon laquelle les guerres ne seraient plus possibles sur le sol des démocraties libérales, les conflits armés directs, dits « de haute intensité », redeviennent tout à fait possibles. C’est ainsi que le général Thierry Burkhard, aujourd’hui chef d’État- major de l’armée de terre française (Cemat), confirmait officiellement, le 31 juillet 2019, le double constat de l’incertitude croissante et d’un possible retour de la guerre en Occident et plus seulement entre pays non démocratiques dits « du Sud » : « dans un monde de l’incertitude et de l’instabilité, en transformation rapide [...], il faut être prêt à s’engager pour un conflit de survie [...]. Le rapport de force redevient le mode de règlement des différends entre nations. Le combat de haute intensité devient une option très probable ». Cette idée émise par un responsable militaire dont la mission est d’anticiper les menaces mais qui est tout sauf un va-t-en-guerre dément de plein fouet le postulat philosophique majeur de l’Union européenne, qui a confié sa défense aux États-Unis, via l’Otan et a renoncé de ce fait à se doter d’une armée et d’une stratégie propres. Elle dément la croyance qui consiste à penser que l’on peut conjurer guerres et chocs de civilisation en prônant la paix, la tolérance, en renonçant à son identité, à tout nationalisme, et en affichant un universalisme droits-de-l’hommiste béat. La radicalisation de la Turquie d’Erdoğan contre les Européens depuis que ce pays a été déclaré candidat à l’intégration dans l’UE – sans d’ailleurs en remplir les critères – est l’une des manifestations les plus flagrantes de ce phénomène faussement paradoxal. On peut bien sûr également évoquer la guerre économique permanente que nous livrent tant nos « amis » protecteurs nord-américains que la Chine, les desseins de conquête prosélyte de puissances islamiques qui voient dans le vieux continent européen postchrétien un ventre mou à conquérir par la démographie et en y remplissant le vide religieux, ou encore les multiples tensions entre puissances nationalistes et autres conflits identitaires partout dans le monde. Éric Denécé, directeur du Centre français de recherche sur le renseignement (CF2R), évoque ainsi des « risques d’affrontement avec des États non nucléaires disposant de moyens militaires modernes. C’est en particulier le cas de la Turquie, à laquelle nous pourrions être confrontés en Libye, en Grèce ou en Méditerranée [...] beaucoup de pays du monde ont modernisé leur arsenal militaire alors que les Européens ont tous cherché à profiter des “dividendes de la paix” et ont baissé la garde. [...] Des armements modernes (drones, missiles, aéronefs, moyens de guerre électronique, etc.) sont présents partout, pas seulement chez les grandes puissances militaires 2 ! » Aux risques plus que jamais d’actualité, mais désormais « classiques », que sont la prolifération nucléaire, la dissémination des armements (voir chapitre VIII), l’immigration de masse incontrôlée, l’islamisation radicale, le terrorisme et les mafias transnationales ou narcopuissances, il convient aussi d’ajouter ceux de la nouvelle donne énergétique, des aléas du contexte écologique, les enjeux de la crise sanitaire et la digitalisation de l’humanité et des cybermenaces auxquelles les États et les services de sécurité se sont souvent adaptés avec un coup de retard. Autre manifestation de la mondialisation dangereuse, c’est bien grâce à la globalisation des échanges et des technologies que les pires ennemis des démocraties, à commencer par la Chine maoïste-capitaliste, mais aussi d’autres puissances multipolaristes (Turquie, Iran, Pakistan, Corée du Nord) ont réussi à acquérir des technologies et arsenaux militaires créés par les Occidentaux mais dont ces derniers, avides de délocalisation et de libre- échangisme, n’ont plus le monopole. C’est dans ce contexte de mondialisation que les puissances occidentales et leurs entreprises stratégiques ont transmis aux outsiders multipolaires des armes et des technologies qui se retournent aujourd’hui contre elles. Dupés par leurs propres modèles libre-échangistes sans limites, les Occidentaux, surtout les Européens, sont déjà massivement dépendants de pays jadis perçus comme des zones durablement faibles où il serait toujours profitable de délocaliser, source majeure de la désindustrialisation de l’Europe – excepté l’Allemagne – et des États-Unis. Multiplication des conflits infra-étatiques internationalisés Avant la montée en puissance du néosultan turc Recep Tayyip Erdoğan et l’intensification du terrorisme islamiste depuis les années 1995-2001, les pays occidentaux pensaient que la Turquie, pays membre de l’Otan, ainsi que les puissances islamiques sunnites du Golfe, et le Pakistan, alliées sous la guerre froide, face à l’URSS, étaient des « amis durables ». Il n’en est rien. Ces pays ont connu paradoxalement un processus de réislamisation radicale et de montée de l’antioccidentalisme au moment même où, au sortir de la guerre froide, et bien qu’étant nos alliés stratégiques de longue date ou nos fournisseurs d’énergie, ils entraient de plein fouet dans la modernité technologique et la mondialisation. En réalité, les élites occidentales et leurs multinationales n’avaient pas prévu les dommages collatéraux civilisationnels de la mondialisation façon McWorld, laquelle, de par son action d’acculturation et d’occidentalisation, a suscité de violentes réactions identitaires de la part des nations désireuses de ne pas subir une « seconde colonisation », à commencer par les partisans des valeurs islamiques. Ces derniers ont perçu dans la lecture individualiste, libertaire et mondialiste de la globalisation à l’occidentale, une menace existentielle majeure. Outre le monde musulman, la quasi-totalité des États-nations souverainistes non occidentaux (Russie, Chine, Turquie, Iran, pays d’Asie du Sud, Inde) ont riposté aux effets déracinant et déconstructivistes de la globalisation anglosaxonne en la désoccidentalisant, en la désidéologisant et en l’utilisant au contraire comme un levier d’expansion et de projection de puissance. Décidés à ne pas céder sans identité et souveraineté, ces acteurs ont canalisé la modernité en fonction de leurs intérêts géocivilisationnels. Bref, l’interconnexion entre aires géocivilisationnelles et l’internationalisation des échanges ont paradoxalement internationalisé et donc étendu les sources de conflit et de casus belli... D’une manière générale, on note que depuis la fin de la guerre froide, les guerres infra-étatiques internationalisées sont les plus fréquentes et les plus meurtrières, car elles permettent aux grandes puissances de s’affronter par procuration (dissuasion nucléaire et interdépendance économique entre le tandem Chine-Russie, d’une part, et l’Occident, de l’autre), à travers la participation à des conflits identitaires et des guerres civiles 3 . Par ailleurs, depuis les années 1990-2000, la politique occidentale de soutien militaire à des forces d’opposition (révolutions de velours et printemps arabes) ou séparatistes (Kosovo) pour déstabiliser des régimes considérés antidémocratiques, au nom de valeurs occidentales universelles hégémoniques ou de mobiles issus de la guerre froide, a contribué à augmenter considérablement le nombre de conflits meurtriers dans le monde, notamment dans les Balkans, au Moyen-Orient et en Afrique. Le plus souvent, les politiques de « pandémocratisme » et de regime change voulues par l’Occident (surtout anglo-américain), loin d’avoir remplacé des régimes autoritaires par des démocraties libérales, ont plutôt abouti à créer des zones de non-droit, des États criminels (Kosovo) ou faillis (Irak, Libye) et des zones de guerre civile endémique comme l’Afghanistan, le Yémen, la Syrie. Poussée par une mondialisation acharnée, ladite multiplication des conflits ouverts a pris une telle ampleur au cours de la seconde moitié du XX e siècle qu’elle a abouti, via la polémologie 4 , à de multiples tentatives de typologies. L’une de ces tentatives intéressantes est, au-delà de quelques simplifications, celle proposée par le fondateur de la polémologie française, Gaston Bouthoul, et de son disciple René Carrère, auteurs du Défi de la guerre 5 . Les deux auteurs, à travers cet ouvrage, analysaient trois grands types de conflits : les guerres interétatiques, les guerres coloniales et les guerres intraétatiques postcoloniales. D’évidence, les conflits coloniaux décrits par Bouthoul sont quasi inexistants aujourd’hui, puisqu’ils ont été fort logiquement concentrés sur la période 1955-1975, l’époque d’accession à l’indépendance de pays d’Afrique, d’Asie méridionale ou de la péninsule indochinoise. Ce type de conflits ouverts s’est progressivement effacé au profit des guerres intraétatiques, que Bouthoul a qualifiées de « conflits de troisième type ». Le plus significatif réside donc dans le déclin quantitatif des conflits classiques par rapport aux autres, notamment identitaires et ethnoreligieux. Ce déclin résulte directement des caractères fondamentaux du système bipolaire engendré par l’après-Yalta et a été fortement conforté par les effets du nucléaire (voir « Le pouvoir égalisateur de l’atome », dixit Pierre Marie Gallois). À cette époque, les deux superpuissances ont très vite estimé que tout conflit direct, y compris à l’échelle de leur zone d’influence respective, serait désormais inconcevable, sous peine de rompre le fragile équilibre des forces, au- delà de la sévère crise de Cuba, en 1962, qui faillit plonger le monde dans l’Apocalypse. Dans ce contexte, les guerres interétatiques ont « privilégié », si l’on peut dire, les nations défavorisées du tiers-monde, d’où la croyance en vogue dans l’Europe pacifiste, déplorée plus haut, que l’homme blanc-occidental riche et ses démocraties libérales seraient protégés ad vitaem eternam par les parapluies nucléaires et ne connaîtraient plus jamais de guerre classique sur leur sol. C’était oublier la montée des guerres asymétriques, identitaires, religieuses, civiles, terroristes, contre lesquelles l’arme nucléaire d’un État ne peut rien puisqu’elles se passent sur son propre sol. Échec du multilatéralisme ? En fin de compte, la multiplication des conflits depuis la fin de la guerre froide peut s’expliquer non seulement par le fait que la sanctuarisation nucléaire ne suffit pas et ne concerne que peu de nations, mais aussi par l’échec patent du multilatéralisme, qui n’a réglé pratiquement aucun des conflits, excepté les exemples discutables des Balkans : échecs au Rwanda, à Chypre, en Israël-Palestine, en République démocratique du Congo, en République centrafricaine, en Syrie, en Libye, en Irak, en Corée du Nord, au Yémen, en Somalie, et aussi sur le dossier nucléaire iranien, les exemples sont trop nombreux pour être tous énumérés. La création de l’ONU, suivie de la promotion officielle durant ces dernières décennies, de la paix internationale, n’a en effet pas réduit les violences, bien que les antagonismes entre grandes puissances aient été souvent évités et qu’ils se déroulent souvent dans le cadre de guerres civiles ou conflits asymétriques. La croyance en la fonction durablement pacifique de la sanctuarisation nucléaire a semblé décrire une réalité depuis le début de l’ère nucléaire militaire, puisque seuls quatre conflits ouverts, relativement limités, ont opposé directement des États échappant au dramatique contexte du sous-développement : la guerre des Malouines, entre l’Argentine et le Royaume-Uni, le conflit du Cenepa 6 (la « Cordillera del Condor »), entre Pérou et Équateur, le conflit du Haut-Karabagh, entre Arménie et Azerbaïdjan et le conflit non officiel certes, mais bien direct, qui oppose la Russie à l’Ukraine. Si les conflits des Malouines et du Cenepa sont largement oubliés du grand public et si celui d’Ukraine n’a cessé de s’intensifier depuis 2004 (voir infra), celui du Haut-Karabagh s’est réveillé – tel un volcan – le 27 septembre 2020, après vingt années de statu quo. Il mérite que l’on s’y penche un instant, sachant qu’il se déroule sur une zone stratégique, le Caucase, disputée par deux empires renaissants, la Turquie nationale-islamiste d’Erdoğan, qui a considérablement appuyé son allié et « frère » azéri turcophone, et la Russie slavo-orthodoxe, qui veut toujours contrôler ces deux États de « l’étranger proche », ex-soviétiques. Ce conflit concerne les Européens au premier plan, car le pays qui a poussé à la guerre, la Turquie, membre de l’Otan et candidat à l’intégration dans l’UE, est lui-même au bord de la guerre avec deux pays membres de l’Union, Chypre et la Grèce, ainsi qu’avec des pays arabes qui partagent avec la Grèce, Chypre ou la France, des intérêts géoénergétiques (voir infra). Le conflit du Haut-Karabagh (voir carte n o 10) confirme l’échec du multilatéralisme, manifestation parmi tant d’autres, du fait que la mondialisation, plus dangereuse et complexe que l’on croit, n’a supprimé ni les motifs de conflits, ni les identités nationales et civilisationnelles. Le conflit du Haut-Karabagh La récente confrontation armée entre l’Azerbaïdjan et les Arméniens du Haut Karabagh (27 septembre- 10 novembre 2020) n’est que l’énième épisode d’un antagonisme géopolitique violent qui date des années 1988- 1991 : l’Arménie chrétienne ex-soviétique est non seulement enclavée mais surtout prise en tenailles entre Turcs musulmans sunnites à l’Ouest et Azéris musulmans chiites à l’Est (turcophones également), et n’a de bons rapports qu’avec les Russes et dans une moindre mesure, avec les Perses voisins, eux-mêmes concurrents des Turcs et des Russes et méfiants vis-à-vis de l’irrédentisme azéri dans le nord de l’Iran... Bienvenue dans le Caucase ! Dès la disparition de l’Union soviétique, un conflit ouvert éclata entre l’Arménie et l’Azerbaïdjan à propos du Haut- Karabagh (ou Nagornyi-Karabakh, voir carte n o 10) que les Arméniens nomment « Artsakh ». De fait, il n’est que la dramatique suite des relations singulièrement tendues, depuis des générations, entre ces deux nations qui viennent d’accéder alors à l’indépendance. Ces tensions, qui remontent au début du XVII e siècle, sont renforcées à partir de la guerre russo-persane de 1804-1813 qui voit la Transcaucasie passer sous le giron russe. Elles entraînent de douloureuses conséquences régionales, comme les déplacements forcés d’Arméniens de Turquie et d’Iran vers les horizons du Caucase. Ces relations s’illustrent, au crépuscule de l’Union soviétique, par une guerre sourde et strictement localisée. Cet événement, du côté des Arméniens de la région, appuyés par Erevan, a permis à l’époque de qualifier le conflit de « lutte de libération nationale » et non de guerre interétatique entre l’Arménie et l’Azerbaïdjan. Deux principes de légitimité s’opposent Rappelons que le Nagornyi-Karabagh, historiquement arménien depuis deux millénaires (et peuplé à 80 % d’Arméniens à la veille du conflit), avait été octroyé par Staline en 1921 à l’Azerbaïdjan, voisin dans le cadre de la politique soviétique de divide et impera, mais aussi pour gagner le soutien du pouvoir kémaliste en Turquie alors en guerre contre les alliés franco-britanniques. Entre 1988 et 1990, en vue de l’affaiblissement de l’URSS, comme tant d’autres républiques ex-soviétiques, les Arméniens du Haut-Karabagh ont invoqué le droit à l’autodétermination, comme l’Azerbaïdjan, vis-à-vis de l’URSS. Mais les Azéris, invoquant les accords d’Helsinki et le principe d’intangibilité des frontières existantes, ont rétorqué que le Haut-Karabagh est partie intégrante de son territoire depuis 1921 et que l’Azerbaïdjan, devenu indépendant et reconnu par l’ensemble de la communauté internationale dans ces frontières de 1921, ne pouvait accepter la sécession des Arméniens du Karabagh, et encore moins leur rattachement à l’Arménie. Du coup, la région autonome s’est autoproclamée indépendante le 2 septembre 1988 non pas vis-à-vis de l’Azerbaïdjan, mais du pouvoir central soviétique. En 1988 et 1990, des pogroms antiarméniens ont éclaté dans la ville de Sumgaït, puis à Bakou et Kirovabad, en Azerbaïdjan, faisant des centaines de victimes et provoquant d’importants mouvements de populations entre l’Arménie et l’Azerbaïdjan. En septembre 1991, l’Assemblée nationale du Haut-Karabagh réitéra sa déclaration d’indépendance, ratifiée par le référendum du 10 décembre, avec une écrasante majorité de « oui », mais elle n’a jamais été reconnue par aucun État..., pas même par les Nations unies ou d’autres organisations internationales intergouvernementales qui ne veulent pas compromettre leurs relations avec l’Azerbaïdjan riche en pétrole et bien plus prospère que la petite Arménie enclavée, et sous embargo turco-azéri... Pour rétablir leur contrôle sur le Haut-Karabagh, les autorités azerbaïdjanaises envoyèrent des troupes. Entre 1990 et 1992, une véritable catastrophe humanitaire eut lieu dans cette région à la suite du blocus imposé par l’Azerbaïdjan. Les Arméniens du Haut-Karabagh, appuyés par l’Arménie voisine, repoussèrent les Azéris venus rétablir leur souveraineté. Les affrontements inhérents à cette guerre de libération, qualifiée de « séparatiste » par Bakou, feront de nombreuses victimes. La médiation internationale de plusieurs groupes, comme l’OSCE, ayant échoué à trouver une solution au conflit qui satisfasse les intérêts des deux côtés. Au début de l’année 1993, les forces arméniennes, qui avaient l’avantage militaire, pénétrèrent en territoire azéri et occupèrent une zone qualifiée de « périmètre de sécurité » autour du Haut- Karabagh, soit 8 000 km² de terres azerbaïdjanaises. À l’issue du conflit au terrible bilan (plus de 40 000 morts, 1 million de réfugiés azéris, 400 000 Arméniens fuyant l’Azerbaïdjan occasionnant d’effroyables massacres, comme celui de Khojaly 7 ), 20 % du territoire azéri fut désormais contrôlé par les forces locales arméniennes : le Haut- Karabagh et 7 districts voisins, ceux de Fuzuli, d’Agdam, de Djebrail, de Goubadly, de Latchin, de Kelbadjar et de Zangelan. Comme Israël dans ses différentes guerres avec les pays arabes, entre 1948 et 1973, les Arméniens de la région autonome profitèrent de leur avantage militaire pour non seulement reprendre leur province arménienne en territoire du Karabagh officiellement azéri, mais également pour s’emparer des territoires du Haut-Karabagh (bordures sud) peuplés d’Azéris, dans une logique d’acquisition d’une zone tampon entre eux et leur voisin ennemi. Ce sera là, près de trente ans plus tard, la source du revanchisme des dirigeants azéris et de leurs alliés turcs, décidés à laver cet affront : durant toutes les années 1990 et 2000, puis de façon plus nette encore depuis 2010-2018 avec un appui politique et militaire turc croissant, Bakou s’est préparé à la revanche, en achetant des armes à tous les pays capables de lui en fournir : Turquie, Israël, Italie, Grande-Bretagne, Allemagne, France... et même la Russie, pourtant officiellement protectrice des Arméniens. En réalité soucieuse de vendre ses armes à tous et de maintenir un équilibre dans un Caucase et une zone Caspienne turcophone extrêmement stratégique et riche en hydrocarbures, Moscou entend rester présente en ménageant toutes les parties. Du rôle de la communauté internationale Dès le milieu de l’année 1992, la communauté internationale tente de mettre un terme à la guerre, via la Conférence sur la sécurité et la coopération en Europe (CSCE) 8 . Le 24 mars 1992, la CSCE officialise la création d’un « Groupe de contact pour le Haut-Karabagh », rapidement appelé « Groupe de Minsk 9 », qui recense onze participants, dont la France et les États-Unis, rejoints en 1994 par la Russie de Boris Eltsine. Cette triple présidence France-États-Unis-Russie est en fait le seul forum multilatéral où diplomates russes, américains et français ont travaillé ensemble. Avant l’intégration de la Russie au Groupe, ce dernier suggère dès avril 1992 la mise en place d’une force de maintien de la paix « Otan/CEI » pour vérifier la pérennisation du cessez-le-feu et pour protéger les convois humanitaires. Mais Moscou va s’opposer à cette initiative, refusant le déploiement sur le territoire concerné d’une force comportant des combattants de l’Otan. Et pour cause, nous verrons dans le chapitre suivant que le principal motif de l’antagonisme persistant entre l’Occident et la Russie postsoviétique est justement la pénétration des dispositifs atlantistes et occidentaux dans une zone « réservée » que Moscou nomme son « étranger proche » (Caucase, Ukraine-Crimée, Biélorussie, Géorgie, républiques turcophones – et autres ex-soviétiques d’Asie centrale/CEI). Au cours de l’année 1993 (année cruciale), l’ONU tente de reprendre les choses en main : à la demande du Conseil de sécurité, son secrétaire général, Boutros Ghali, valide un rapport sur la situation du Haut- Karabagh. Il y rappelle « que les combats dans le Haut-Karabagh constituent une menace pour le maintien de la Paix et de la sécurité internationale dans toute la Transcaucasie ». L’ONU adoptera quatre résolutions (fort inefficaces) au cours de cette seule année 1993. Cependant, le conflit reste latent, comme le montrent les nombreux incidents de frontières (2006, 2008, 2010, 2012, 2013, avril-été 2016 10 , été 2020), qui ont fait chaque fois craindre le retour d’une guerre ouverte que chacun savait inévitable depuis 2016. Le Groupe de Minsk propose un règlement par étapes de la question du Haut-Karabagh. Quatre suggestions seront émises, convergeant vers l’obtention d’un compromis qui comprend la restitution de l’ensemble des territoires occupés par les Arméniens et le droit au retour, en échange d’une véritable autonomie accordée à la communauté arménienne résidant sur ceux-ci. En juin 2016, le Groupe de Minsk présente des propositions concrètes 11 , reposant sur : le retrait complet des forces arméniennes des sept districts occupés ; la démilitarisation du Haut-Karabagh et le déploiement d’une force multilatérale de paix et de sécurité ; la réinstallation des personnes déplacées et le financement de la reconstruction des villes et des villages détruits par la guerre ; in fine, le référendum sur le statut du Haut-Karabagh. Depuis cette date, plusieurs documents, appuyés ultérieurement par l’ONU, sont validés par l’Otan, l’OSCE, le Conseil de l’Europe et l’Organisation de la coopération islamique (OCI), pour résoudre le problème conformément au droit international. Certes, on peut nuancer cette impartialité par le fait que deux membres de l’OCI, Turquie et Pakistan sont des alliés indéfectibles de l’Azerbaïdjan... Toujours est-il que le multilatéralisme a échoué à régler le conflit qui éclate à nouveau. Le retour de la guerre dans le Caucase Le 27 septembre 2020, une nouvelle guerre éclate dans le Haut-Karabagh, lancée cette fois-ci par l’Azerbaïdjan avec, ce qui est nouveau, un appui et une coopération stratégiques turcs officiels et déterminés, cela après de multiples incidents survenus depuis 2016. Cette nouvelle guerre, intense mais localisée dans le Haut-Karabagh, va durer bien moins longtemps que les précédentes, deux mois seulement, mais elle sera particulièrement meurtrière : au moins 7 000 à 8 000 morts du côté arménien, et 4 000 à 5 000 côté azéri, d’après les services de renseignements russes et britanniques. Mais cette fois-ci, les forces azéries ont l’avantage pour trois raisons : 1/ Elles sont bien mieux armées et équipées que dans les années 1990, car elles se sont préparées en utilisant l’argent de la manne pétrolière qui a permis d’acheter des armes et les drones de haute technologie aux Turcs, aux Israéliens, aux Italiens et à d’autres pays de l’Otan dont la France 12 . 2/ Vladimir Poutine a laissé faire, au départ, la reprise de territoires anciennement azéris du Karabagh acquis par les Arméniens dans les années 1990, tout en stoppant l’avancée azérie in extremis, ceci dans une logique d’équilibre mais aussi pour « punir » les Arméniens d’avoir mis au pouvoir, en Arménie, en mai 2018, un Premier ministre antirusse, Nikol Pachinian... 3/ La Turquie d’Erdoğan envoie des armes, des drones, appuie diplomatiquement l’offensive azérie, puis envoie des mercenaires djihadistes arabes et turkmènes de Syrie exfiltrés et entraînés par la société de mercenaires Sadat du général Adnan Tanriverdi. Ce proche d’Erdoğan a recruté depuis des mois des milliers de combattants islamistes et djihadistes cantonnés, depuis l’échec de Daesh et de la rébellion sunnite anti-Assad, dans le nord-ouest de la Syrie, en zone sous contrôle turc (zone officialisée en vertu des accords turco-russo-iraniens de désescalade en Syrie signés lors des rencontres d’Astana et de Sotchi entre 2016 et 2018). Les Arméniens perdent la guerre. Ils doivent capituler et restituer nombre de territoires azéris du Haut- Karabagh et même un peu plus, avec le corridor reliant l’Azerbaïdjan à la Turquie via le Nakhitchevan (république autonome de quatre cent mille habitants peuplée d’Azéris mais jadis d’Arméniens qui en ont été expulsés), tout cela dans le cadre de négociations entre la Russie et la Turquie, pour la première fois présente dans l’étranger proche russe (la Russie dispose de son unique base militaire dans la région en Arménie, à Gumri). On remarquera en passant que, dans le cadre de ce monde multipolaire en voie de constitution, ce n’est pas le Groupe de Minsk, cité précédemment, qui a fait avaliser le cessez-le-feu du 10 novembre 2020, mais une entente tripartite fort cynique entre l’Azerbaïdjan, la Turquie et la Russie, excluant soigneusement des termes de l’accord les parrains occidentaux du Groupe de Minsk (France, États-Unis) : Erevan s’engage à rétrocéder à Bakou les districts d’Aghdam et de Kelbadjar ; un corridor est aménagé à Latchin ; le retour des personnes déplacées sera effectué sous le contrôle de l’ONU ; et, plus concrètement encore, dès le lendemain de la signature de l’accord, deux mille soldats russes sont déployés le long de l’ancienne ligne de front (voir carte n o 10). En fait, l’un des objectifs de guerre de long terme des Azéris, au-delà de la récupération des territoires azéris pris par les Arméniens en 1993, visait l’obtention, extrêmement importante sur le plan stratégique et idéologique, du fameux « passage de Meghri », une bande large de dix kilomètres permettant de relier le territoire azéri à l’enclave azérie du Nakhitchevan, située à l’intérieur du territoire de l’Arménie. L’accord de cessez-le-feu prévoit donc la création d’un corridor, en terre arménienne, qui reliera l’enclave azérie du Nakhitchevan à l’Azerbaïdjan. C’est une victoire pour les Azéris, car, géographiquement, cette région n’avait de frontière qu’avec la Turquie, l’Arménie et l’Iran, mais aucune continuité territoriale avec le reste de l’Azerbaïdjan. De facto, avec ce droit de passage, le rêve des panturquistes, qui, depuis le génocide arménien de 1915, ont toujours voulu faire la « jonction » entre turcophones de Turquie et du Caucase, est sur le point d’être réalisé, la continuité territoriale étant désormais possible et extensible (voir carte n o 11). D’évidence, la question du Haut-Karabagh n’a pas fini d’envenimer l’ensemble du Caucase, sur fond de nationalismes irrédentistes et de géoénergie... La Turquie est entrée en scène... La paix sera durable tant que les Russes assureront la protection du Haut-Karabagh, certes toujours existant, mais très peu peuplé, non reconnu par la communauté internationale et réduit à sa partie nord. De plus, on notera que le couloir de Latchin, seul point de jonction entre l’Arménie et le Haut-Karabagh, est une route étroite qui peut être coupée à n’importe quel moment par la partie azérie. En Azerbaïdjan, l’objectif stratégique maximal viserait la reprise de l’ensemble du territoire autonome et donc de la partie encore peuplée par les Arméniens, ainsi que d’une partie de l’Arménie nécessaire pour assurer une jonction viable plus large entre Turquie, Nakhitchevan et Azerbaïdjan. Pour ce faire, il faudrait une nouvelle guerre, que les Azéris gagneraient probablement si les forces d’interposition russes ne restaient pas ou si Vladimir Poutine obtenait des contreparties de la part des parties azérie et turque... Certes, on n’en est pas là, mais il ne faut jamais oublier, contrairement aux fantasmes de certains russophiles extrêmes, que Moscou n’est pas une puissance idéaliste chrétienne nécessairement proarménienne, mais qu’elle cherche à rester présente sur l’ensemble du Caucase riche en hydrocarbures (Azerbaïdjan), traversé par les routes de transit énergétique, et que dans ce contexte, elle n’a jamais considéré le Haut-Karabagh comme autre chose qu’une partie intégrante du territoire de l’Azerbaïdjan souverain... Tout dépendra donc des relations futures entre la Turquie et la Russie, respectivement protectrices de l’Azerbaïdjan et de l’Arménie. Bien qu’étant une nation indépendante distincte de la Turquie, de confession majoritairement chiite, encore en partie russophone, comme les autres pays du Caucase ex-soviétiques, l’Azerbaïdjan, de langue et d’ethnie turques, est perçue par Ankara comme une nation sœur. Mais cette dernière est coupée des frères azéris par l’obstacle géographique et humain naturel qu’est l’Arménie : les nationalistes panturquistes ont toujours rêvé de fusionner la Turquie avec les pays turcophones du Caucase (Azerbaïdjan et autres minorités « tatares ») ou d’Asie centrale (Turkmenistan, Kazakhstan, Kirghizistan, Ouzbékistan voir carte n o 11). Avec l’impératif de vider les arrières d’un des fronts de la Première Guerre mondiale. Ce fut d’ailleurs la motivation première des officiers jeunes-turcs (« triumvirat »), adeptes du panturquisme raciste (équivalent du pangermanisme hitlérien), qui planifièrent le génocide des Arméniens d’Anatolie de 1915. Le Président turc a ainsi fait d’une pierre deux coups en appuyant ostensiblement, politiquement et militairement (coordination entre les armées turque et azérie), cette guerre pour les « frères turcs azéris » : il fait oublier des problèmes économiques et politiques intérieurs ; il consolide l’alliance électorale de son parti l’AKP, avec les nationalistes panturcs du MHP ; et il renforce la présence turque dans la région stratégique et riche en hydrocarbures du Caucase turcophone (mer Caspienne), alors que la Turquie manque d’énergies fossiles et ne veut pas trop dépendre du gaz russe. Erdoğan a eu l’habileté de négocier cette incursion dans « l’étranger proche » russe en laissant en échange Vladimir Poutine contrecarrer les projets turcs irrédentistes en Syrie 13 , puis au nom de pactes de non-nuisance réciproques en Libye au-delà de certaines lignes... Certains disent que la Russie a abandonné les Arméniens et a cédé aux revendications d’Erdoğan. Une lecture moins idéaliste des événements doit nous rappeler que Moscou ne défend officiellement que l’Arménie reconnue internationalement et que la Russie n’a jamais reconnu le Haut-Karabagh arménien. En suscitant un accord de cessez-le-feu qui sauve les Arméniens de la catastrophe totale tout en donnant des satisfactions aux Azéris, la Russie de Poutine accroît en fait son influence dans le Caucase en tant que puissance d’équilibre dans ce nouveau Grand Jeu russo-turc... Les leçons de la guerre du Haut-Karabagh On ne répétera jamais assez la phrase célèbre de Gaston Bouthoul, « préparez Venus viendra Mars »... Les Arméniens connaissent un déclin démographique catastrophique depuis trente ans ; le Haut-Karabagh s’est vidé, comme l’Arménie, d’une partie de sa population, les habitants des villages sont en moyenne très âgés et l’Arménie n’a pas réussi à y fixer les populations faute de dynamisme économique. Il y a depuis longtemps bien plus d’Arméniens en Russie qu’en Arménie, et nombre d’Arméniens quittent continuellement leur terre pauvre et enclavée pour aller en Russie ou vers l’Occident. Et si l’Arménie a connu une forte instabilité politique ces dernières décennies, en face, la riche et plus jeune république d’Azerbaïdjan, certes non démocratique, est remarquablement stable, avec la dynastie des Aliev, père et fils, au pouvoir depuis 1993. La première conclusion est qu’avec la Chine et d’autres puissances autoritaires, l’Azerbaïdjan et son système illibéral semblent démontrer la plus grande efficacité politique des « démocratures », parfois capable de plus de stabilité par rapport aux démocraties rendues instables par les élections. Et dans le cas arménien, certains ont observé cyniquement que le pays a été gravement divisé, et de ce fait affaibli, face à son ennemi héréditaire azéri, à la suite d’une alternance problématique largement appuyée par l’Occident 14 ... Une autre leçon de ce conflit turco-azéro-arménien a été la démonstration de l’efficacité des armes automatisées, robotisées, comme les drones, qui ont fait la différence dans le Haut-Karabagh, dans le cadre d’une révolution dans les affaires militaires qui s’observe aussi sur des théâtres comme Gaza, ou la Libye, où les différents acteurs utilisent de façon privilégiée les drones, parallèlement au recrutement de mercenaires, autre phénomène croissant dans les nouvelles affaires militaires et conflits régionaux. Ce conflit s’inscrit également dans la grille de lecture de Samuel Huntington qui prédit la multiplication de conflits identitaires dans les zones de fracture et de contact civilisationnelles. Le spectre d’une guerre interétatique entre l’Ukraine et la Russie Toujours dans l’espace postsoviétique, une situation conflictuelle oppose cette fois-ci les deux États les plus importants ex-membres de l’URSS, à savoir la fédération de Russie et l’Ukraine qui, à elles deux, représentaient plus des trois quarts du potentiel économique et les deux tiers de la population soviétiques. Les relations entre ces deux pays sont marquées par un antagonisme croissant caractérisé par un décrochage géopolitique des élites ukrainiennes qui a commencé avec la révolution orange de 2004 et a évolué en une rupture totale avec l’Euromaïdan, l’annexion de la Crimée et le conflit armé du Donbass (2014, voir carte n o 14). Le conflit armé à l’est de l’Ukraine (voir carte n o 14), qui a éclaté en 2014 et a fait plus de treize mille morts et près d’un million et demi de déplacés, n’est pas une simple guerre civile ukrainienne mais oppose dangereusement les troupes russes à celles de l’Otan en plus de risquer à tout moment d’évoluer en une guerre interétatique entre la Russie et l’Ukraine, cette dernière compensant sa faiblesse par l’appui occidentalo-américain. Il résulte d’un antagonisme plus large, opposant, d’une part, les puissances externes atlantistes, indirectement impliquées (Otan) et, de l’autre, la Russie, directement engagée. Les Ukrainiens y voient un conflit interétatique l’opposant à la Russie, accusée d’intervenir dans le Donbass en soutenant des rebelles prorusses. En revanche, Moscou affirme qu’il s’agit d’une guerre civile entre les séparatistes russophones de l’est de l’Ukraine et le pouvoir nationaliste de Kiev. Rappelons le contexte général : depuis la fin des années 1990, la Russie a connu une certaine reprise économique soutenue par la hausse des prix des hydrocarbures. Elle essaie donc de transformer cette amélioration conjoncturelle en influence politique avec comme objectif final la reconstitution d’un espace fondé sur un projet d’intégration coïncidant largement avec l’Union soviétique et naturellement dominé et guidé par Moscou. Toute la politique étrangère de Vladimir Poutine s’inscrit dans cette tendance lourde de la géopolitique russe traditionnellement tournée vers la conquête territoriale des zones qui entourent son noyau central européen historique. Dans ce dispositif, l’Ukraine représente évidemment la pièce maîtresse qui permet à la Russie de redevenir une puissance eurasienne car, à partir de ce pays, la Russie peut se projeter à la fois sur la mer Noire, la Méditerranée orientale et l’Europe centrale et balkanique. D’où la stratégie américaine visant à soutenir en Ukraine, comme en Géorgie et ailleurs, les forces politiques hostiles à Moscou. Cette manœuvre fait d’ailleurs d’une pierre deux coups en fragilisant la sécurisation des gazoducs acheminant le gaz russe vers l’Europe de l’Ouest, qui n’est pas du goût des États-Unis qui y voient un risque de dépendance de l’UE envers la Russie. D’où également l’hostilité américaine envers le gazoduc Nord Stream qui contourne l’Ukraine, par le nord, appuyé par l’UE, surtout par l’Allemagne (Voir carte n o 13). Les événements du printemps 2021, qui ont failli déboucher sur une guerre directe entre l’Ukraine et la Russie avec une implication indirecte de l’Otan, illustrent les aléas de ce conflit au départ apparemment intraétatique, susceptible de conduire dans un second temps à une véritable guerre interétatique. Ceci est inédit pour cette région du monde depuis la fin de la Seconde Guerre mondiale si l’on ne tient pas compte des guerres chaotiques survenues dans les années 1990 en ex-Yougoslavie. Stratégies et buts de guerres de part et d’autre Le bras de fer entre la Russie et l’Ukraine le long de la frontière commence fin mars 2021 lorsque la Fédération de Russie masse des dizaines de milliers de soldats dans les régions russes adjacentes et en Crimée (annexée par Moscou en 2014). Plusieurs experts russes informés de la situation, comme le spécialiste des questions de défense et journaliste d’opposition Pavel Felgenhauer, ont dévoilé les supposés plans de guerre russes, révélant que Moscou se préparait à une grande guerre d’envergure qui devait être lancée par deux grandes percées à partir de Belgorod, vers le sud, et de la Crimée, vers le nord, afin de prendre en tenailles l’essentiel de l’armée ukrainienne qui se trouvait dans la partie orientale du pays. L’objectif aurait été de la détruire et d’imposer une solution favorable aux intérêts russes. Côté ukrainien, certaines sources indiquent qu’il y aurait également une volonté de reproduire le scénario azéri, pour récupérer militairement les territoires russophones rebelles de l’Est, l’Ukraine escomptant que la Russie n’ose pas intervenir massivement et directement dans le Donbass pour plusieurs raisons : primo, Moscou n’a pas le droit légal d’intervenir sur le sol ukrainien dont le Donbass (voir carte n o 14) fait partie, sachant que l’indépendance de ces républiques autoproclamées n’a jamais été reconnue par les autorités russes elles-mêmes (comme celle du Haut-Karabagh). Ainsi, Kiev croyait que Moscou se serait comporté dans le Donbass de la même façon qu’elle l’a fait au Nagornyi-Karabakh, c’est-à-dire en suivant scrupuleusement le droit international et les frontières légales reconnues. Secundo, l’Ukraine espérait que la menace des sanctions très lourdes infligées par l’Occident à la Russie, si elle optait pour un scénario de guerre directe, dissuaderait Moscou d’agir de la sorte. Tercio, le soutien indirect de l’Alliance atlantique, qui s’est montrée solidaire de l’Ukraine en mobilisant des troupes et en se disant prête à dépêcher des bâtiments de guerre en mer Noire, a constitué une autre forme de dissuasion car cela aurait pu déboucher sur une guerre conventionnelle à grande échelle que la Russie ne pourrait pas gagner ou se permettre de livrer. Il convient aussi de souligner que cette crise a récemment pris une forme différente car le président américain Joe Biden est intervenu directement en soutien de Kiev, à la différence des réactions prudentes de Barack Obama en 2014, secondé d’ailleurs par Biden lui-même, alors adepte de l’apaisement. Il est vrai que depuis lors, l’armée ukrainienne s’est considérablement rénovée : en 2014, elle ne pouvait aligner que 6 000 soldats prêts au combat, alors qu’aujourd’hui elle compte des dizaines de milliers de soldats bien entraînés par des instructeurs américains et canadiens présents en Ukraine dans le cadre d’accords de coopération militaire. Le budget de l’armée ukrainienne a été augmenté et les forces nationales restructurées. Le géopolitologue Viatcheslav Avioutskii rappelle ainsi qu’en 2020, le Pentagone a accordé 250 millions de dollars au titre de l’aide militaire aux forces armées ukrainiennes. Les Ukrainiens ont cependant toujours réfuté les rumeurs d’intention guerrière en insistant sur le fait qu’ils cherchent une solution diplomatique, le président Volodymyr Zelensky ayant même proposé une nouvelle rencontre personnelle dans le Donbass ukrainien à Vladimir Poutine. Mentionnons également le soutien de la Turquie d’Erdoğan au camp nationaliste ukrainien : le néosultan essaie d’utiliser l’Ukraine dans ce jeu d’échecs régional – au même titre qu’il le fait en Syrie et en Libye. À l’apogée de la crise du printemps 2021, il est d’ailleurs intéressant de rappeler la visite du président ukrainien Zelensky à Ankara pour afficher le soutien d’Erdoğan à sa cause, cela avant même de se rendre à Paris pour rencontrer Emmanuel Macron... Ce dernier a d’ailleurs évité de s’impliquer dans cette affaire trop délicate et problématique pour lui, d’autant qu’il est à couteaux tirés avec le néosultan turc et demeure objectivement du côté russe sans l’avouer. Ce conflit existentiel russo-ukrainien, alimenté par la nouvelle guerre froide russo-occidentale, peut-il vraiment être résolu autrement que par la guerre ? Le scénario le plus probable est que l’Ukraine obtiendra à terme son intégration au sein de l’Otan, de plus en plus empathique envers sa cause, et qui profitera de ce prétexte pour s’étendre toujours plus à l’est au détriment de « l’étranger proche russe ». Ceci pourrait donner la possibilité à l’Ukraine de récupérer militairement un jour ses territoires contestés, ou au moins forcer la main à la Russie dans le cadre de négociations. Cependant, Moscou n’acceptera pas facilement ce type de scénario d’empiétement majeur sur son pré carré. Vladimir Poutine pourrait alors avoir recours à de nouvelles escalades du type de celle du printemps 2021. La guerre avec l’Occident (Otan), directe ou indirecte, n’est quant à elle pas totalement à exclure, certes dans le scénario le plus pessimiste. Cela signifierait que la Russie, si elle est encore contrôlée par les forces hostiles à l’Alliance atlantique, accentuerait son rôle d’État multipolariste soutenant des États hostiles à l’Occident, dont la Chine, la Corée du Nord, l’Iran, et toutes les autres forces alternatives. Cet énorme gâchis géopolitique, qui empêche toute réconciliation occidentalo-russe panoccidentale, serait désastreux pour l’autonomie stratégique de l’Europe et la sécurité collective des Occidentaux, et ne bénéficierait qu’aux deux grands prédateurs civilisationnels et stratégiques revanchards que sont l’islamisme radical étatique ou transnational et la Chine néomaoïste. Taiwan : vers un affrontement direct Chine-États-Unis ? La situation actuelle à Taiwan est également fortement sismique. Depuis avril 2021, les potentialités belligènes du contentieux qui oppose depuis des années, sur le terrain diplomatique et politique, la Chine communiste- continentale à l’île de Taiwan, se sont nettement intensifiées. Le 12 avril 2021, la pénétration de vingt-cinq avions de combat chinois dans la zone de défense aérienne de Taiwan 15 a constitué la plus grande incursion de l’armée chinoise dans la zone que Pékin a cherché longtemps à isoler diplomatiquement avec succès au nom du slogan « une seule Chine », mais que le président chinois Xi Jinping a promis d’annexer de son vivant de gré ou de force. L’urgence de la situation a été pointée du doigt devant le comité des forces armées du Sénat américain le 9 mars 2021 par Philip Davidson, le chef du commandement du Pacifique des États-Unis 16 , pour qui une guerre serait même possible entre les États-Unis et la Chine si cette dernière maintenait son engagement d’envahir Taiwan avant la fin de la décennie. Davidson a notamment averti que les États-Unis ont toutefois fort peu de chances d’empêcher cette invasion, car la Chine possède l’avantage, que ce soit du point de vue du nombre que du point de vue logistique, les bases chinoises n’étant qu’à deux cents kilomètres de Taiwan. En réponse aux avertissements et aux velléités interventionnistes de l’administration Joe Biden tant dans les prés carrés russes (Ukraine) que chinois (mer de Taiwan), la Russie et la Chine ont d’ailleurs uni leurs forces pour menacer les États-Unis simultanément dans deux points chauds. Ainsi, le 13 avril 2021, au moment où les forces russes se sont massées à la frontière ukrainienne alors que les navires de guerre américains se préparaient à entrer dans la mer Noire, le vice-ministre russe des Affaires étrangères, Sergueï Ryabkov, a mis en garde l’équipe Biden contre toute implication en Ukraine, et le même jour, quand les navires de guerre américains ont tenté de dissuader en vain l’aviation chinoise de pénétrer en masse dans l’espace aérien de Taiwan, le porte-parole du ministère chinois des Affaires étrangères, Zhao Lijian, mettait en garde l’administration Biden lors d’une conférence de presse contre toute implication à Taiwan. Pour la première fois, les deux régimes ont symboliquement synchronisé leurs avertissements, mettant en garde les États- Unis de ne pas franchir la ligne rouge pouvant mener à un conflit ouvert. Nul doute que c’est en partie dans le but de tenter de conjurer cette « alliance antihégémonique » tant redoutée par Brzezinski et dans le cadre de la prise de conscience de la menace chinoise croissante que le président Biden a tenté d’initier un apaisement avec la Russie lors de sa rencontre avec Vladimir Poutine, à Genève, le 16 juin 2021. Mais l’on est d’autant plus loin d’un reset avec Moscou que, quelques jours plus tôt, lors du sommet de l’Otan, le 14 juin, à Bruxelles, les États-Unis ont ciblé une fois de plus l’ennemi russe et le tandem russo-chinois, accusé de « rejeter l’ordre international fondé sur des règles », comme si les États-Unis et l’OTAN les avaient eux-mêmes respectées (Balkans, Irak, Lybie, etc)... La « surreprésentation » des conflits intraétatiques Aujourd’hui, les conflits intraétatiques sont ultramajoritaires. Durant la période 1975-2000, sur vingt-huit conflits de premier ordre, huit sont interétatiques, six postcoloniaux et quatorze intraétatiques. Entre 1990 et 2018, sur quatre-vingt-seize conflits de premier ordre, les soixante premiers conflits sont ou ont été clairement intraétatiques. On peut citer, par exemple, la guerre civile syrienne, sur laquelle nous reviendrons, celle du Yémen, toujours en cours, qui oppose rebelles chiites-houthistes soutenus par l’Iran, d’une part, aux sunnites progouvernementaux liés aux Frères musulmans et aux monarchies du Golfe, de l’autre, soutenus par les États-Unis et l’Occident ; le conflit intercommunautaire opposant les Philippines à la Malaisie dans l’État malaisien de Sabah (2013) ; les conflits africains, surreprésentés : Congo/Kinshasa 17 ; Ethiopie, où les rebelles de la région dissidente du Tigré (Nord), en guerre contre le pouvoir central et son ethnie majoritaire (Oromo), ont pris les principales villes de la zone, Adigrat, Shiré et depuis le 29 juin 2021, la capitale régionale Mekele ; Côte d’Ivoire (opposition entre ethnies rivales, Nord rebelle et capitale, puis entre pro-Gbagbo et pro-Ouattara) ; Kivu 18 ; République centrafricaine (luttes interethniques et conflits sédentaires chrétiens/musulmans venus du Nord), génocides du Soudan (1990- 2000 : chrétiens du Sud-Soudan et musulmans noirs du Darfour exterminés par la junte nationale-islamiste arabe du Nord) ou du Rwanda (1994, Hutus contre Tutsis). Ce dernier conflit a été cruellement révélateur de l’impuissance des Nations unies et donc du dit « multilatéralisme » vanté par les adeptes de la mondialisation heureuse et de la « gouvernance mondiale »... On peut citer aussi bien évidemment l’éternel conflit israélo-palestinien, qui a semblé revenir sur le devant de la scène avec la brève guerre Tsahal-Hamas à Gaza, en mai 2021. Toutefois, avant même cette crise, qui a révélé l’extrême isolement du Hamas, non soutenu par l’Autorité palestinienne et par la plupart des pays arabes, on a pu constater depuis lesdites « révolutions arabes » que le conflit israélo-palestinien a été relégué au second plan, un phénomène renforcé avec les accords d’Abraham de septembre 2020 qui ont scellé la réconciliation entre l’État juif et cinq pays arabes sous l’impulsion des États-Unis et des Émirats arabes unis (alliance contre l’ennemi commun iranien). Durant l’été 2006, une guerre voisine avait déjà opposé Israël à l’homologue chiite- libanais du Hamas, le Hezbollah, lui aussi appuyé par l’Iran (« guerre des 33 jours »), mais il ne s’agissait pas officiellement d’une guerre interétatique Liban-Israël. On pense bien sûr aussi aux conflits du Caucase : celui de Géorgie, en 2008, qui opposa les séparatistes prorusses ossètes du Nord et abkhazes à la Géorgie pro-occidentale de l’ex-président Mikheil Saakachvili, sur fond de tensions occidentalo-russes ; celui qui opposa trois fois forces arméniennes et Azerbaïdjan, analysé plus haut, ou encore celui de Tchétchénie, où se sont opposés, dans les années 1990-2000, une première fois les rebelles indépendantistes puis les djihadistes à Moscou et, une seconde fois, les séparatistes islamistes et djihadistes internationaux wahhabites aux partisans prorusses du clan tchétchène de Hamkhat et Ramzan Kadyrov... Trente-sept conflits ouverts en cours aujourd’hui Concernant les trente-sept conflits ouverts toujours en cours, exception faite du Donbass et du Haut-Karabagh, la présence des États de l’hémisphère Sud demeure écrasante : Irak : conflits internationalisés entre chiites et sunnites ; Kurdes et Arabes ; djihadistes et nationalistes ; Libye : conflits internationalisés entre, d’abord, les pro- et les anti-Kadhafi durant le printemps arabe puis, ensuite, entre les forces islamistes proturques de Tripoli liées à la Turquie et au Qatar et l’armée du maréchal Haftar soutenue par les Émirats arabes unis, l’Égypte, la Russie et la France ; Syrie : cinq cent mille morts des « guerres dans les guerres » entre, d’une part, le régime de Bachar al- Assad, appuyé par l’Iran et la Russie, et, de l’autre, la rébellion sunnite appuyée par l’Occident, la Turquie et les monarchies du Golfe et les légions djihadistes d’al-Qaida et Daesh, elles-mêmes en guerre contre les séparatistes kurdes pro-occidentaux du Nord ; Somalie : implosion du pays en trois entités et prise de contrôle par les djihadistes des tribunaux islamiques et des shebabs pro-al-Qaida liés aux pirates ; Nigeria : entre chrétiens du Sud et musulmans du Nord et entre États fédérés et fédéraux et djihadistes de Boko Haram, etc. ; Cachemire : province indienne majoritairement peuplée de musulmans revendiquée par le Pakistan islamique, etc. ; Sahara occidental : conflit qui oppose depuis des décennies des indépendantistes du Sahara occidental au Maroc qui le revendique et l’occupe en grande partie, un conflit en train de resurgir. Taiwan : conflit précité entre la Chine d’un côté, et Taiwan et son allié les États-Unis de l’autre ; Égypte/Éthiopie/Soudan : conflit autour du barrage du Nil de l’Éthiopie (voir chapitre X). Dans tous ces conflits, l’efficacité des Nations unies et en général du multilatéralisme est nulle, et les rares avancées constatées dans le conflit israélo-palestinien mentionné plus haut ou dans d’autres antagonismes réglés ou gelés sont, dans l’écrasante majorité, dues à des négociations de Realpolitik et aux rapports de force... La zone Sahel devenue une des plus létales au monde... La situation du Mali/Burkina Faso, et en général dans le Sahel, zone grande à elle seule comme toute l’Union européenne, est particulièrement préoccupante et confirme le constat exprimé plus haut de l’échec du multilatéralisme comme des interventions militaires lancées avec l’aval des Nations unies ou d’instances multilatérales régionales, comme le G5 Sahel, l’Union africaine ou la Cedeao : l’intensification et l’extension des actions terroristes vers le sud touchent de plus en plus de régions et d’États d’Afrique. Le conflit malien, initié en 2012 par l’alliance explosive de groupes séparatistes et djihadistes au nord, en guerre contre la capitale, s’enlise depuis déjà dix ans. Il ne cesse de prendre de l’ampleur, avec un nombre d’acteurs croissant, dont une multitude de groupes locaux, arabo-berbères au départ, et de plus en plus peuls, qui ont prêté allégeance tantôt à Aqmi/al-Qaida au Maghreb islamique, tantôt à l’État islamique (EI) au Sahel. L’armée malienne est totalement dépassée, comme l’ensemble des pays du G5 Sahel, et l’armée française n’a pas obtenu de résultats (opérations Serval, Épervier et Barkhane), faute de forces assez nombreuses et de solutions politiques et économiques viables associées. Son échec a débouché sur une suppression de ses bases au Nord Mali et sur une réduction des effectifs militaires dans la zone Sahel de 5 100 à 3 000 soldats. En août 2020, les forces armées maliennes ont perpétré un coup d’État qui a conduit au renversement du président Ibrahim Boubacar Keïta, au pouvoir depuis 2013. De plus, l’escalade des violences intercommunautaires (entre les ethnies dogons et peuls) ne cesse de s’étendre aux pays voisins, notamment le Burkina Faso 19 , et même jusqu’au Bénin ou à la Côte d’Ivoire, jadis épargnés. Entre 2012 et 2020, on y a recensé plus de 8 000 morts, dont 2 700 civils 20 . Le 20 avril, c’est face à des rebelles terroristes du Nord du Tchad que le président tchadien, Idriss Déby, meilleur allié de la France contre le jihadisme, a trouvé la mort. Une énième conséquence de la folle guerre franco-américano-britannique qui a fait de la Libye l’épicentre chaotique qui alimente en armes et mercenaires tout le jihadisme sahélien... L’incessant conflit du Cachemire entre Inde et Pakistan Un autre conflit interétatique qui perdure et qui n’a pas été éteint par le multilatéralisme onusien concerne l’Inde et le Pakistan, toujours à couteaux tirés : avec la révocation de l’autonomie constitutionnelle du Cachemire indien, en août 2019, le conflit qui oppose le Pakistan islamique, parrain des talibans et d’al-Qaida, et l’Inde, dirigée par le parti intégriste hindouiste BJP, s’est intensifié, avec 582 bombardements transfrontaliers en 2019 (contre 349 en 2018 21 ), soit une augmentation de près de 70 %, poussant New Delhi à déployer des dizaines de milliers de militaires à la frontière. La crainte d’une guerre entre les deux nations possédant le feu nucléaire se fait donc de plus en plus ressentir, même si elle se traduit par l’emploi d’armes conventionnelles. Mais comment être certain que ces deux pays ennemis n’utiliseront jamais le feu nucléaire, comme d’autres d’ailleurs, d’autant que le Pakistan est travaillé de l’intérieur par des groupes islamistes liés à al-Qaida et aux talibans et que l’intégrisme hindutva antimusulmans a gagné du terrain ces dernières décennies en Inde ? Après ces événements, le Premier ministre pakistanais, Imran Khan, a d’ailleurs déclaré : « Quand le couvre-feu sera levé, ce sera un bain de sang. Si une guerre commence entre nos deux pays, tout peut arriver », laissant planer la menace d’un conflit nucléaire 22 . L’Inde elle-même n’est pas épargnée par les tensions interethniques et religieuses internes, notamment entre hindous et musulmans, en dehors du territoire disputé du Cachemire. Une fois de plus, les avertissements de Samuel Huntington sur le fait que les chocs entre civilisations ne sont pas empêchés par la globalisation des échanges et les facteurs de contacts mais parfois même multipliés par eux sont plus actuels que jamais. La multiplication des tensions et conflits locaux en Asie Prenons cette fois-ci l’exemple de l’Asie-Pacifique, bien moins sage que le laissent accroire les lieux communs occidentaux sur l’Asie bouddhiste-hindouiste zen et pacifique. À l’heure actuelle, on peut y recenser une bonne soixantaine de contentieux susceptibles de déboucher sur un conflit ouvert. Nous pouvons citer notamment : les tensions permanentes entre la Chine et le Japon, les Philippines et la Malaisie, le Japon et la Corée du Sud, la Malaisie et l’Indonésie ; les litiges frontaliers entre la Chine et le Viêtnam, le Myanmar (Birmanie) et la Thaïlande, le Cambodge, le Viêtnam, Singapour et la Malaisie. Le Japon, par exemple, reste directement impliqué dans quatre contentieux régionaux majeurs : la question des rochers Liancourt, occupés depuis 1954, au cœur de la mer du Japon ; les îles Ryukyu, environnées d’un plateau continental très riche, revendiquées simultanément par le Japon, la Chine de Pékin, la Chine de Taipei et la Corée du Sud ; le secteur méridional de l’archipel des Kouriles, qualifié par Tokyo de « territoires du Nord », originellement peuplé de Japonais, expulsés ensuite, mais occupé par la Russie depuis la fin de la Seconde Guerre mondiale. Cet archipel revêt un fort intérêt économico-stratégique pour la Russie, car il recèle des réserves minières et de terres rares, comme le rhénium 23 , ainsi que des gisements de pétrole et de gaz, il constitue aussi une porte stratégique sur le Pacifique pour les deux bases navales russes de Vladivostok, d’où les navires partent via le détroit qui ne gèle pas en hiver entre les îles Kounachir et Itouroup, deux des quatre îles Kouriles ; le contentieux autour des îles Senkaku (ou Diaoyu en chinois), revendiquées par ces mêmes puissances où la situation est devenue très conflictuelle depuis que le gouvernement japonais a décidé, en septembre 2012, de nationaliser trois des cinq îles de l’archipel 24 qui se situent en mer de Chine orientale. Cette crise met en perspective une dimension géostratégique importante avec pour toile de fond une concurrence pour le leadership régional et un contrôle des nombreuses richesses de la région, la zone ayant un grand potentiel économique notamment grâce aux importants gisements d’hydrocarbures 25 . Les tensions en mer de Chine orientale risquent donc de se prolonger, à moins que les deux pays décident de s’entendre sur une gestion commune des ressources naturelles de la région. La Chine à l’assaut de la mer de Chine méridionale Un conflit similaire oppose également, autour de l’archipel des Paracels et des Spratleys (voir carte n o 6), plusieurs pays du Sud-Est asiatique : Chine, Viêtnam, Taiwan, Philippines, Malaisie, etc., lesquels se disputent la souveraineté territoriale de ces îlots qui occupent une place hautement stratégique, puisque environ un tiers du trafic maritime mondial y passe... Depuis plusieurs décennies, 15 km² de terres émergées comprenant 230 îles dispersées sur 425 000 km² de mers sont au centre des tensions régionales en mer de Chine méridionale, que les Vietnamiens appellent « mer de l’Est ». L’enjeu est d’obtenir les zones économiques exclusives (ZEE) les plus élargies possible, en fonction du droit international, pour les uns (Viêtnam), et contre celui-ci pour les autres (Chine), les buts stratégiques étant l’exploitation des ressources naturelles, puis le contrôle des grands détroits régionaux. Le Viêtnam, puissance émergente du monde multipolaire, qui tente de réaffirmer sa maritimisation régionale, ne pouvant pas lutter à armes égales contre la Chine, mise sur le dispositif de l’Asean (voir cartes n os 3 et 4), qui inclut des pays partageant les mêmes préoccupations (Malaisie, Philippines, Brunei), et se rapproche des États-Unis, l’ancien ennemi juré, ainsi que de l’Inde, et de l’Australie dans une logique d’endiguement de la Chine. Le conflit des Spratleys et Paracels illustre à merveille le processus en cours de reconfiguration multipolaire du monde et les sérieuses limites de l’arbitrage international et du multilatéralisme au profit des purs rapports de force... Ainsi, lorsque la Cour d’arbitrage permanente de La Haye s’était prononcée en 2016 en faveur de Manille à propos du contentieux des Paracels (voir chapitre IX), Pékin avait répondu de façon décomplexée qu’elle n’accordait aucune légitimité à cette décision... L’aberration géopolitique de la question nord-coréenne Comme l’actualité l’a souvent évoqué en raison des personnalités particulières de Donald Trump et du tyran nord-coréen Kim Jong-un, la région Asie-Pacifique est aussi marquée par les conséquences d’une véritable aberration géopolitique : le contentieux coréen se traduit par un armistice vieux de deux tiers de siècle, sans signature de traité de paix et par les spécificités inquiétantes du régime communiste nucléaro-centré nord-coréen qui entretient des relations conflictuelles avec le reste du globe en général, le Japon, la Corée du Sud et les États-Unis en particulier. Le régime de Pyongyang est la plus terrible dictature de la planète. L’armée contrôle la police politique qui espionne tout le monde et encourage la délation. Dans une douzaine de camps de concentration, cent cinquante mille prisonniers, opposants politiques et droit-commun confondus, croupissent au nom de l’idéologie officielle maoïste- stalinienne-nationaliste du juche, qui divinise quasiment le leader suprême et sa dynastie. Toutes les ressources du pays sont détournées au profit de la dynastie Kim alors que la majorité des habitants dispose à peine de quoi se nourrir. Ce pays, qui avait été rangé dans la catégorie d’« État voyou », menace régulièrement de frappe nucléaire l’archipel japonais et les îles Hawaï, et négocie ainsi, par la terreur, des aides humanitaires et financières récurrentes. Séoul est directement la cible d’assassinats politiques, détournements d’avion, attaques terroristes, chantages de la part de Pyongyang. Tout cela a motivé les administrations américaines néoconservatrices de G. Bush Jr à ranger la Corée du Nord dans l’axe du mal. Ceci dit, il convient de comprendre la rationalité du régime nord-coréen et la raison de sa longévité, ceci malgré l’horrible famine qui a décimé 6 % de sa population. De ce point de vue, le jugement de valeur moral stigmatisant Pyongyang « ne permet pas, non plus, d’expliquer pourquoi le Nord remporte chacune des parties de bras de fer qui l’opposent à la communauté internationale 26 , observe justement Pascal Dayez- Burgeon. [...] Grâce au chantage humanitaire, il a obtenu des programmes de l’ONU, de la Chine, des États-Unis et de nombreuses ONG sud-coréennes, l’aide indispensable pour survivre. Grâce au chantage nucléaire, il s’est également ménagé l’appui de Washington », qui a soutenu un temps ses ambitions nucléaires civiles... Quant à la Chine, elle doit manœuvrer habilement. Et si elle a parrainé les rencontres de dialogue en vue de la paix entre Kim Jong-un et Donald Trump depuis 2017, c’est aussi parce que le régime de Pékin n’a pas intérêt à ce que la menaçante dictature stalino-maoïste autarcique continue à être « l’ennemi utile » qui justifie le renforcement du dispositif balistique, radar et antimissile de l’armée américaine dans la région. Cette présence étatsunienne stratégique (sous-marins lanceurs d’engins, flotte américaine en mer de Chine, coopération de défense avec la Corée du Sud et le Japon, etc.) est fort problématique pour la capacité de dissuasion chinoise et son objectif de contrôler son flanc maritime sud. La Corée du Nord, enfin, joue très bien le rôle du « fou » qui s’oppose au fort, dans une sorte de travestissement de la doctrine du général Gallois dite « du faible au fort », devenue « du fou au fort ». D’autres, à commencer par le dictateur Kim Jong-un lui-même, ont parlé « d’assurance-vie » : l’Irak et la Libye ont renoncé à leurs programmes nucléaires et n’ont pas échappé aux interventions militaires occidentales de regime change, se plaît souvent à répéter Kim Jong-un, à juste titre d’ailleurs. Il est vrai que quelques ogives nucléaires associées à des missiles balistiques de longue portée suffisent à calmer les plus grandes puissances, dont plus aucune des capitales ne demeure à l’abri. Contrairement à Saddam Hussein ou à Kadhafi, la Corée du Nord a eu l’intelligence de ne pas attendre longtemps avant de lancer un programme de développement du nucléaire qu’aucune puissance ne peut plus se permettre aujourd’hui de bombarder. La morale de cette histoire est que les Occidentaux, en renversant deux régimes qui ne les avaient pas ou plus agressés (Irak, Libye), une fois que ceux-ci avaient renoncé au nucléaire militaire, ont donné des raisons à tous les autres régimes voyous ou antioccidentaux du monde qui en auraient les moyens de ne jamais renoncer au nucléaire, ou d’y songer fortement en tant qu’assurance-vie... La superpuissance montante et revancharde chinoise La Chine a connu de profonds bouleversements depuis un demi-siècle sur le plan des relations internationales. Pourtant, une constante l’anime : essayer de conjurer par tous les moyens le spectre des concessions, notamment vis- à-vis de l’Occident, qui obligèrent la Chine à céder des pans de son territoire et plusieurs de ses ports, dont Hong Kong, aux puissances européennes, dans la foulée des deux guerres de l’opium (1839-1842, 1856-1860). Ces affronts n’ont jamais été oubliés ni pardonnés par Pékin. Et les stratèges, dirigeants et chroniqueurs chinois évoquent régulièrement l’humiliation passée des occupations de Pékin et Shanghai, etc. Outre ces contentieux historiques, dont Hong Kong est un des symboles, deux faits majeurs ont rappelé que la Chine est de plus en plus sûre d’elle- même : parallèlement aux incidents de frontières avec la Russie le long du fleuve Amour – rivalité qui persiste malgré leur alliance stratégique au sein de l’OCS (voir chapitre V) –, son contentieux avec l’Union indienne, d’une part, et son souci de s’affirmer comme une véritable puissance maritime, d’autre part, sont des tendances lourdes. Deux contentieux frontaliers ont ainsi resurgi récemment entre la nouvelle superpuissance chinoise et l’Union indienne, puissance nucléaire depuis 1974 : après une période de relative accalmie, les pays rivaux sont en situation de conflit latent à l’est du Cachemire (également source de conflits pérennes avec le Pakistan, autre puissance nucléaire), et l’on se souvient de la guerre sino-indienne de 1962, brève mais très violente, pour le contrôle des territoires himalayens. La Chine occupe trois territoires revendiqués par l’Inde, dont le Ladakh, d’un haut intérêt stratégique, où les armées chinoises et indiennes ont été au bord du conflit en 2019-2020 et où la Chine a multiplié les bases militaires. Pékin a également remis en question l’accord dit « de la ligne MacMahon » et s’est installé dans l’Himachal Pradesh. Plus important peut-être à l’échelle de l’Asie-Pacifique : l’affirmation de la puissance maritime chinoise se traduit en particulier par la multiplication de ses installations militaires au large de son littoral et de manière spectaculaire en mer de Chine méridionale, de Food Island à Mischief Reef, en passant par Fiery Cross... Au-delà de cet exemple édifiant, un constat général s’impose : les contentieux de premier ordre, susceptibles de dégénérer en conflits ouverts, sont plus que jamais d’actualité et se sont nettement multipliés. Ceci étant, cette observation s’explique aussi par la découverte et l’exploitation d’appréciables ressources naturelles. Le politiste américain Michael L. Ross, de l’Ucla (l’Université de Californie à Los Angeles), avait pu écrire naguère « que les économies d’extraction constituent une véritable malédiction dans la mesure où les probabilités de conflits ouverts dans les pays possédant du pétrole, du gaz, des diamants, des minerais rares ont fortement augmenté au cours du dernier tiers de siècle, au même titre que le nombre de groupes rebelles multipliant ici ou là les exactions 27 ». Nous verrons au cours des passages de cet essai consacrés aux énergies, aux guerres de l’eau et des terres rares que les exemples ne manquent pas (voir chapitre X). Un monde d’incertitudes, de risques asymétriques et de retour des conflits de haute intensité Pour récapituler, dans le monde instable et multipolaire qui vient, les conflits majeurs et potentiels – qui ne comprennent pas les risques climatiques ou sanitaires, plus indépendants des agendas politiques et géopolitiques et étudiés plus loin – peuvent être fondés sur : des antagonismes géoénergétiques ou autour de l’eau et des terres rares ; la persistance des rivalités et conflits infra-étatiques internationalisés ou régionalisés ; la guerre géoéconomique et financière autour des rivalités entre l’Occident et ses outsiders et entre les acteurs principaux du monde polycentrique ; des conflits identitaires que Samuel Huntington a rangés dans la catégorie des « chocs de civilisations » ; des phénomènes migratoires de masse incontrôlés ; le terrorisme international, très majoritairement islamiste ; les chocs des empires naissants ou résurgents (néo-ottomanisme turc versus nationalismes arabes et Europe ; États-Unis versus Chine et Russie). 1. Jacques Soppelsa, Les Sept Défis capitaux du nouvel ordre mondial, Paris, A2C Médias, 2009. 2. Entretien avec Éric Denécé, « Nouvelles menaces, nouveaux risques, nouveaux défis, la France est-elle préparée ? », Atlantico, 28 janvier 2020. 3. Irak, Afghanistan, Libye, Syrie, ex-Yougoslavie, Ukraine, Géorgie, Yémen, Soudan, Mali, Somalie, RCA, Côte d’Ivoire, RDC. 4. Étude scientifique de la guerre considérée comme « phénomène psychologique et social ». 5. Gaston Bouthoul et René Carrère, Le Défi de la guerre. 1740-1974 : deux siècles de guerre et de révolution, Paris, PUF, 1976, p. 34. 6. Conflits frontaliers entre le Pérou et l’Équateur en janvier-février 1995. 7. À Khojaly, les forces arméniennes vont massacrer 613 civils, dont 63 enfants et 70 vieillards et déplacer 1 275 otages. Les circonstances, que la propagande azérie qualifie de « génocide », demeurent non élucidées. 8. Devenue à partir de 1995 l’Organisation pour la sécurité et la coopération en Europe (OSCE). 9. En mai 1994, suite à la guerre du Karabakh, le Groupe de Minsk est médiateur pour signer le traité de Minsk qui organise un cessez-le-feu au Haut-Karabagh. Il est alors coprésidé par les États-Unis, la France et la Russie et inclut l’Allemagne, la Biélorussie, la Finlande, l’Italie, les Pays- Bas, le Portugal, la Suède, la Turquie, l’Arménie et l’Azerbaïdjan. 10. Durant la guerre d’avril 2016 (« guerre de 4 jours »), l’armée azérie a tenté de reprendre le Karabakh par la force, un cessez-le-feu avait été obtenu grâce à la médiation russe. Ankara n’a alors pas bougé. La nouveauté de 2020 a été la supériorité technologique des Azéris et la participation active de l’armée turque. 11. « Principes de Madrid », www.chroniques-diplomatiques.eu/2010/03/les-principes-de-base-de-madrid-et-le.html. 12. Via la vente de satellite d’observation soi-disant civil... 13. Alexandre Del Valle, « Haut-Karabakh. Du Caucase à l’Afrique, de Libye en Azerbaïdjan : les nouveaux fronts stratégiques d’Erdoğan », Atlantico, 12 octobre 2020. 14. Voir Tigrane Yégavian, « Les Diasporas turque et azerbaïdjanaise de France : instrument au service du panturquisme », rapport n o 27 du CF2R, téléchargeable sur https://cf2r.org/.../les-diasporas-turques-et.../. 15. « Tensions. Taïwan dénonce une incursion record de 25 avions militaires chinois près de ses côtes », Courrier international, 13 avril 2021. 16. Thomas Romanacce, « L’US Army devrait utiliser la quasi-totalité de ses ressources pour repousser une invasion chinoise à Taiwan », Capital, 27 avril 2021. 17. Première guerre du Congo (1996-1997), entre le président zaïrois Mobutu Sese Seko, l’Angola et l’Ouganda, qui verra la victoire de Laurent- Désiré Kabila, créateur de la République démocratique du Congo ; et deuxième guerre du Congo (1998-2003) qui impliqua neuf pays africains et trente groupes armés..., ce qui en fait la plus grande guerre entre États en Afrique (« Grande Guerre africaine »), entre 200 000 environ et 4 millions de morts. 18. Guerre ethnique débutée en 1993, entre Hutus et Tutsis, qui, depuis le Rwanda, déborde au Kivu et oppose milices armées, soutenues par Mobutu, ex-Président du Zaïre (future RDC), et Tutsis rwandais et Ougandais soutenant Laurent-Désiré Kabila. Au Kivu s’affrontent sur divers fronts Hutus, Tutsis, forces pro-ougandaises et armée de Kinshasa. En 2001, L. – D. Kabila, assassiné, et remplacé par son fils, Joseph. La guerre prend fin en 2003. 19. Delphine Papin, Flavie Holzinger, Riccardo Pravettoni, « Du Mali au Burkina Faso, une spirale de violence », Le Monde, 23 juin 2019. 20. Données : Armed Conflict Location and Event Data project (ACLED). 21. Benjamin Roman, « Panorama des conflits dans le monde : quels risques géopolitiques futurs ? », Portail de l’IE, 18 juin 2020. 22. Sophie Landrin, Carrie Nooten, « Cachemire : Imran Khan brandit le risque d’une guerre nucléaire », Le Monde, 28 septembre 2019. 23. Métal rare utilisé notamment dans le secteur aéronautique. 24. Uotsurijima/Diaoyu Dao, Kita-Kojima/Bei Xiaodao, Minami-Kojima/Nan Xiaodao. 25. Selon l’Agence internationale de l’énergie, il y aurait entre 60 et 100 millions de barils de pétrole et entre 1 000 et 2 000 milliards de mètres cubes de gaz naturel aux alentours. Voir site de l’organisme ; www.aie.gov. 26. Pascal Dayez-Burgeon, « Dédiaboliser la Corée du Nord ? », Politique internationale, n o 140 – Été 2013. 27. Michael L. Ross, The Oil Curse. How Petroleum Wealth Shapes the Development of Nations, Paperback, 2012. CHAPITRE IV De l’ancienne à la nouvelle guerre froide ? « Nous avons des types d’armes prometteurs, absolument exclusifs [...], des systèmes de missiles qui ne volent pas sur une trajectoire balistique mais rasante, avec une vitesse hypersonique. Pour l’instant, personne n’a d’armes hypersoniques... » Vladimir Poutine Depuis la chute pacifique et l’éclatement de l’URSS, la Russie, pays où il existe un taux d’imposition forfaitaire de 13 % (flat tax), digne d’Andorre ou de Monaco, n’a plus rien à voir avec l’Union soviétique. Les menaces géopolitiques majeures pour le modèle capitaliste occidental et les démocraties se trouvent plutôt du côté de l’islamisme radical, de la Turquie postkémaliste néo-ottomane, des nouvelles mafias transnationales, des phénomènes de fractures ethnoreligieuses intranationales, et bien sûr du modèle antidémocratique chinois néomaoïste. Mais les pays de l’Alliance atlantique, États-Unis en tête, ne semblent pas avoir changé de logiciel géostratégique. Les États-Unis, l’UE et l’Otan ont donc continué à penser la Russie comme le clone monstrueux de l’Union soviétique, un ennemi majeur. Les États-Unis, l’Alliance atlantique et l’Union européenne – vassalisée depuis 1950 – ont étendu leur puissance vers l’Europe centrale et orientale, jusqu’aux pays baltes et aux Balkans, ce qui a été ressenti par la Russie comme une humiliation, car il s’agit de son ancienne zone d’influence du temps de la guerre froide. Or, en 1994, puis en 1997, le prédécesseur et parrain politique de Vladimir Poutine, Boris Eltsine, avait ratifié le Partenariat pour la paix de l’Otan, puis le partenariat Otan-Russie qui devaient permettre une coopération et tourner définitivement la page de la guerre froide. Il n’en était rien : les ingérences occidentales qui ont pris la forme d’interventions militaires directes en ex- Yougoslavie, en Irak ou en Libye, ou celles indirectes contre la Russie en Géorgie, en Tchétchénie, ou en Ukraine, sans oublier l’obsession américaine de renverser la dictature prosoviétique de Bachar al-Assad, ont dangereusement interrompu ce processus en poussant la Russie eltsinienne et poutinienne, à devenir un ennemi. Après l’Irak, la goutte d’eau qui fera déborder le vase sera le soutien américano-européen aux forces ukrainiennes antirusses entre 2004 (révolution orange) et 2013-2014 (seconde révolution ukrainienne ou Euromaïdan) puis aux forces révolutionnaires arabes islamistes tournées contre l’allié majeur de la Russie en Méditerranée arabe, la Syrie. Ici, comme en Crimée ukrainienne, la stratégie américaine de changements de régime visait ni plus ni moins à faire perdre à Moscou le contrôle de ses bases militaires stratégiques installées depuis des décennies à l’ouest de la Syrie (Tartous) et à Sébastopol, en Crimée, sans lesquelles la Russie perd son accès vital à la Méditerranée orientale et son statut de puissance maritime mondiale. La suite, ou plutôt la réaction, est connue : double intervention militaire russe spectaculaire en Syrie, pour sauver Bachar al-Assad de l’offensive des rebelles islamistes et djihadistes, puis en Crimée, avec l’annexion de celle-ci par la Russie, et ainsi qu’indirectement en Ukraine orientale (Donbass). Dans les deux cas, les Russes ont conservé leurs acquis stratégiques sur leurs flancs sud. Prétextant de la menace croissante russe dans le contexte de la guerre civile ukrainienne et de l’annexion de la Crimée, les États-Unis, en guerre géoénergétique avec la Russie pour l’approvisionnement en gaz de l’Europe (gaz russe versus gaz de schiste américain), firent adopter par l’ensemble des pays occidentaux des sanctions américaines et internationales contre la Russie, de ce fait poussée dans ses retranchements. À cet égard, les premières déclarations et décisions du président Joe Biden, pourtant supposé être plus mesuré que son prédécesseur Donald Trump, n’ont pas été dans le sens de l’amélioration des relations russo-américaines : après avoir qualifié (17 mars 2021) Vladimir Poutine de « meurtrier », Joe Biden a accusé la Russie d’essayer de continuer à influencer la politique intérieure américaine et il a non seulement renforcé les sanctions contre Moscou en mettant sur une liste noire trente-cinq personnes morales et physiques russes, mais aussi interdit aux entreprises et citoyens américains d’acquérir et acheter des bons du Trésor russe destinés à financer la dette de la Russie. Théoriquement, l’analyse officielle de l’Otan est qu’un pays peut intégrer l’Alliance s’il est stable et s’il peut apporter des ressources, synergies et forces supplémentaires, ce qui signifie que des pays ayant de graves contentieux territoriaux et conflits ouverts avec leurs voisins ne sont pas éligibles. Ceci explique pourquoi l’Ukraine et la Géorgie ont raté leurs premières tentatives d’intégration lors des sommets 2008, jusqu’avant la crise russo- géorgienne. En revanche, l’escalade russo-ukrainienne du printemps 2021 analysée plus haut montre l’évolution significative de l’Alliance sur ce sujet, puisque son secrétaire général, Jens Stoltenberg, tout en ne répondant pas positivement à l’intégration immédiate de l’Ukraine, n’a pas fermé la porte et a même plus précisément conditionné son intégration à la mise en place de réformes institutionnelles que les partenaires occidentaux de l’Ukraine exigent depuis bien longtemps. Le même raisonnement a été avancé par Emmanuel Macron au Président ukrainien Volodymyr Zelensky, lorsque ce dernier est venu demander à son homologue français son soutien à l’entrée dans l’Otan lors de la rencontre du 16 avril 2021. Le fait que l’Occident semble de plus en plus ouvert à une intégration de l’Ukraine à l’Alliance atlantique ne peut qu’envenimer ses relations déjà exécrables avec la Russie, et de ce fait mettre en danger la stabilité de cette zone postsoviétique et de l’ensemble de l’Europe. L’Europe, théâtre de guerre nucléaire entre États-Unis et Russie ? Certes, le scénario d’un conflit nucléaire Occident-Russie autour du dossier ukrainien ou d’autres est quasi impossible, compte tenu du principe de dissuasion d’une telle arme. Sur le plan stratégique, la situation est tout de même préoccupante : le 2 août 2019, après plus de vingt ans de discorde et de poussée américano-occidentale vers le pré carré russe, les États-Unis sont sortis du traité de désarmement relatif aux forces nucléaires de portée intermédiaire (INF), décision lourde de conséquences qui a incité la Russie à faire de même en réaction. Et en novembre 2019, le Pentagone a réaffirmé que le nucléaire pouvait être utilisé comme toute autre arme contre les objectifs militaires de l’ennemi. Des exercices annuels et des manœuvres navales de l’Alliance atlantique ont lieu depuis 2016 de façon de plus en plus intense, de la Baltique à la mer Noire. Des blindés américains paradent près de la Finlande, en Estonie, en Roumanie, en Bulgarie, et surtout en Pologne. Des exercices mobilisent six mille soldats de dix pays de l’Otan, des bombardiers, chasseurs et hélicoptères en zone balte. Entre 2000 et 2019, l’Alliance a inauguré en Roumanie et en Pologne des sites stratégiques de missiles antimissiles, des installations de radars en Turquie, puis des navires de guerre américains en Méditerranée. Depuis janvier 2021, les États-Unis et l’Alliance atlantique ont placé leurs troupes en état d’alerte renforcée après la reprise des combats en Ukraine et dénoncent une stratégie d’intimidation de la Russie. Le secrétaire général de l’Otan a réitéré son soutien total au camp ukrainien et au président Volodymyr Zelensky qui, selon les rumeurs, aurait préparé une offensive en vue de récupérer les territoires du Donbass occupés par des forces prorusses. Depuis le début de 2021, la Russie accuse l’armée ukrainienne d’avoir massivement bombardé des villages prorusses de l’Est ukrainien et Washington d’avoir envoyé des navires de guerre en mer Noire et des troupes à la frontière russe et dans la mer Baltique : 40 000 militaires et 15 000 pièces d’armement et véhicules, dont des avions stratégiques 1 . Cinq cents soldats américains supplémentaires ont également été positionnés en Allemagne en cas d’escalade. L’Ukraine et les États-Unis accusent en retour la Russie d’avoir déployé plus de 80 000 soldats en Crimée depuis 2014 et de préparer une offensive en cas de reprise des territoires prorusses par Kiev. En réponse à ce qu’elle analyse comme une menace majeure de la part de l’Otan, la Russie a effectué, le 14 avril 2021, des entraînements en tir d’artillerie en mer Noire puis a envoyé une partie de sa flotte ainsi que des hélicoptères de l’aviation navale. Pour les États-Unis et l’Otan, l’ennemi est plus que jamais la Russie. L’« Acte fondateur Otan-Russie », signé en 1997, qui engageait l’Alliance à ne pas déployer de forces supplémentaires dans les nouveaux pays membres de l’Alliance atlantique, est mort, du moins dans les faits. Avec l’élargissement de l’Otan aux frontières de la Russie, source d’une néoguerre froide, cette rupture de l’équilibre stratégique a achevé de pousser la Russie plus encore dans les bras de la Chine. Pour Moscou, l’installation d’un bouclier antimissile en Pologne et en République tchèque remet en cause sa dissuasion nucléaire à sa porte... Ce dispositif, certes annulé en 2009 par Barack Obama, sera remplacé par un autre système (Défense antimissiles balistiques de théâtre – TBMD) encore plus problématique pour la Russie. Face à cette remise en cause de sa capacité de frappe « en second » (principe de base de sa dissuasion nucléaire stratégique), la Russie a suspendu toute coopération au sein du Conseil Otan-Russie. L’annexion de la Crimée par la Russie en 2014 a servi de prétexte a posteriori à l’Otan pour justifier la protection stratégique de l’Europe face à ladite « menace russe ». En réaction, Moscou va déployer à son tour ses lanceurs mobiles du système sol-sol Iskander dans l’enclave de Kaliningrad. Vladimir Poutine a ainsi annoncé la mise au point par la Russie d’une panoplie de nouvelles armes stratégiques, toutes réputées quasiment impossibles à intercepter et capables de frapper en n’importe quel point du globe. L’Amérique a réussi à faire de l’Europe à nouveau le théâtre d’opération d’une « bataille nucléaire de l’avant » sur les frontières avec la Russie. Ce processus – entamé depuis les années 1992-1998-2003 – d’exclusion occidentale de la Russie, désignée comme l’ennemi suprême, permet en réalité de pérenniser la domination atlanto-américaine du continent européen et donc sa division. Nous sommes ainsi revenus à l’équivalent de la guerre froide, sans mur, cette fois-ci, mais bien pire sur le plan stratégique. Contrairement aux années 2003-2009, ce n’est plus le prétexte hypocrite de la menace iranienne qui justifie ce déploiement américain aux portes de la Russie, déjà poussée à bout par l’élargissement qui a précédé, mais une hypothétique menace russe qui nécessiterait de faire du territoire de l’UE lui-même le champ de bataille Russie-États-Unis... On est très loin du reset d’Obama annoncé initialement, comme Trump après lui, pour pacifier les relations russo-américaines. L’occasion manquée de l’alliance russo-occidentale (1999-2003) Pourtant, en 1990, la stratégie des pays de l’Alliance atlantique avait semblé aller dans le sens d’un rapprochement panoccidental ou russo-atlantique. Rappelons qu’après l’implosion de l’Union soviétique, la Russie ne cessa de se rapprocher de l’Otan, qui semblait tirer les leçons de la chute de l’ex-ennemi soviétique. Ainsi, en 1994, Moscou ratifia le programme du Partenariat pour la paix de l’Otan, une première. Puis en mai 1997, un accord de coopération mutuelle stipulant en préambule que les deux pays n’étaient plus des ennemis. Vinrent ensuite les intégrations d’ex-pays membres du pacte de Varsovie dans l’Otan puis dans l’UE, devenus indépendants après 1989, qui conforta même sa coopération avec les Occidentaux (exercices militaires communs, fréquentes consultations ; ouverture d’un point de transit de l’Alliance à Oulianovsk, en Russie, afin de favoriser l’acheminement de matériel vers le front afghan, etc.). Certes, la Russie n’était pas enchantée de l’extension sans fin vers l’est, mais les lignes rouges du Kosovo, de la Géorgie et de l’Ukraine n’avaient pas encore été franchies et les révolutions de velours puis la seconde guerre en Irak n’avaient pas encore produit leurs effets délétères. Andrei Kozyrev, l’ancien ministre des Affaires étrangères de Boris Eltsine, connu pour son occidentalisme passionnel, définissait ainsi sa doctrine et celle de Boris Eltsine à ce moment : « Prendre modèle sur les pays démocratiques avancés, être admis dans leur club sur un pied d’égalité, tout en restant digne et en gardant sa personnalité ; telle est notre conception. » Il envisageait de fusionner les structures militaires de la CEI et de l’Otan et espérait que la Russie intégrerait le Conseil de l’Europe et l’Union européenne. Au départ, la politique pro-occidentale d’Eltsine et de Kozyrev fut clairement appuyée par le peuple russe qui avait une excellente image de l’Occident, alors perçu comme une force amicale, alors qu’aujourd’hui, la tendance s’est nettement inversée 2 . Après la période Eltsine, l’ascension progressive de Vladimir Poutine fut au départ marquée par un fort prisme pro-européen et pro-occidental, puisque ce dernier commença sa carrière politique avec le clan des libéraux (pro- occidentaux) du maire de Saint-Pétersbourg, Anatoli Sobtchak. La chose est souvent oubliée : dès son arrivée au pouvoir (hiver 1999-2000), Vladimir Poutine ne cessa de multiplier les signes d’ouverture envers les États-Unis, essayant d’établir une alliance russo-occidentale, à l’opposé de l’image d’antioccidental primaire et de nostalgique de l’URSS que l’Occident a forgée de lui. Poutine voyait dans une libéralisation maximale de l’économie et dans sa débureaucratisation les clés de la renaissance et celui que la presse occidentale définit souvent comme un nostalgique de Staline a toujours été très critique à l’égard de l’héritage soviétique, dont il estime que « nous récoltons aujourd’hui les fruits amers ». C’est d’ailleurs ce même Poutine qui fit acte de candidature à l’OMC, et qui fut le premier dirigeant russe postsoviétique ayant affirmé que la Russie appartient à la culture européenne occidentale. Il n’a d’ailleurs jamais cessé de plaider en faveur d’une coopération plus étroite avec l’Union européenne. Quant aux relations russo-américaines, il a toujours répété qu’il ne choisira jamais de réactiver les facteurs de confrontation. De son côté, George W. Bush, alors moins moraliste et manichéen que les démocrates et les autres néocons, ne semblait pas avoir d’a priori négatifs envers le dirigeant russe qu’il reçut dans son ranch privé, fait assez rare et grande marque de proximité de sa part. En juillet 2001, lorsqu’il rencontra le Président russe, il fit savoir qu’il avait vu en Poutine « un homme qui pense que son avenir est avec l’Occident et non avec l’Orient et qui partage avec les États-Unis les mêmes préoccupations concernant la sécurité, notamment l’islamisme 3 ». Au lendemain des attentats du 11 septembre 2001, Vladimir Poutine fut le premier chef d’État qui appela le Président américain pour lui témoigner de sa forte solidarité avec le peuple américain, rappelant que la Russie avait elle aussi été victime depuis des années des attaques menées par des terroristes islamistes originaires de Tchétchénie. Lorsque George W. Bush lança sa campagne militaire contre le terrorisme, notamment avec l’intervention en Afghanistan, il chercha l’aide de la Russie, également préoccupée par l’influence du djihadisme international sur le conflit de Tchétchénie. Cette convergence conjoncturelle d’intérêts offrait une opportunité rare aux deux anciens adversaires de la guerre froide pour forger un partenariat stratégique panoccidental. Le 24 septembre 2001, le Président russe annonça un plan en quatre points pour soutenir la guerre américaine contre le terrorisme. Premièrement, le gouvernement russe s’engageait à partager les données de renseignements avec son homologue américain. Deuxièmement, il ouvrait l’espace aérien russe aux vols d’avions américains à destination de l’Afghanistan. Troisièmement, il promettait d’obtenir l’ouverture de l’espace aérien en Asie centrale pour les États-Unis. Quatrièmement, il s’agissait d’apporter une aide militaire et humanitaire à l’Alliance du Nord en Afghanistan qui était en train de combattre les talibans. Le politologue et ex-ambassadeur américain à Moscou (2012-2014), Michael McFaul, constate que même si la Russie n’était pas d’accord avec la doctrine américaine de l’axe du mal, elle partageait avec les États-Unis une vue plus traditionnelle d’utilisation de la force militaire. Rétrospectivement, on constate que la coopération américano-russe proposée initialement par Poutine ne fut pas égalitaire ni mutuellement bénéfique, car l’administration Bush se focalisa sur les questions purement militaires liées à l’Afghanistan dans le cadre d’une vision court-termiste de sa relation avec la Russie. La rupture stratégique des années 2003-2005 Comme l’a noté McFaul, pour évoluer vers une réelle alliance, cette relation stratégique aurait également dû revêtir un contenu intéressant pour le partenaire russe. À titre d’exemple, les États-Unis auraient pu appuyer l’adhésion de la Russie à l’OMC, ce qu’ils refusèrent jusqu’en 2012 ; établir une relation d’alliance plus formelle entre l’Otan et la Russie ; suspendre le boycott d’achat d’armes russes par les membres de l’Otan ; contribuer au rapprochement entre l’UE et la Russie ; continuer à travailler sur la réduction des missiles balistiques ; acheter des armes russes pour les envoyer à l’Alliance du Nord en Afghanistan ; préciser l’attitude américaine sur la Tchétchénie ; ou encore soutenir le développement des institutions plus démocratiques en Russie 4 . Cependant, ainsi que le note le journaliste américain Peter Baker 5 dans son livre consacré à la politique étrangère de George W. Bush, la Maison Blanche manqua largement cette opportunité en raison d’une stratégie incohérente et imprévisible. Au début de son premier mandat, Bush s’était certes fixé comme objectif de garder la Russie dans le camp occidental afin d’éviter un rapprochement avec la Chine, mais vers 2003-2004, la doctrine Bush évolua vers l’engagement (néoconservateur) d’en finir avec la tyrannie et les États voyous (rogue States) partout dans le monde. Concernant la Russie, cette nouvelle approche était déclinée à travers un objectif à terme de changement de régime à Moscou. Or, c’est à ce moment-là, au milieu des années 2000 – qui correspondait aussi à l’intervention anglo-américaine en Irak –, que Vladimir Poutine commença précisément à recentrer son pouvoir, à cesser de se montrer ouvert à une libéralisation appuyée depuis l’extérieur et à considérer de nouveau les États-Unis comme menaçants. Une nouvelle approche, plus confrontationnelle, émergea ainsi entre 2004 (révolution orange), et 2008, lorsque George W. Bush intensifia le soutien américain à l’adhésion de l’Ukraine et de la Géorgie à l’Otan. En bref, par cette provocation, en tout cas ressentie comme telle par Moscou, le Président américain rata complètement une occasion historique. Les relations russo-américaines se dégradèrent rapidement à partir de 2003, après trois années de lune de miel porteuses d’espoir. Apparemment, ces relations demeuraient hantées par l’esprit de la guerre froide, pendant laquelle l’Union soviétique était perçue comme une menace mortelle pour la civilisation occidentale et pour le monde. En 2000, Condoleezza Rice notait ainsi que « les États-Unis ont eu beaucoup de difficultés à s’adapter au monde d’après-la-guerre-froide et à concevoir une nouvelle grande stratégie pour remplacer l’endiguement de la menace soviétique 6 ». La guerre d’Irak (mars 2003) provoqua une réelle rupture stratégique entre la Russie et les États-Unis. Devenu plus européen, en février 2003, Vladimir Poutine se rendit à Berlin et à Paris, capitales qui s’étaient fortement opposées à l’intervention militaire américaine en Irak. L’opposition des deux poids lourds européens à l’approche hégémonique américaine poussa le Président russe à épouser des concepts gaullistes : le monde multipolaire et la lutte contre l’hégémonie, prises de position autant idéologiques que pragmatiques car la guerre d’Irak permit de s’opposer à l’hyperpuissance occidentale en s’alliant à d’autres États occidentaux. Moscou décidait ainsi de mettre en péril sa relation avec les États-Unis dans l’espoir de la compenser par le rapprochement avec l’Union européenne, mais cette dernière ne voulut jamais réellement poursuivre ce rapprochement dès lors qu’il n’était plus souhaité par Washington et par la direction de l’Otan, véritable pilote des orientations stratégiques de l’UE. La guerre d’Irak influença non seulement la relation russo-américaine, mais fit également changer radicalement la vision que Moscou avait de l’ordre international. L’impunité des États-Unis fit croire aux Russes que les plus forts pouvaient faire ce qu’ils voulaient sur la scène internationale. Tout ce qui s’est passé depuis lors, y compris le flirt avec les islamistes pendant le printemps arabe, la politique américaine en Libye et l’action des États-Unis en Syrie, prouve que la dernière superpuissance mène une stratégie excessive 7 . Il est vrai que les chaos irakien, libyen et syrien, consécutifs aux interventions militaires ou diplomatiques américano-occidentales, en ont fait la démonstration. En 2004, le soutien américain à la révolution orange élargit encore un peu plus les divergences entre les deux pays, tandis que le soutien des États-Unis à l’indépendance du Kosovo en 2008 sembla rendre la rupture russo-américaine irréversible. Après l’élargissement de l’Otan à de nombreux pays de l’Est devenus aussi membres de l’Union européenne, l’UE devint de facto une entité atlantiste sous la domination des intérêts américains. On assista à la reconstitution d’un impressionnant potentiel militaire en Pologne, qui se prépare quasi ouvertement depuis la crise ukrainienne à une guerre potentielle contre la Russie. D’autres nouveaux membres de l’Alliance (pays baltes, Bulgarie, Roumanie) se sont placés quant à eux sous le parapluie de l’Alliance qui y a ouvert depuis 2006 des bases aériennes, notamment ; Bezmer et Graf Ignatievo, puis un polygone militaire (Novo Selo). Les patrouilles d’avions militaires de l’Otan survolent désormais très régulièrement l’espace aérien des pays baltes en proximité immédiate des frontières russes, en raison de l’absence d’aviation militaire dans ces pays. Aujourd’hui, on ne peut que constater l’état déplorable des relations entre les deux pays. Dans ce contexte, les critiques américaines concernant l’état de la démocratie en Russie se sont multipliées, mais pas envers des régimes autoritaires islamiques comme le Qatar, l’Arabie saoudite, ou le Pakistan, parrains du djihadisme. Vladimir Poutine n’a jamais accepté le projet américain de déployer en Europe centrale et orientale un système de défense antimissile, au même titre que l’ingérence occidentale en Ukraine. Il a toujours répondu fermement en assurant que si les États-Unis sortent du traité ABM, la Russie sortira du système d’accords de limitation et de maîtrise des armements stratégiques, classiques, voire tactiques (chapitre VIII), et engagera une politique indépendante en matière de dissuasion nucléaire. D’après de nombreux stratèges polonais, baltes ou anglo-saxons, Vladimir Poutine aurait donc comme objectif proche d’envahir, après l’Ukraine, les pays baltes qui abritent d’importantes communautés russophones dans l’intention de contrer, la Grande-Bretagne, les États-Unis et leurs alliés baltes et polonais qui ne cessent de diffuser encore plus sérieusement ce type de scénarios apocalyptiques concernant la menace russe. La Russie, une menace plus grande que le terrorisme islamiste pour les atlantistes... Si l’on en juge par les déclarations officielles de responsables atlantistes, par les mouvements de troupes en direction du nord de l’Europe et de l’Europe orientale et aux moyens et stratégies déployés contre la Russie au détriment du Moyen-Orient et donc de la lutte contre la menace islamiste, tout se passe comme si le péril islamiste préoccupait moins les États-Unis que la Russie, « ennemi principal ». Ainsi, le général Joseph Dunford, chef d’état- major des armées américaines, avait déclaré, lors des auditions au Congrès dans le cadre de sa nomination, citant le cas ukrainien, que la Russie présentait « la plus grave menace à court terme pour la stabilité du monde entier 8 ». La Russie représente la « plus grande menace » pour la sécurité nationale des États-Unis, a confirmé Deborah James, la secrétaire des forces aériennes américaines, qui en conclut que « l’Amérique doit donc augmenter sa présence militaire en Europe ». Dans cette perspective de hiérarchisation de l’ennemi, privilégiant la menace russe sur le péril islamiste, la Pologne est bien évidemment toujours en première ligne. C’est ainsi que Witold Waszczykowski, le ministre polonais des Affaires étrangères (2015-2018), a fait écho à Deborah James en déclarant, lors de la conférence annuelle sur la sécurité Globsec, organisée le 15 avril 2016 à Bratislava (Slovaquie) : « De toute évidence, l’activité de la Russie est une sorte de menace existentielle parce que cette activité peut détruire des pays [...], nous avons aussi des menaces non existentielles comme le terrorisme, comme les grandes vagues de migrants 9 », mises ainsi au second plan. Dans la même logique d’alliance atlantico-islamique pour endiguer l’ennemi russe, Waszczykowski confirmait, à Ankara, le 20 avril 2016, que son pays est très favorable à une intégration rapide de la Turquie dans l’Union européenne et qu’il ne craint pas la suppression des visas pour les citoyens turcs, car la Turquie est « un des meilleurs atouts pour sécuriser le flanc est de l’OTAN face à la Russie ». La Pologne, qui joue comme jadis l’Angleterre le rôle de cheval de Troie des États-Unis dans l’Union, a subi des pressions américaines pour un soutien à la candidature turque (très souhaitée par les milieux anglo-saxons pour rendre l’UE ingouvernable et encore plus hétérogène) en échange d’installation de nouvelles bases américaines en Pologne. Le 2 février 2016, le secrétaire d’État Ashton Carter a clairement confirmé ce retour à la case départ stratégique de la guerre froide, et c’est dans ce contexte qu’est apparu le nouveau concept stratégique de Third Offset Strategy qui pose comme priorité de maintenir une supériorité militaire et technologique sur les Russes et les Chinois sur le long terme, l’idée étant de franchir un nouveau palier stratégique fondé sur le développement de systèmes d’intelligences artificielles, d’armes-robots, de nouveaux systèmes de brouillages des communications ennemies, etc. (voir Robert Work). Comme on l’a vu en Syrie ou même avant en Afghanistan, plutôt que de coopérer face à un ennemi commun islamiste et djihadiste qui menace autant les États-Unis, l’Union européenne que la Russie en tant que sociétés « mécréantes » à conquérir, les Occidentaux et les Russes ont au contraire renforcé leurs rivalités, s’espionnent et analysent leurs armes respectives dans l’optique d’une confrontation ultérieure 10 . Certes, il est vrai que, de son côté, le 31 décembre 2015, Vladimir Poutine a lui-même signé un document officiel sur la « stratégie de sécurité nationale de la Fédération de Russie » dans lequel les États-Unis sont clairement qualifiés de « menace pour la sécurité nationale ». Nous sommes donc revenus à l’époque de la guerre froide, et la stratégie des États-Unis et des pays membres de l’Otan et de l’UE y est pour beaucoup... Si les torts et visions diabolisantes sont partagés, force est de reconnaître que la partie qui a rompu les liens et mis fin au rapprochement est l’Occident. Sur les dossiers afghan et syrien, personne ne peut nier que si les Russes ont systématiquement proposé de coordonner et collaborer étroitement contre l’ennemi islamiste principal dans le cadre d’une vaste coalition panoccidentale ou euro-occidentale, ce sont les États-Unis qui ont toujours refusé pareil dispositif en accusant à chaque fois les Russes de défier l’Occident, de perpétrer un génocide en Tchétchénie, de frapper les « modérés » en Syrie ou de défendre la dictature d’Assad et d’aggraver la situation en Ukraine au lieu de l’améliorer. L’OCS, ou l’alliance « antihégémonique » russo-chinoise redoutée par Brzezinski Face aux puissances occidentales universalistes que sont l’Amérique et l’Europe de l’Ouest, la Russie postsoviétique et la Chine partagent la même philosophie des relations internationales fondées sur la souveraineté des États, la préservation de leurs zones d’influence respectives, ainsi que le refus de la théorie occidentale du droit d’ingérence humanitaire et de la démocratie libérale et moralisatrice à visée mondialiste. Les politiques de sanction (Irak, Serbie, Russie, Iran, Cuba, Corée du Nord, etc.), aussi contre-productives que souvent injustifiées, n’auront fait que conforter Moscou dans l’idée que l’Occident ne lui laisse d’autre choix que de se rapprocher de Pékin. On assiste ainsi, depuis le début des années 2000, à une convergence de plus en plus profonde des visions diplomatiques des deux grandes puissances créatrices de l’Organisation de coopération de Shanghai (OCS), dont sont membres aussi l’Ouzbékistan, l’Inde, le Pakistan, le Kirghizistan, le Tadjikistan, et probablement bientôt l’Iran (voir carte n o 3). Certes, l’OCS est composée, comme les Brics (Brésil, Russie, Inde, Chine, Afrique du Sud), d’États parfois ennemis entre eux (l’Inde et la Chine), mais outre que la Chine et la Russie, son noyau dur, sont des alliées stratégiques face à l’Otan et aux États-Unis, elle représente tout de même un ensemble multipolaire qui dispose de 38 % des ressources mondiales de gaz, de 20 % de celles en gaz, de 40 % du charbon, de 30 % de l’uranium de la planète et des deux armées les plus puissantes après les États-Unis, de surcroît nucléaires. De fait, face à l’unipolarité américaine, la Russie et la Chine défendent l’avènement d’un monde multipolaire, afin de contrer l’encerclement de leurs terres et mers par l’Otan, l’UE, les forces anglo-américaines et leurs alliés en Asie. Il est vrai que Moscou avait averti, dans les années 1990-2005, que toute tentative de faire basculer dans le camp de l’Otan l’Ukraine et la Géorgie (« plan Brzezinski », voir supra) serait un casus belli. On a d’ailleurs vu, entre 2003 et 2013, les conséquences dramatiques – pourtant prévisibles – de la politique des États-Unis, de l’Otan et de l’Union européenne de soutien aux dirigeants antirusses dans « l’étranger proche » de Moscou 11 . À la fin de sa vie, le concepteur même de la doctrine de l’endiguement de l’URSS, George Kennan 12 , déplorait l’obsession antirusse de l’Otan et des États-Unis, qui persistaient à traiter la Russie postsoviétique comme l’URSS en accentuant l’encerclement et les sanctions contre Moscou : « Étendre l’Otan vers l’est serait la pire erreur de la politique américaine de l’ère post-guerre froide... Les Russes vont réagir progressivement de manière particulièrement hostile et cela changera leur politique [...]. Cette expansion (de l’Otan) ferait se retourner les Pères fondateurs de notre pays dans leur tombe. » Les stratèges de Washington devront finir par comprendre que leur attitude vis-à-vis de Moscou et de Pékin a plus de chances d’accélérer, par réaction antihégémonique, la fin de l’unipolarité étatsunienne que de la prolonger, et que cela ne peut que renforcer l’avènement d’un nouveau désordre multipolaire tourné contre l’Amérique. Ce mouvement renforcera non seulement les liens entre la Chine, la Russie, l’Iran et l’Inde, mais il attirera aussi contre lui des pays du monde musulman et des acteurs souverainistes pas forcément antioccidentaux, pour qui l’hégémonie américaine est rédhibitoire, donnant ainsi corps à l’alliance antihégémonique que redoutait tant Zbigniew Brzezinski dans Le Grand Échiquier. Quant à la Chine, elle ne peut plus tolérer de se laisser enfermer par les Américains et leurs alliés dans les eaux du détroit de Formose, alors que le contrôle de ses places maritimes ou leur accès sont la condition sine qua non de son statut de puissance mondiale. D’où l’accroissement subit de ses forces navales, certes, très en deçà de celles de Washington, mais en plein développement. 1. « Ukraine : de nouvelles tensions entre la Russie, l’Otan et les États-Unis », LCI, 13 avril 2021. 2. Vyacheslav Nikonov, « La Russie et l’Occident : des illusions au désenchantement », Critique internationale, n o 12, p. 175-191. 3. Peggy Noonan, « A Chat in the Oval Office », The Wall Street Journal, 2 juin 2001. 4. Angela Stent et Lilia Shevtsova, « America, Russia and Europe: a Realignment? », ResearchGate, vol. 44, n o 4, p. 121-134. 5. Peter Baker, Days of Fire. Bush and Cheney in the White House, Washington, Anchor, 2013. 6. Condoleezza Rice, « Campaign 2000: Promoting the National Interest », Foreign Affairs, janvier 2000. 7. Fyodor Lukyanov, « What Russia Learned from the Iraq War », Al-Monitor, 18 mars 2013. 8. Laurent Lagneau, « Pour la Pologne, la Russie est plus menaçante que l’État islamique », Opex360, 16 avril 2016. 9. Voir http://lesmoutonsenrages.fr/2016/04/16/gros-danger-annonce-par-nos-medias-la-russie-est-une-menace-plus-serieuse-que- lei/#vLaxL0ch4ieC1LRV.99. 10. À titre d’exemple, en Syrie, un déserteur de l’armée syrienne et porte-parole des Forces démocratiques syriennes (FDS), Talal Silo, a révélé comment les États-Unis ont interdit au groupe FDS et donc aux combattants kurdes toute collaboration ou entraînement avec les Russes en Syrie. 11. Voir Alexandre Del Valle, Les Vrais Ennemis de l’Occident. Du rejet de la Russie à l’islamisation des sociétés ouvertes, Paris, L’Artilleur, 2016. 12. Thomas Friedman, éditorialiste du New York Times, relata son entretien avec George Kennan, en 1999, soit un an avant l’arrivée de Vladimir Poutine au Kremlin, à propos de l’expansion de l’Otan en Europe. CHAPITRE V ... ou désordre mondial multipolaire ? « L’affrontement de tête entre Washington et Pékin, qui structure la nouvelle donne stratégique planétaire, va bon train sur le front commercial, mais aussi sur tous les autres terrains (militaire, sécuritaire, diplomatique, normatif, politique, numérique, spatial, etc.). La planète entière est devenue le terrain de jeu de ce pugilat géant [...] : l’Europe bien sûr, l’Eurasie, mais aussi l’Afrique [...], l’Amérique latine, la zone indopacifique [...] et naturellement le Moyen-Orient. » Caroline Galacteros Depuis les années 2000 et la remise en question sino-russe de l’unipolarisme américano-atlantiste (OCS, voir cartes n os 2 et 3) le monde vit une transition historique vers la multipolarité. Celle-ci est caractérisée non seulement par le retour de la Realpolitik, des souverainismes identitaires, des empires civilisationnels régionaux, mais aussi par un processus global de désoccidentalisation de la mondialisation, redevenue un phénomène neutre découplé de son idéologisation mondialiste. Le nouveau monde multipolaire qui vient, apparemment désordonné, sera composé d’espaces ou « zones géocivilisationnelles » en compétition constante et à géométrie variable. Désordre non pas en vue du pire, qui n’est jamais certain, mais parce que les règles de fonctionnement de ce nouveau monde en gestation n’ont pas encore été fixées. Pour l’heure, ce qui est certain, c’est que la mondialisation n’est plus maîtrisée par l’Occident et devient surtout un champ de rivalités géostratégiques et d’hypercompétition économique de plus en plus agressives accentuées par la crise économique mondiale et la crise sanitaire. En 1987, Paul Kennedy avait expliqué, comme Duroselle, que « toute superpuissance à la recherche d’une domination globale finira par la perdre ». Un constat également émis, on l’a vu, par Graham Allison avec son « piège de Thucydide ». La raison majeure est l’attribution ruineuse de ressources économiques et financières à un pouvoir militaire contre-productif. Il est vrai que les interventions américaines de l’après-guerre froide ont coûté des milliers de milliards de dollars. Depuis 2001, la « guerre contre le terrorisme » (war on terror) en Afghanistan aurait coûté à elle seule 850 milliards de dollars de 2001 à 2017 (sans résultats), et celle en Irak (1990-2003) près de 2 000 milliards. Dans le même temps, maintes infrastructures sont restées en retard aux États-Unis (trains et lignes électriques ou téléphoniques non enterrées) et les jeunes endettés pour leurs études ainsi que les pauvres incapables de payer des soins corrects se révoltent car tout cet argent aurait pu contribuer à rendre leur vie moins rude. Si l’Amérique veut continuer à jouer un rôle majeur en faveur de la stabilité et retrouver son pouvoir de séduction, largement perdu à cause de son arrogance, pour paraphraser Huntington, elle devra accepter la constitution de sphères d’influence régionales souveraines autour de la Chine, de la Russie, de l’Inde, de la Turquie, du Brésil, de l’Égypte, de l’Afrique du Sud, notamment, ce qui ne l’empêchera pas de protéger ses propres zones d’influence en Amérique du Nord et du Sud, et de maintenir des liens étroits avec l’Europe. Sa politique étrangère devra renoncer à l’impérialisme de ses juridictions extraterritoriales et devra se recentrer sur la promotion d’un équilibre global du pouvoir, ce qui signifie l’abandon des politiques contre-productives de regime change. Mais rien n’indique que cette tendance, paradoxalement bien plus incarnée par les électeurs de Donald Trump que par ceux des démocrates, prisonniers de leur moralisme interventionniste, l’emportera. Fractures internes et externes D’une manière générale, on constate à l’échelle des États-Unis, qui ont été au bord de la guerre civile autour de la présidence Trump et du mouvement des Black Lives Matter, ainsi qu’à l’échelle mondiale, une détérioration globale du statu quo, un déclin progressif des structures établies depuis 1945 : intensification des rivalités entre grandes puissances ; montée du nationalisme, des intégrismes et des populismes face au néo-impérialisme moraliste des élites occidentales mondialisées ; migrations incontrôlées ; tentations de « démondialisation » ; explosion des inégalités ; questions sanitaires et environnementales. Dans le même temps, les Nations unies ne parviennent pas à se renouveler : le Conseil de sécurité permanent est toujours composé des mêmes cinq grands vainqueurs de la Seconde Guerre mondiale et refuse de partager ce club de happy few avec de nouveaux grands acteurs, comme l’Inde ou le Brésil. On peut donc s’attendre dans les années à venir à un discrédit croissant du multilatéralisme cher aux adeptes de l’école idéaliste des relations internationales, et à un retour en grâce de la Realpolitik, et du souverainisme, déjà en action dans la quasi-totalité du monde non occidental, c’est-à-dire hors l’aire euro-américaine industrialisée-atlantiste. La période de transition géostratégique qui, après la fin du monde bipolaire (1990), a vu le triomphe éphémère de l’unipolarité américaine et qui évolue progressivement vers un multipolarisme pourrait être appelée « nouveau désordre mondial » ou « marche vers un multilatéralisme asymétrique 1 ». Le monde n’appartiendra plus à personne... Comme l’écrit Charles Kupchan, dans La Fin de l’ère américaine 2 , le monde qui vient n’appartiendra à personne, car il sera à la fois multipolaire, politiquement pluriel et fera cohabiter une hyperpuissance américaine lassée de son fardeau de l’hégémonie mondiale et les acteurs émergents et réémergents d’un monde polycentrique. Certes, la montée de la Chine pourrait déboucher sur un duopole sino-américain ou une néoguerre froide entre les deux rivaux dans une sorte de bipolarité, mais le monde ne redeviendra pas bipolaire pour autant car la Chine s’accommode du polycentrisme et n’a de prétention hégémonique (mais non prosélyte comme l’Occident) que dans sa zone d’influence asiatique. Contrairement à l’URSS, elle ne cherche nullement à répandre son modèle politique communiste ou civilisationnel sino-confucéen aux autres pôles. Pour Kupchan, l’internationalisme libéral qui a porté la politique américaine tout au long de la guerre froide s’essouffle. Les États-Unis, après plusieurs stratégies successives (containment, roll back, détente, puis unilatéralisme) pendant la guerre froide et durant la décennie et demie qui a suivi, n’ont plus de Grand Strategy (Luttwak) aujourd’hui, après avoir triomphé du communisme. Le « moment unipolaire » des États-Unis est donc terminé et la transition, inexorable. Depuis quelques années, aux États-Unis, un courant de pensée a d’ailleurs émergé parmi les universitaires américains selon lequel l’Amérique devrait accepter les sphères d’influence respectives des nouveaux acteurs, c’est-à-dire un partage de la puissance mondiale avec d’autres grandes puissances, avec une référence particulière à la Chine, à l’Inde et à la Russie. Le nombre de grandes puissances va être plus élevé qu’il ne l’a jamais été par le passé : on trouve tout d’abord le « club des sept empires » (Giannulli), à savoir les États-Unis, l’Union européenne, le Japon, le Brésil, la Russie, l’Inde et la Chine, qui représentent à eux seuls plus de 50 % de la population mondiale et 75 % du produit intérieur brut (PIB) mondial, puis viennent dans un second cercle de puissances de moindre poids l’Afrique du Sud, la Colombie, l’Indonésie, l’Égypte, l’Iran, la Turquie, chacune de ces puissances évoluant dans leur « étranger proche » sur la base de leurs propres valeurs et intérêts, portant ainsi une vision spécifique. La Chine, deuxième puissance du monde, va continuer de tout faire, dans tous les domaines, pour dépasser les États-Unis, même si cela va s’avérer long et plus difficile dans le domaine militaire et celui du soft power culturel mondial. La politique étrangère et de défense des États-Unis va se concentrer de ce fait sur l’impératif de contrer non seulement la Chine, mais aussi les « alliances antihégémoniques » (Brzezinski) susceptibles de gêner sa domination stratégique mondiale, comme l’Organisation de coopération de Shanghai (OCS). Washington craint également le rapprochement Iran-Chine qui s’est traduit par la signature, en mars 2021, d’un accord commercial de 400 milliards de dollars pour une période de vingt-cinq ans entre les deux pays. Cet accord stratégique surnommé Lion-Dragon Deal s’est également matérialisé par des ventes d’armes et des manœuvres navales communes aux côtés de la Russie. Cette nouvelle proximité sino-iranienne rebat les cartes au Moyen-Orient, en passe de devenir un nouveau terrain de confrontation entre la Chine et les Occidentaux. Le duel sino-américain va donc de plus en plus prendre la forme d’une confrontation ouverte, mais les interdépendances économiques entre eux vont probablement empêcher que se reproduise un scénario identique à celui de la guerre froide. L’objectif immédiat des États-Unis sera de freiner au maximum les efforts de la Chine pour prendre l’avantage dans plusieurs domaines, ceci au moyen d’une guerre commerciale, monétaire, technologique (guerre de la 5G, voir infra) et stratégique (forces militaires, Quad [Quadrilateral Security Dialogue] voir carte n o 3), mais aussi en contrant le projet chinois d’établir une position hégémonique en Asie. Cette bataille se déroule d’ailleurs déjà en mer de Chine, autour de Taiwan et de la Corée du Sud, des Paracels/Spratleys et autres îles (Senkaku, etc., voir chapitre XII). Les Chinois, eux, vont donc tout faire pour éloigner les États-Unis de la zone (d’où la reprise en main de Hong Kong, les menaces sur Taiwan et la stratégie du « collier de perles »). La stratégie du collier de perles Cette expression désigne l’installation, par la marine de guerre chinoise, de points d’appui (les « perles ») tout le long de sa voie d’approvisionnement maritime vers le Moyen-Orient. Cela inclut la construction, l’achat ou la location, sur le long terme, d’installations portuaires et aériennes (échelonnées jusqu’en Afrique), destinées à protéger ses intérêts commerciaux d’est en ouest : de la mer de Chine méridionale au golfe de Bengale, à la mer d’Arabie et la mer Rouge. Sans surprise, l’Inde rivale y voit un encerclement, notamment à partir des ports au Pakistan, grand allié de la Chine, au Sri Lanka, au Bangladesh, ou encore au Myanmar et aux Seychelles, pays « retournés » ou acquis ces dernières années à Pékin. Il s’agit en fait d’une chaîne de bases militaires chinoises et de ports étrangers dans lesquels la marine militaire chinoise a acquis des installations portuaires dans le cadre de projets d’infrastructures financées par Pékin 3 . L’idée est d’étendre son contrôle sur toute la mer de Chine méridionale et orientale, 80 % des importations énergétiques chinoises y transitant. Pékin rachète dans ce même contexte des ports, en Corée du Nord, au Cambodge (voir infra) et convoite même un port en Islande pour réduire les trajets de Shanghai à Hambourg de six mille quatre cents kilomètres durant l’été ; sans oublier le golfe d’Aden-Djibouti, et alentour, pour escorter ses navires à travers cette zone infestée de pirates. Outsiders, émergents, Brics, acteurs de la désoccidentalisation du monde Depuis le retour politique des non-alignés, l’émergence de l’OCS et des Brics (voir cartes n os 2 et 3), la montée en puissance de l’Indonésie, de la Corée du Sud, de la Malaisie, de la Turquie et d’autres pays émergents, l’économie mondiale multipolaire a évolué si rapidement que certains pays en développement se sont mués en puissances géoéconomiques. La catégorie générique de tiers-monde apparaît désormais désuète, du moins sur le plan économique. Si l’Europe et les États-Unis semblent menacés par la désagrégation économique et l’apparition de nouvelles frontières intérieures, d’autres zones sont en passe d’apparaître sous l’impulsion d’échanges commerciaux, financiers et humains intensifiés entre les États qui les constituent. D’après le Fonds monétaire international (FMI), les BRICS (Brésil, Russie, Inde, Chine, Afrique du Sud, acronyme créé par Goldman Sachs en 2001) comptent 40 % de la population mondiale et assureraient 50 % de la croissance mondiale. Leur place dans l’économie mondiale croît fortement : 16 % du PIB mondial en 2001, 27 % en 2015 et, d’après des estimations, 40 % en 2025. Ils affichent un PIB nominal équivalent à celui des 27 de l’UE réunis. Forts de ce constat, certains prospectivistes de Goldman Sach évoquent l’apparition possible d’un « E7 », sigle d’un « G7 à l’envers », qui regrouperait 7 puissances mondiales émergentes (Chine, Inde, Brésil, Russie, Mexique, Indonésie, Turquie). La crise économique et financière a par ailleurs accentué le phénomène de rééquilibrage économique et géopolitique mondial en faveur d’une participation plus importante des pays non occidentaux aux affaires du monde : la part de l’Asie dans l’économie mondiale est passée de 7 % en 1980 à 30 % en 2020, tandis que les marchés d’Asie représentent aujourd’hui 34 % de la capitalisation boursière mondiale (devant les États-Unis, 29 %, et l’Europe 24 %). La part du monde en développement dans le PIB mondial en termes de parité de pouvoir d’achat est passée de 33,7 % en 1980 à 45 % en 2019. Le Brésil, la Russie, l’Inde, la Chine et l’Afrique du Sud forment au total un ensemble humain de plus de 3 milliards d’habitants, soit 40 % de l’humanité, et ils ont une surface de presque 40 millions de km². Ils pourraient être bientôt rejoints par la Turquie, l’Indonésie, la Colombie, le Chili ou le Mexique (BRIICCTMS). Lors du sommet de Brasilia du 15 avril 2010, les 4 principaux pays-continents des Bric (alors dénommés ainsi) ont pour la première fois remis en cause l’ordre économique et financier mondial hérité des accords de Breton Woods, appelant à la réforme de la Banque mondiale et du FMI. Le 15 juillet 2014, à l’occasion de leur sixième sommet annuel à Fortaleza, au Brésil, les Brics (alors déjà augmentés du s de South Africa) ont signé un accord créant une banque de développement (NBD) et une réserve de change commune 4 dont les fonds de dotations ont « financé trente-cinq projets d’investissements d’une valeur supérieure à 9 milliards de dollars 5 ». Plus gênant pour l’imperium américain : ces puissances remettent en cause la suprématie planétaire du dollar, appelant à constituer un système financier international alternatif au nom de leur droit d’utiliser comme bon leur semble leurs monnaies nationales pour l’énergie et d’autres transactions. Cette idée séduit bien sûr au premier chef Russes et Chinois, qui échangent déjà leurs hydrocarbures en yuans, mais aussi l’Inde et nombre de pays africains. Quant à la Turquie, elle a signé un accord avec la Russie pour échanger également hors du dollar, ce que la Chine fait déjà avec les pays africains qui ont abandonné eux-mêmes le franc CFA. La désoccidentalisation est en marche... En juin 2019, dans le cadre d’un sommet des Brics, en marge du G20, au Japon, à Osaka, Vladimir Poutine a appelé les émergents à stabiliser les cours de leurs devises nationales en échangeant le plus possible avec elles au lieu du dollar. Et la Banque centrale russe a suggéré, en décembre 2017, de créer une monnaie virtuelle commune à la fois aux Brics et aux États de l’Union économique eurasienne 6 . En 2018, lorsque la direction de Society for Worldwide Interbank Financial Telecommunication (Swift), sous pression américaine, a déconnecté de son système la Banque centrale d’Iran et d’autres organismes financiers iraniens visés par les sanctions américaines liées aux lois extraterritoriales, l’Inde, la Russie et la Chine ont décidé de se débarrasser à terme de la dépendance envers Swift en reliant le système de messagerie financière (PSSA) au système chinois de paiements internationaux (CIPS) et au projet d’une structure indienne indépendante 7 . D’autres puissances régionales majeures, comme l’Iran, ont également un très fort potentiel et même des velléités néo-impériales. L’Iran a considérablement augmenté sa profondeur stratégique au Moyen et Proche-Orient depuis les années 1980, mais également dans d’autres zones du monde, comme l’Amérique latine, l’Asie centrale et la Turquie. Il est un membre observateur de l’OCS, il renforce sa coopération avec l’axe Chine-Russie et les Brics, et seules la politique de sanctions drastiques lancées par les États-Unis et la nature cleptocratique et totalitaire islamiste du régime ont empêché ce grand pays de poursuivre sa croissance économique, géopolitique et technologique déjà visible à l’époque du shah, mais que les rivaux de Téhéran, Arabie saoudite en tête, craignent par-dessus tout. Puissance nucléaire potentielle, la Turquie postkémaliste et national-islamiste est quant à elle déjà la première puissance du Moyen-Orient, devant l’Iran et l’Arabie saoudite, et même la treizième puissance mondiale depuis 2018. Non seulement elle revendique son entrée dans le club nucléaire et abrite des ogives nucléaires américaines sur son sol, mais elle se dote, grâce à son partenariat avec Moscou, de centrales nucléaires et diversifie ses capacités militaires, comme on le voit dans le rapprochement avec l’OCS et l’achat du système de missiles S400 russes qui permet à Ankara de devenir stratégiquement plus autonome vis-à-vis de l’Alliance atlantique. Enfin, pour reprendre la dichotomie « ventres durs/ventres mous » du monde, chère à Pierre Marie Gallois, le pôle africain, avec ses 150 millions d’habitants en 1930 devenus 2 milliards dans trente ans, ne participe qu’à hauteur de 3 % aux échanges mondiaux et reste englué dans les cercles vicieux de la surnatalité, du clanisme, de la corruption endémique, de la mauvaise gouvernance, de l’analphabétisme et des guerres et tensions ethnoreligieuses et tribales dans des États postcoloniaux dont les frontières ont été fort mal découpées. Le rêve de Chinafrique ou même Chindiafrique demeure hélas un doux mythe : le décrochage des pays du Sahel est stupéfiant, cumulant problématiques de sous-développement, de réchauffement climatique, de séparatisme et de terrorisme islamiste, et il s’agit là de la seule région au monde où la pauvreté a continué de progresser... L’Afrique demeure globalement une source de convoitises pour les matières premières et les terres agraires au profit des multinationales, pas seulement occidentales, d’ailleurs, et des acteurs du monde polycentrique, Chine, Inde, États-Unis, France, Turquie, et même Russie. Inexorable montée en puissance de l’hégémon chinois En 1980, le produit intérieur brut (PIB) chinois équivalait à 7 % du PIB américain, contre 61 % en 2015, et sera bientôt équivalent. Une tendance quasi certaine : le FMI prévoit pour la Chine une croissance d’au moins 8 % en 2022, quand l’Europe peinera à sortir de la crise la plus catastrophique depuis 1929. Rappelons tout de même que la Chine, devenue l’usine du monde avec la complicité des oligarchies économiques occidentales, a désormais plus de travailleurs dans l’industrie que tous les pays de l’OCDE réunis 8 . Pékin a par ailleurs acheté 1 200 milliards de dollars de bons du Trésor américain indispensables au budget des États-Unis, et acquiert des actifs financiers et physiques partout dans le monde. Longtemps considérée comme un simple pays d’accueil, la Chine est désormais exportatrice nette d’IDE 9 : les flux sortants sont ainsi passés de 7 à 200 milliards de dollars entre 2001 et 2018. Dans une logique de guerre économique et financière, la Chine refuse de remettre en cause le taux de change de sa monnaie et elle exige d’entrer dans le club des « Économies de marché » pour s’affranchir de toute contrainte à l’exportation, tout en pillant allègrement les technologies de ses partenaires et en pratiquant en « non-retour » une forme de protectionnisme et de concurrence déloyale fondée sur le dumping social et le non-respect des critères de l’OMC et de l’OIT... Outre l’OCS et les Brics, évoqués plus haut, les instruments de ce processus de montée en puissance chinoise sont tout d’abord la Belt and Road Initiative (BRI), littéralement « ceinture et route », appelée dans la presse « nouvelles routes de la soie ». Il s’agit d’un gigantesque plan de construction de réseaux d’infrastructures terrestres, maritimes, énergétiques et communicationnels, véritable pilier de la mondialisation chinoise déployé sur 6 corridors d’Eurasie. Qualifiée de plus grand projet d’investissements depuis le plan Marshall, la BRI répond à la quête géopolitique de « Rêve chinois global 10 » lancé en 2013 par Xi Jinping lorsqu’il est arrivé au pouvoir. Visant à accroître la place de la Chine au niveau international 11 , les « nouvelles routes de la soie » englobent 65 pays asiatiques et européens, représentant près de 55 % du PIB, 70 % de la population et 75 % des réserves énergétiques du monde, pour une durée d’investissement de trente-cinq ans... Le coût estimé des premiers projets est de 900 milliards de dollars et les prêts associés, alloués par la Chine pour les infrastructures à venir dans les différents pays traversés, atteignent 8 trillions de dollars ! Patriots vs McWorldists ? À la lumière des fractures internes de plus en plus problématiques dans les pays occidentaux, prisonniers de systèmes court-termistes (en Europe populiste vs sociaux-démocrates et aux États-Unis trumpistes Patriots vs démocrates « multiculturalistes »), qui ont failli, durant l’été 2020 et en janvier 2021, conduire les États-Unis à la guerre civile, la Chine et d’autres puissances considèrent que des élections libres et équitables ne peuvent plus garantir un gouvernement efficace et que l’idéologie libérale-libertaire McWorld est foncièrement subversive et anarchiste. Pékin considère le « scénario Mad Max » qui prédestine les démocraties libérales occidentales au chaos comme une opportunité historique pour remplir le vide. Le pouvoir chinois compte ainsi démontrer que, dans le monde complexe du XXI e siècle, la paix et la prospérité sont mieux servies lorsque des gouvernements centraux forts affrontent les défis mondiaux... Comme dans les années 1930, la démocratie occidentale n’est plus le seul modèle, et sur ce point, Samuel Huntington, dans la conclusion de son Choc des civilisations, ne s’est pas trompé en annonçant la fin du pouvoir d’attraction de l’Occident. « L’hégémonie mondiale américaine ne fonctionnera plus, écrit Robert W. Merry, l’exceptionnalisme américain est une vanité nationale ridiculisée par les événements [...] nos idéaux sont bons pour nous et valent la peine de se battre pour eux, mais ils ne sont pas universels et ne devraient pas être imposés à d’autres peuples dans d’autres pays 12 . » Cette remarque peut être désagréable pour les oreilles des missionnaires pandémocratiques d’Occident, mais cette musique est en vogue dans le nouveau monde multipolaire, c’est-à-dire dans près de 90 % de l’Humanité, si l’on reprend le chiffre de Samuel Huntington qui évaluait le poids mondial des « élites blanches mondialisées » (ou « club de Davos ») à 12 % de l’Humanité... Contrairement aux expectatives occidentalistes de Fukuyama, et à la différence de la Russie postsoviétique de Boris Eltsine, la Chine ne s’est pas du tout démocratisée et libéralisée sur le plan politique, et ne s’est ouverte qu’à son avantage, sur le plan économique et commercial. Elle développe ainsi un ordre mondial alternatif régi par la Realpolitik, fondé sur la dictature absolue du parti léniniste-maoïste combinée à un néoconfucianisme et à un capitalisme mercantiliste de conquête. Étrange mélange, certes, presque incompréhensible pour un Occidental cartésien, mais alliage fort opportun et efficace pour un confucéen-taoïste habitué à mélanger les contraires (« yin et yang »)... Pour le pouvoir de Pékin, la mondialisation constitue de ce fait une formidable opportunité pour consolider son hégémonie, son nationalisme impérial, et non pour fonder une suprasociété mondiale prosélyte, comme l’entend l’Occident. Ce projet est perçu comme utopique, contre-productif et menaçant. Dans le court terme, la Chine, qui a besoin de vendre ses produits au monde entier et donc aux États-Unis, ne veut surtout pas d’une confrontation directe, et concéderait même à Washington, dans une logique pragmatique, une ouverture politique et économique en échange de l’endiguement de la marine américaine en mer de Chine. Son but premier est d’acquérir la puissance mondiale nécessaire pour gagner une guerre sans avoir à la livrer, à la lumière de Sun Tzu ou du jeu de go. Et cette puissance a déjà été en partie acquise par l’instrumentalisation de la mondialisation... D’évidence, le nouveau (dés)ordre mondial ne s’annonce pas libéral : la plupart des acteurs de ce monde en voie de multipolarisation rejettent les valeurs libérales-libertaires et démocratiques promues par les démocrates américains et les sociaux-démocrates européens. « Au grand dam de l’Occident, écrit Caroline Galacteros, Pékin propose une synthèse efficace et séduisante pour bien des pays. C’est du dirigisme, c’est une pratique autoritaire du pouvoir, c’est une restriction manifeste des “droits de l’homme”. Mais au lieu de crier à la dictature, nous ferions mieux d’observer cette synthèse très attentivement et d’analyser sa force d’attraction 13 . » Un appel au réalisme. L’Europe : « impuissance volontaire » et dindon de la farce de la mondialisation ? À l’inverse, la puissance européenne semble être dupe de la mondialisation, idéologiquement assimilée au « mondialisme », avec la difficulté qui en découle de défendre le principe de souveraineté, qu’il soit national ou supranational, délégitimé en lui-même par McWorld et Bruxelles. Certes, le PIB global des vingt-sept pays européens représente 25 % de la richesse mondiale. Globalement, l’UE est un partenaire économique majeur pour l’ensemble du monde. Son secteur secondaire n’a pas totalement disparu, même si les délocalisations ont porté un coup fatal à des pans entiers de l’économie. Par la plupart des critères de puissance – taille du marché, monnaie unique, main-d’œuvre hautement qualifiée, gouvernements démocratiques stables et bloc commercial unifié – de ses pays membres, l’Union pourrait acquérir un poids sur la scène internationale, mais le vieillissement de sa population et la diminution de la main-d’œuvre dans la plupart des pays auront un impact négatif durable sur un continent désindustrialisé qui risque de se paupériser progressivement et de « sortir de l’Histoire » 14 . Certes, sa présence industrielle est encore forte dans des domaines sensibles, comme la chimie, certaines industries lourdes, l’ingénierie industrielle, les énergies alternatives, en plus de l’automobile et des machines-outils, et elle demeure, au niveau des échanges intracommunautaires, le leader du commerce international. Mais pas forcément pour longtemps. Car le déséquilibre avec les pays émergents à bas coût de main-d’œuvre et/ou à monnaie sous-évaluée s’accentuant, l’UE doit se protéger contre la concurrence déloyale en matière de commerce international et se détacher de l’angélisme en mettant en place une réciprocité dans le domaine des marchés publics. L’UE serait bien inspirée, pour ne plus être le dindon de la farce, d’instaurer l’équivalent du Buy American Act américain, qui contraint d’affecter les fonds publics américains à des entreprises américaines. Un tel Buy European Act aurait par exemple permis d’interdire à la Pologne d’acheter des avions militaires américains plutôt qu’européens, et éviterait les achats trop fréquents de matériels américains par les États européens membres de l’Otan. L’Europe, prisonnière de son propre mythe universaliste, qui s’affiche comme le continent de la non-identité, des droits de l’homme, de la social-démocratie, a comme pire ennemi sa propre volonté d’impuissance et sa mauvaise conscience, en plus de sa démographie déclinante. En fait, si tant est qu’elle devienne un jour un acteur géopolitique, elle est le seul qui a renoncé à afficher une identité, à définir des frontières, et a renoncé à la volonté de puissance. Un objet « géopolitique non identifié » et postcivilisationnel La grande majorité des pays de l’Union européenne dépensant entre 1 et 2 % de leur PIB dans le domaine militaire, le budget européen de la défense équivaudrait théoriquement à 290 milliards de dollars, ce qui en ferait potentiellement le deuxième budget mondial derrière les États-Unis (732 milliards de dollars), et devant la Chine (178 milliards). Mais cela n’est qu’une projection car, en réalité, l’UE n’a ni stratégie, ni défense et armée propres, ni même une politique étrangère unie, mais 27 intérêts nationaux souvent divergents... Le véritable ordre de placement situe la Chine juste derrière les États-Unis, bien devant sa concurrente, l’Inde (71 milliards), puis la Russie (65,1), l’Arabie saoudite (61,9) et la France (51). Outre les empires étatsunien, turco-islamique et chinois, qui la prennent en tenailles et convoitent ses richesses et son patrimoine uniques, l’Europe, démographiquement déclinante et psychologiquement complexée, est la seule civilisation au monde qui a remplacé toute appartenance identitaire par des valeurs humanitaires, démocratiques et libérales-libertaires. Celles-ci sont d’ailleurs vues comme des antivaleurs postidentitaires par les autres civilisations et nations, même démocratiques, comme le Japon, l’Inde, etc., qui demeurent patriotes et qui assument fièrement des politiques de puissance 15 et de civilisation. Le fait que l’UE, protégée par l’Otan, donc vassale des États-Unis, amoindrisse progressivement les souverainetés nationales de ses pays membres depuis les années 1990 16 la place en situation d’apesanteur stratégique. Loin de prendre le chemin de devenir un acteur géostratégique, alors qu’elle le pourrait si une unité de vue et une volonté existaient entre États membres, elle demeure en fait un no man’s land géopolitique. Pour les acteurs du reste du monde, Chine, États-Unis, Russie, Turquie, elle apparaît selon les uns comme un objet de dérision – Kissinger demandait d’ailleurs : « Europe, quel numéro de téléphone » ? – et selon les autres comme une belle proie affaiblie donc à convoiter... L’Union européenne est aujourd’hui une organisation hybride : un Ogni, un objet géopolitique non identifié : elle n’est ni un État, ni une fédération, ni même une confédération, mais une organisation internationale très divisée et hétérogène, unie en apparence seulement par une idéologie sociale-démocrate universaliste et une économie de marché, qui s’applique à elle-même des règles de limitation des souverainetés, de répression des identités nationales, d’ingénuité géoéconomique, de strict respect de la concurrence, de protection des travailleurs et de l’environnement ou de multiculturalisme, que les autres acteurs du monde ne s’appliquent pas à eux-mêmes, mais exigent opportunément d’elle, dans l’intention de la conquérir. Bref, elle agit de façon objective en dindon de la farce d’une mondialisation que tous les autres acteurs conçoivent comme un immense champ de concurrence et de ce fait comme un levier d’extension de leurs propres puissances et non comme un partage de souverainetés ou un projet de « village global »... Ce constat confirme l’observation que nous faisait partager dans les années 1990-2000 Pierre Marie Gallois, qui craignait que le continent ouest-européen devienne celui de l’impuissance et de la désouverainisation car l’Europe ne peut pas, pour des raisons historiques et idéologiques, acquérir au niveau supranational la souveraineté qu’elle fait perdre aux États membres au niveau national. Rejet de l’occidentalisation et de la domination américaine Les nouveaux dispositifs géopolitiques mis en œuvre depuis la fin de la guerre froide par les partisans d’un nouvel ordre international polycentrique, émancipés de l’hégémonie de l’Occident et des États-Unis, donc en quête de « désoccidentalisation », appartiennent à deux grands groupes : premièrement, les groupes d’États qui s’opposent à l’Occident, combattent ses valeurs et sa civilisation ; deuxièmement, ceux qui ne sont pas forcément antioccidentaux mais qui veulent un monde multipolaire fondé sur le respect de la souveraineté des États maîtres de leurs zones d’action géopolitique, économique et stratégique respectives. Comme l’explique le sociologue suisse Jean Ziegler, « la haine de l’Occident, cette passion irréductible, habite aujourd’hui la grande majorité des peuples du Sud. Elle agit comme une force mobilisatrice puissante ». D’après cette représentation, la simple évocation récurrente des droits de l’homme par des pays occidentaux pour justifier des sanctions internationales contre des dictatures du tiers-monde ou des pays accusés de massacrer des minorités ou de poursuivre un programme secret d’acquisition de l’arme nucléaire (Iran, Corée du Nord) est perçue comme un nouvel hégémonisme et motive la montée du ressentiment envers un Occident qui aurait d’autant moins de leçons de morale à donner qu’il colonisa, exploita et conquit tant de peuples dans le passé. D’après Ziegler, cette haine antioccidentale paralyse les Nations unies : l’Assemblée générale de l’ONU est d’ores et déjà composée en grande majorité de pays du Sud et émergents (Afrique, Asie du Sud, Amérique latine, monde islamique-OCI, OCS, Brics, etc.), qui contestent l’unipolarité du monde, alors que l’organe décisionnel stratégique (les cinq États membres permanents du Conseil de sécurité) demeure dominé par des États vainqueurs de la Seconde Guerre mondiale (États-Unis, France, Grande-Bretagne, Russie, Chine) qui refusent pour l’heure de revoir cette composition qui ne reflète pourtant plus du tout l’état du monde dans sa pluralité ni l’émergence de nouveaux acteurs stratégiques clés du Sud, comme l’Inde, le Brésil ou l’Afrique du Sud. Tant à la conférence antioccidentale de l’ONU organisée à Durban, en 2000 puis en 2009 (« Durban II »), qu’au Conseil des droits de l’homme des Nations unies à Genève ou à l’Assemblée générale des Nations unies, à New York, on constate la radicalisation d’un front antioccidental, rappelant à la fois l’expérience de la Tricontinentale et des non-alignés, et unissant, contre Israël, les États-Unis, et les pays industriels démocratiques des États aussi différents que l’Égypte, le Pakistan, Cuba, la Bolivie, le Venezuela, les États membres des groupes africains, arabes, musulmans (OCI) et latino-américains, la Corée du Nord, la Chine ou la Russie (Brics, OCS, États non-alignés). C’est notamment par ce type d’accord informel conclu entre pays opposés à l’Occident que la Chine a pu jusqu’à aujourd’hui échapper à toute condamnation globale – par l’Assemblée générale des Nations unies – des persécutions dont sont victimes les indépendantistes tibétains depuis l’annexion de cette région par la Chine ou les Ouïgours musulmans turcophones du Xinjiang 17 . D’une manière générale, Washington et l’UE parviennent de moins en moins à imposer leurs choix aux Nations unies : les propositions des États-Unis sont rejetées par la majorité de l’Assemblée générale, et la baisse du nombre d’États suivant l’Amérique s’observe d’année en année. Monde multipolaire ou polycentrique En raison de la taille considérable des populations de la Chine et de l’Inde, respectivement 1,4 milliard et 1,3 milliard, leur niveau de vie n’a pas besoin de se rapprocher de ceux des Occidentaux pour que ces pays deviennent des puissances économiques et géostratégiques majeures. Quant au Brésil, il pourrait bientôt dépasser presque tous les pays européens, sauf les trois plus grands. L’économie indonésienne, qui connaît un très rapide développement démographique, économique et technologique, tout comme celle du Viêtnam et de la Malaisie, pourraient également bientôt se rapprocher des économies des pays européens, ce qui est déjà le cas pour le Chili et la Colombie. Le Japon est confronté à une crise de vieillissement sévère qui pourrait nuire à sa reprise économique à plus long terme, mais il sera également mis au défi d’évaluer son statut et son rôle régional. Tokyo devra peut-être choisir entre équilibrer ou faire marche commune avec la Chine. La Russie a le potentiel de renforcer son rôle international en raison de sa position de grand exportateur de pétrole et de gaz. Elle est toutefois confrontée elle aussi à une grave crise démographique résultant de faibles taux de natalité, de soins médicaux insuffisants et d’une situation de sida potentiellement explosive, sans oublier le fait, grave pour une puissance contemporaine, qu’elle ne produit et ne vend rien d’autre, ou presque, que des armes, des avions de combat et des énergies fossiles. Au sud, elle borde la région instable du Caucase et d’Asie centrale, dont les troubles – extrémisme musulman, et conflits endémiques – continueront à l’impacter. Alors que ces facteurs sociaux et politiques limitent la possibilité pour la Russie de continuer à être un acteur mondial majeur, Moscou est susceptible d’être un partenaire important pour la Chine ou l’Inde. Enfin, à terme, ces puissances arrivistes – et peut-être d’autres, comme la Turquie, le Mexique, le Nigeria – ont le potentiel de rendre obsolètes les anciennes catégories de l’Est et de l’Ouest, du Nord et du Sud, alignées et non- alignées, développées et en développement. Désoccidentalisation de la mondialisation marchande et technologique Les États-Unis verront leur position de puissance relative s’éroder, même s’ils resteront encore longtemps le pays le plus puissant dans toutes les dimensions du pouvoir. Les plus grands avantages de la mondialisation profiteront aux pays et aux groupes qui peuvent accéder aux nouvelles technologies et seront généralement définis en termes d’investissement et à l’échelle mondiale – que ceux-ci soient acquis grâce à la recherche fondamentale d’un pays ou auprès de leaders technologiques. La Chine et l’Inde sont en pole position pour devenir des chefs de file technologiques, et même les pays les plus pauvres pourront tirer parti de technologies prolifiques et bon marché pour alimenter leur propre développement. La prochaine révolution attendue de la haute technologie, impliquant la convergence des nanotechnologies, des biotechnologies, de l’information et des matériaux (voir chapitre XI), pourrait encore renforcer les perspectives de la Chine et de l’Inde. Les deux pays investissent dans la recherche fondamentale dans ces domaines et sont bien placés pour être des leaders dans des secteurs clés. L’Europe risque de glisser alors derrière l’Asie, faute d’investissements et de budgets R&D suffisants. Dans l’avenir proche, les principales entreprises opérant dans l’arène mondiale seront plus diversifiées, tant en taille qu’en origine, plus asiatiques et de moins en moins occidentales et a fortiori européennes. Elles seront plus souvent basées dans des pays comme la Chine, l’Inde, le Brésil, la Corée du Sud. Alors que l’Amérique du Nord, le Japon et l’Europe pourraient continuer collectivement à dominer les institutions politiques et financières internationales, d’ici 2030, la mondialisation sera de plus en plus assimilée, dans l’esprit populaire, à une Asie émergente qui remplacera l’américanisation et l’occidentalisation façon McWorld. La région Asie, nouveau phare du monde Une zone asiatique opposant les ennemis héréditaires chinois, japonais, sud-coréens et vietnamiens semble se dessiner. Indépendamment de leurs rivalités géopolitiques et identitaires profondes, ces contrées, situées dans la nouvelle zone « d’économie-monde », ont tous les atouts pour déclasser l’ancien pivot ouest-européen et occidentalo-américain dans le futur : méthodes de travail similaires, sens du collectif extrêmement poussé, respect des organisations de type hiérarchique, sens de l’effort, culte du travail, gouvernance efficace, permettent de surmonter les préjugés nationaux et les cicatrices de l’Histoire. Dans ce contexte de commerce horizontal évoqué plus haut, mais qui ne concerne pas que les Brics, entre nouveaux acteurs du monde polycentrique, il est clair que, malgré la Covid-19, bien mieux gérée et surmontée en Asie qu’en Occident, les économies asiatiques vont continuer à croître, tout comme le commerce intra-asiatique en général. Le degré d’intégration du système asiatique dans l’économie mondiale continuera d’augmenter, et la guerre des États-Unis contre la 5G chinoise ne dissuadera pas le reste du monde et des pays européens d’adopter des technologies chinoises qui concurrenceront de plus en plus les Gafam et autres multinationales américaines. La Chine et la zone Asean 18 resteront toujours des acteurs clés du commerce intra-asiatique, d’autant plus que le rebond de ces marchés s’est amorcé dès 2021, avec la reprise de la demande chinoise de biens et la meilleure gestion de la crise sanitaire. En outre, l’industrie manufacturière en Chine et dans l’Asean offre toujours des conditions économiques attractives non seulement pour les entreprises asiatiques, mais aussi pour celles des États-Unis et d’Europe qui continueront à y investir, malgré les belles déclarations de relocalisations. En s’adaptant à la numérisation du commerce et de la logistique et en interagissant davantage au niveau régional, les économies asiatiques peuvent encore faire mieux que celles du monde entier et ceci pour longtemps. Enfin, contrairement aux attentes, une « américanisation » massive des productions jadis trop concentrées en Chine n’est pas attendue dans les années qui viennent, car les grandes firmes transnationales, loin de se conformer aux demandes politiques de relocalisation, jettent leur dévolu sur d’autres pays asiatiques où les salaires sont inférieurs à ceux pratiqués en Chine, mais dont les régimes sont favorables à Washington (Bangladesh, Viêtnam, Inde). En 2021, l’Asie, dans sa globalité, va générer plus de 50 % de l’ensemble du PIB mondial (20 % en 1980). Le 15 novembre 2020, suite au retrait américain de l’accord de partenariat transpacifique (TPP) voulu par Donald Trump en 2017, qui a ravi la Chine, cette dernière a signé avec 14 pays d’Asie-Pacifique (les 10 pays de l’Asean, le Japon, la Corée du Sud, l’Australie et la Nouvelle-Zélande, voir cartes n os 3 et 4) le Partenariat régional économique global (Regional Comprehensive Economic Partnership, RCEP), nouvelle zone de libre-échange qui rassemble plus de 30 % de la population mondiale, qui va diminuer les tarifs douaniers de 90 %, et qui prévoit une croissance des PIB des pays membres de 0,2 %. Cette intégration régionale Asie-Pacifique confirme le découplage entre intérêts économiques et axes stratégiques : nombre d’États du RCEP, comme le Japon, l’Australie ou le Viêtnam, sont hostiles à Pékin, mais la force d’attraction de l’économie chinoise est irrésistible. Le RCEP incite les entreprises étrangères à implanter dans cet espace périphérique de la Chine le maximum d’unités de production pour bénéficier de tarifs douaniers privilégiés et, ainsi, rester compétitives dans la région. La Chine va ainsi asseoir encore son influence économique et industrielle sur toute l’Asie, en déployant de nouvelles chaînes de production en Asie du Sud-Est, sanctuarisant de ce fait sa puissance industrielle et commerciale et contestant le réseau d’alliances militaires et économiques des États-Unis par une stratégie économico-financière de contre-encerclement asymétrique, qui va de pair avec la stratégie du collier de perles et l’initiative BRI... L’intégration de pays industrialisés et proches des États-Unis sur les plans industriel, économique et militaire (Japon, Corée du Sud, Australie et Nouvelle-Zélande) à l’orbite chinoise contredit considérablement les objectifs américains du paradigme « Indo-pacifique » (Free and Open Indo-Pacific) et de la coopération entre le Japon, l’Inde, l’Australie et la Nouvelle-Zélande, face à l’expansionnisme chinois. La question qui se pose pour les Occidentaux à long terme est de savoir si cette nouvelle pax asiatica- economica ne va pas se retourner contre eux, de la même façon que les traités de Vienne et de Berlin avaient uni objectivement les Européens, pourtant divisés, contre le reste du monde avec la colonisation et l’impérialisme... Quelles pourraient être les prochaines cibles de la zone Asie ? La Sibérie russe convoitée, Taiwan appelée, selon l’Oncle Xi, à rejoindre de gré ou de force la mère patrie, le Japon, tôt ou tard contraint de se « réasiatiser » et se désaméricaniser, les Philippines ou la Thaïlande, l’Australie-Pacifique, convoitée par Pékin et vue en Asie comme une anomalie-excroissance européenne allogène ? Pour contrer l’expansion chinoise dans la zone, les États-Unis et leurs alliés comptent notamment sur le QUAD (Quadrilateral Security Dialogue, voir carte n o 3), un forum stratégique informel créé en 2004 composé de l’Inde, du Japon, de l’Australie et de l’Amérique, et dont le premier exercice militaire coordonné a eu lieu fin 2019. Déjà, en 2005, la secrétaire d’État Condoleezza Rice, dans un discours prononcé à l’université Sophia de Tokyo, avait soutenu la nécessité d’alliances en Asie (avec une référence spécifique à l’Inde, la Corée du Sud et le Japon) afin d’empêcher la Chine de grandir « sans laisse » (« sans attaches »). Dans ce contexte, et face à la menace chinoise commune, l’Inde est sortie de son ancienne position de non- alignement. Comme l’Australie, le Japon ou le Viêtnam, l’Inde craint l’expansion chinoise et se rapproche des États- Unis, tout en demeurant membre des Brics et proche de la Russie et de l’OCS. Elle développe ses propres liens économiques, militaires, diplomatiques et zones de libre-échange avec l’Asie du Sud-Est, le Japon et l’Australie. Outre les accords militaires avec le Népal et économiques avec le Japon, l’Inde compte sur l’organisation des pays d’Asie du Sud et du Sud-Est créée dans le cadre des accords Bimstec 19 – qui réunissent le Bangladesh, l’Inde, le Myanmar, le Sri Lanka, la Thaïlande, le Bhoutan et le Népal – et sur l’union économique de l’Asie du Sud. Même si elle ne ferme pas totalement la porte, à terme, au RCEP, dans une logique de diversification et de développement économique (fameux découplage évoqué supra). En conclusion, le scénario le plus réaliste est qu’après la pandémie, l’affrontement politico-économique entre la Chine et les États-Unis s’intensifiera, avec un probable renforcement de la position chinoise dans la région, sans que l’on puisse exclure des répercussions militaires, compte tenu de l’existence dans cette zone de frictions multiples (problème nord-coréen ; question de Taiwan ; « dilemme de Malacca »). Tout cela contredit-il notre annonce d’un monde en voie de multipolarisation et signifie-t-il un retour à un bipolarisme, cette fois-ci non plus russo-américain mais sino-américain ? Pas forcément. Le monde deviendra de toute façon de plus en plus multipolaire, mais dans le même temps, les deux hyperpuissances sino-américaines s’affronteront directement et indirectement, politiquement, idéologiquement, commercialement, et même technologiquement, dans un contexte éminemment polycentrique. Pour reprendre une expression chère aux théoriciens des relations internationales, le décalage des rapports de force résultant de la transition du pouvoir et du resserrement de la confrontation entre les deux grandes puissances pourrait inciter les alliés de Washington à remplacer la stratégie du containment par celle du bandwagoning. À l’opposé du balancing, ce concept fait référence au fait, pour des États faibles, de rejoindre un État plus fort ou une coalition. 1. Partage du pouvoir déséquilibré entre acteurs géostratégiques de premier plan (États-Unis, Chine) et de moindre importance mais régionalement puissants (Russie, Allemagne, Inde, Japon, Brésil, Indonésie, Afrique du Sud, Turquie). 2. Charles Kupchan, The End of the American Era. US Foreign Policy and the Geopolitics of the Twenty-First Century, New York, Knopf, 2002. 3. Base navale de Yulin, sur l’île de Hainan, bases aériennes de Sansha (îles Paracels), de Zhubi, Meiji et Yougshu (Spratleys), à Sihanoukville (Cambodge), à Kyaukpyu, à Sittwe (Myanmar), au Chittagong (Bangladesh), à Hambantota (Sri Lanka), à Gwadar (Pakistan), à Doraleh et Obock (Djibouti) et à Port-Soudan. 4. Doté de 100 milliards de dollars, dont 41 versés par la Chine, 18 par l’Inde, le Brésil et la Russie, et 5 par l’Afrique du Sud, ce fonds, opérationnel depuis 2015, devrait permettre à ses membres de se protéger en cas de tempête sur leurs devises, comme celle déclenchée mi-2013 après le changement de politique monétaire américaine. 5. Michel Geoffroy, La Nouvelle Guerre des mondes, op. cit. 6. UEEA : Arménie, Biélorussie, Russie, Kazakhstan et Kirghizistan. 7. Swift est un système international qui fournit des services de messagerie standardisée et de transfert interbancaire ainsi que des interfaces à plus de 10 800 institutions dans 200 pays. 8. Michel Geoffroy, La Nouvelle Guerre des mondes, op. cit. 9. Investissements directs à l’étranger. 10. On peut citer aussi la Banque asiatique d’investissement dans les infrastructures (BAII), avec laquelle Pékin veut concurrencer le FMI et la Banque mondiale, ou le Regional Comprehensive Economic Partnership (RCEP, voir infra). 11. La BRI englobe tous les niveaux de connectivité : commercial (baisse des droits de douane, contrats de gré à gré), financières (prêts), humain (main-d’œuvre, formation) et construction d’immenses infrastructures (portuaire, routière, énergétique, communication, etc.). 12. Robert W. Merry, Sands of Empire. Missionary Zeal, American Foreign Policy, and the Hazards of Global Ambition, New York, Simon & Schuster, 302 pp. 13. Alexandre Del Valle, « Entretien avec Caroline Galacteros : Les grands défis et enjeux géostratégiques de 2021... et du monde multipolaire plein d’incertitudes qui vient », Atlantico, 22 janvier 2021. 14. Voir Pierre Marie Gallois, L’Heure fatale de l’Occident, Lausanne/Paris, L’Âge de l’Homme, 2004 ; et Gallois, La France sort-elle de l’histoire ? Superpuissances et déclin national, Paris, L’Âge d’Homme, 158p. 15. Le doublement de la population africaine d’ici à 2050 va exacerber le problème des réfugiés économiques. 16. Maastricht, Euro, Schengen ; 60 % des règles nationales issues des décisions de la Commission de Bruxelles, progression du principe de décisions à la majorité au détriment de l’unanimité, etc. 17. Jean Ziegler, La Haine de l’Occident, Paris, Albin Michel, 2008, p. 14, p. 13-14. 18. L’accord de libre-échange de l’Asean, signé le 28 janvier 1992 à Singapour entre les pays membres de l’Association des nations de l’Asie du Sud-Est, est entré en vigueur en 2003. 19. Bay of Bengal Initiative for MultiSectoral Technical and Economic Cooperation. CHAPITRE VI Géopolitique linguistique : le français vecteur multipolaire ? « L’anglais menace le français et la diversité même des langues [...]. Posséder les mots et les diffuser, c’est posséder la pensée 1 . Le français, à la différence de l’anglais, n’a pas de vision dominante mondiale [...], la promotion du français, je le répète, n’a pas pour but une mondialisation à son bénéfice. Il a pour but un autre choix, qui est celui de la diversité. » Claude Hagège, linguiste français Dans les années 1990 et surtout 2000, les échanges d’informations ont connu une amplification sans précédent grâce à la généralisation de l’anglais comme langue de travail et de socialisation dans les zones touchées par la métropolisation, dont il est devenu la lingua franca, avec la numérisation de l’information, l’ordinateur individuel, Internet et le GSM, puis grâce à l’émergence d’une deuxième génération de fournisseurs de services numériques : les Gafam. Depuis cette dernière phase de la mondialisation digitalisée, fruit de McWorld, l’hégémonie de la langue anglo-américaine semble s’imposer partout, bien que certains pôles linguistiques et civilisationnels offrent une résistance, notamment le mandarin, l’espagnol, le portugais, l’arabe et, bien sûr, le français. D’après les spécialistes, le monde contemporain recenserait plus de 6 000 langues ! Mais leur « poids », a fortiori géopolitique, est naturellement très variable. Seulement une trentaine de langues dites « majeures » domineraient la planète. Encore faut-il, d’ores et déjà, lever quelques ambiguïtés quant au dénombrement plus ou moins précis des différents locuteurs. En 2018, certains instituts, notamment anglo-saxons, établissaient des hiérarchies en prenant en compte la « langue maternelle » et la « langue seconde ». La synthèse de ces hiérarchies aboutissait au classement (certes approximatif) suivant, pour les langues maternelles : 1) mandarin : 921 millions de locuteurs ; 2) espagnol : 463 millions ; 3) anglais : 370 millions ; 4) hindi : 342 millions ; 5) arabe : 250 millions ; 6) bengali : 228 millions ; 7) portugais : 227 millions ; 8) indonésien : 200 millions ; 9) russe : 153 millions ; 10) japonais : 80 millions. Cependant, si l’on ne raisonne pas seulement en nombre de locuteurs de langue maternelle mais de langues les plus parlées en prenant en compte la « langue maternelle » et la « langue seconde », on arrive à un classement bien différent 2 : 1) anglais : 1 268 millions ; 2) mandarin : 1 120 ; 3) hindi : 637 4) espagnol : 538 ; 5) français : 277 ; 6) arabe (standard) : 274 ; 7) bengali : 265 ; 8) russe : 258 ; 9) portugais : 252 ; 10) indonésien : 199. Si l’ONU recense officiellement six langues de travail (l’anglais, le français, le russe, le chinois, l’arabe et l’espagnol), la quasi-totalité des grandes organisations internationales ne sont réellement concernées que par l’anglais et le français. Ces deux vecteurs sont les seuls à être de facto présents sur les cinq continents. Eux seuls disposent véritablement du statut international, un statut capital dans la compétition économique, politique et, a fortiori, culturelle qui agite le globe à l’heure de la mondialisation. À l’image du système bipolaire sécrété au plan géopolitique par l’après-Yalta et qui vécut jusqu’à l’effondrement de l’URSS, on peut parler aujourd’hui, sur le plan linguistique, de la pérennisation d’un partage du monde, entre la langue de Shakespeare (ou plutôt celle de l’Oncle Sam !) d’une part – celle de la mondialisation dangereuse, qui efface les identités au profit d’un village mondial anglophone – et la langue de Molière, d’autre part, qui aurait dû continuer à être un vecteur de résistance à McWorld et de promotion d’un modèle multipolaire, le français résistant paradoxalement presque plus au Québec que dans la mère patrie française où les Français semblent avoir honte de leur héritage et de leurs traditions, lorsqu’ils plébiscitent McDonald’s, le blue-jeans, et le fast fashion pour se fondre dans ces millions de consommateurs anonymes que l’Oncle Sam rend dépendants à travers le monde. L’emprise de l’anglo-américain Idiome de McWorld, véhicule privilégié des échanges internationaux et socle du soft power américain avec plus d’un milliard et demi de locuteurs, l’anglais écrase donc la planète linguistique, tant au plan quantitatif que qualitatif. Il est la langue maternelle au Royaume-Uni, aux États-Unis, au Canada, en Irlande, en Australie, en Nouvelle-Zélande, en Afrique du Sud, et la langue seconde dans des nations au gabarit impressionnant comme l’Union indienne, le Pakistan ou le Nigeria. En 2017, les chiffres généralement de l’ordre de 380 millions de locuteurs « langue maternelle », de 620 millions « langue seconde » et plus de 600 millions « langue étrangère » confirment cette hégémonie linguistique... Héritage de l’Empire britannique (Commonwealth), et plus récemment de l’impact économique et politique de la superpuissance étatsunienne, mais aussi de son soft power et de son industrie musicale et télévisuelle, en plus d’être la langue de l’informatique et du business, l’anglais et son avatar anglo-américain constituent l’outil primordial de la communication internationale, des échanges commerciaux aux transferts de technologie, en passant par les systèmes audiovisuels, sans oublier les revues scientifiques et universitaires internationales et les grandes écoles qui imposent les normes américaines. Véhicule politique et commercial, l’impérialisme anglo-américain se traduit aussi par un processus, maintes fois dénoncé (tout particulièrement du côté de Paris), d’« invasion culturelle ». Outre la culture, l’anglais est devenu le vecteur quasi exclusif du monde scientifique. La passivité, voire la résignation, des scientifiques de langue française à son égard est devenue monnaie courante. Une publication dans une revue aussi prestigieuse que Nature ne peut se faire que par le canal de l’anglais. Les classements des centres de recherche universitaires, qui font la part belle, et pour cause, aux institutions anglo-saxonnes, s’appuient d’abord sur les travaux publiés en anglais. En 1988, l’Académie des sciences française décidait de l’emploi de l’anglais dans ses comptes-rendus : reconnaissant le rôle essentiel de l’anglais dans les communications scientifiques internationales, spécialement dans les sciences, l’Académie décidait de donner une place beaucoup plus importante à l’anglais en favorisant les auteurs acceptant de donner leurs propositions de contributions via une abridged english version. Et pour la seule année 2017, on a recensé dans l’enceinte de la vénérable Sorbonne huit colloques et conférences internationaux se déroulant exclusivement en anglais ! Richelieu, rénovateur de l’antique maison, a dû se retourner dans sa tombe... Dès 1990, l’Aupelf s’inquiétait : sur l’ensemble des publications scientifiques dans le monde, 65 % étaient rédigées en anglais, 12 % en russe et 10 % en français. En 2012, les pourcentages étaient passés à 70 %, 13 % et 9 %... Pire, peut-être, en changeant d’échelle, au Québec, siège de l’Organisation internationale de la francophonie (voir infra), 70 % des articles publiés par les scientifiques québécois l’étaient en langue anglaise en 1970... et plus de 85 % en 2012... L’affrontement entre l’anglophonie et la francophonie est particulièrement visible en Afrique de l’Ouest et centrale, où certains pays comme le Rwanda sont passés subitement à l’anglais. Les Tutsis, traditionnellement antifrançais et anglophones, sont devenus la pièce maîtresse de la diplomatie américaine au Rwanda comme dans d’autres pays de la région où ils sont prépondérants. Ce n’est pas non plus un hasard si Laurent-Désiré Kabila, ex- président de la République démocratique du Congo, qui avait renversé Mobutu avec l’aide américaine, inscrivit en priorité dans son programme culturel le remplacement du français par l’anglais comme première langue étrangère. En Afrique noire, la lutte contre la francophonie est également un puissant outil d’islamisation, la francophonie étant assimilée à l’héritage colonial et chrétien. La politique d’islamisation menée par l’Arabie saoudite, le Qatar et le Koweït se traduit d’ailleurs systématiquement, en Afrique, sur le plan culturel, par une éviction de l’influence française, belge ou portugaise au profit de l’anglophonie. Partout, les islamistes, qui veulent rompre tout lien avec les anciennes puissances coloniales, surtout francophones, préfèrent l’anglais standard McWorld au français associé à la laïcité et aux Lumières antireligieuses. C’est en partie en jouant sur ce tableau anticolonialiste que Washington sape partout les positions françaises, comme on a pu le voir dans la région des Grands Lacs, plus particulièrement au Zaïre. Dans d’autres cieux, notamment au Canada, les francophones du Québec ont quant à eux le plus grand mal à résister à la progression de l’anglophonie. Certes, le Québec a adopté des lois contre la progression de termes « franglais » et défend souvent mieux le français que ses « cousins » de France ou de Belgique. Toutefois, ce farouche combat en faveur de la francophonie québécoise n’a pas réussi à maintenir la langue française partout, puisque dans la seconde grande ville du Québec, Montréal, de nombreuses familles anglophones refusent de se plier à la francophonie et tentent même, portées par la mondialisation anglo-saxonne et la proximité des États-Unis, d’y faire progresser l’anglophonie tandis que le français n’est plus connu que de rares élites et de quelques vieillards au Viêtnam, dans l’ex-Indochine française comme en Pologne ou en Roumanie. Le paradoxe québécois La géopolitique de la langue française en Amérique du Nord illustre néanmoins la vitalité de la langue de Molière. Le français est vu généralement non seulement comme une enclave linguistique qui a réussi à se maintenir et à se développer au milieu d’un océan anglo-saxon, mais aussi comme une résistance à la domination linguistique de l’anglais que l’on constate aujourd’hui en France, dont la langue s’anglicise rapidement. L’Histoire de la Nouvelle-France canadienne commence très tôt au début du XVII e siècle lorsqu’une poignée de colons s’installe dans ces contrées peu adaptées à la présence humaine. Or, les quelques colons français (quelques milliers seulement) s’occupent surtout du commerce des fourrures, établissent des relations constructives avec des tribus indiennes voisines, à la différence des Britanniques des 13 colonies, et très vite, une mini-civilisation française se constitue autour du golfe du fleuve Saint-Laurent, des villes de Québec, de Trois-Rivières, et de Montréal. En 1763, après une longue série de guerres, la France cède définitivement sa colonie d’outre-Atlantique à la Grande-Bretagne. Il est curieux de noter que le roi français, lorsqu’on lui offrait le choix d’abandonner soit les Antilles, soit la Nouvelle- France, décide de garder les deux îles sucrières de Guadeloupe et de Martinique qu’il considère comme plus importantes sur le plan économique que « quelques arpents de neige » au Canada français. Ces Français oubliés du Québec comptent alors seulement 60 000 âmes, devenus deux cent cinquante ans plus tard plus de 8 millions. Aujourd’hui, cette province est le véritable moteur économique du Canada et sa partie la plus développée marquée par une forte capacité d’innovation, de flexibilité et de productivité. Comment ceci a-t-il été possible ? Il convient ici de revenir sur un paradoxe : les Québécois ont préservé une forte identité nationale alors même que leurs frères français ont tout fait pour l’effacer – et en même temps cette société a réussi à s’insérer dans l’écosystème productif de l’Amérique du Nord. Le Québec constitue un prolongement vers le nord du cluster productif et financier de la côte est des États-Unis. En même temps, le Québec représente une porte d’entrée pour les capitaux européens en raison de ses liens avec le Vieux Continent. Les Québécois francophones ont préservé pendant des siècles une très forte natalité grâce au modèle rural qui prédominait au Canada français, mais ils ont aussi préservé la langue de leurs ailleux en résistant farouchement à tout emprunt linguistique à leur voisin. Nous pensons que cette lutte identitaire est à l’origine du phénomène que l’on observe aujourd’hui au Québec et qui consiste en ce que le développement économique et l’innovation ne peuvent avoir lieu que dans une société fière de ses racines, de son histoire, qui résiste à la mondialisation anglo-saxonne et qui n’a pas honte de son identité. Grâce à une politique linguistique très active, les Québécois ont non seulement réussi à maintenir leur présence mais aussi à élargir le champ de la langue française qui progresse même aujourd’hui au Québec, y compris à Montréal, notamment au moyen d’une immigration sélective privilégiant les candidats francophones venus de France, de Belgique, de l’Afrique du Nord et de l’Afrique subsaharienne. Les autorités québécoises pratiquent en effet une immigration volontariste et choisie puisque les candidats sont soumis à un examen linguistique préalable avant de pouvoir émigrer au Canada francophone, ce qui rend plus éligible par exemple un Russe francophone qu’un Algérien qui ne le serait plus. Francophonie avec un grand F : l’Organisation internationale de la francophonie La Francophonie avec un F majuscule désigne l’ensemble des États et des instances officielles supraétatiques « qui ont en commun l’usage du français dans leurs communications et leurs échanges ». La Francophonie est aujourd’hui « dirigée » par l’OIF 3 . Le concept, créé à l’origine au XIX e siècle par le géographe Onésime Reclus, était une idée défendue par quelques grandes personnalités du monde francophone, comme le Cambodgien Norodom Sihanouk, le Tunisien Habib Bourguiba ou, au premier rang d’entre eux, le Sénégalais Léopold Sédar Senghor, membre de l’Académie française... Le 20 mars 1970, c’est en présence du ministre de la Culture français, André Malraux, et de 22 chefs d’État que l’acte de naissance de l’ACCT (Agence de coopération culturelle et technique), devenue aujourd’hui l’Organisation internationale de la francophonie, est signé à Niamey. La liste des signataires est édifiante : 5 États de l’hémisphère Nord, la France, Monaco, le Canada, la Belgique et le Luxembourg ; 2 États de l’Asie pacifique, le Cambodge et le Viêtnam, 1 des Caraïbes, Haïti, et 14 États du continent africain 4 . La place des États pudiquement baptisés « pays en voie de développement » y reste donc très majoritaire, et on imagine sans mal, dès cette époque, qu’au-delà des objectifs strictement linguistiques et culturels, les préoccupations géoéconomique sont présentes dans de nombreux cas. Depuis 1945, l’Afrique subsaharienne partage le triste privilège de vivre en direct la majorité des conflits ouverts. Et les États francophones sont loin d’être absents du palmarès, de la guerre entre le Mali et le Burkina Faso aux dramatiques événements du Rwanda, des crises intestines égrenant l’histoire contemporaine de l’ex-Zaïre ou du Congo-Brazzaville au conflit de Casamance ou à celui du Sahara occidental entre le Maroc et la Mauritanie, sans oublier la montée en puissance de l’islamisme et du djihadisme dans toute la bande sahélo-saharienne et alentour. Quant à l’océan Indien, exempt de nombreux conflits « frontaliers » par essence, leur intérêt stratégique n’en est pas moins exceptionnel ! Et ce n’est pas par hasard que, sous couvert de la francophonie, Paris affirme sa présence, via sa souveraineté sur les « Îles Éparses 5 » ou son département de Mayotte, face aux Comores. Cette évocation nous autorise sans doute à souligner, in fine, le rôle majeur et parfois complémentaire, joué par les disparités de valeurs, politiques religieuses et « historiques ». Pour ce qui est des valeurs démocratiques, au-delà de l’exemple de la Guinée équatoriale, la palette des régimes politiques est particulièrement variée au sein des États membres de l’OIF, des grandes démocraties libérales occidentales aux régimes « autoritaires » en passant par les « semi-présidentiels », ou, pour reprendre l’heureuse formule de l’écrivain argentin Ernesto Sábato, les « démocratures ». Concernant le facteur religieux, rappelons qu’officiellement, seuls quelques États comme la France ont intégré le concept de laïcité dans leur Constitution. Face au fait religieux, la diversité des membres de l’OIF est patente : si la quasi-totalité de ses adhérents localisés dans l’hémisphère Nord baignent dans la sphère judéo-chrétienne et ses héritages plus ou moins laïques et désenchantés, les contrées du Sud en général et du continent africain en particulier sont marquées par une expansion structurelle et spatiale de l’Islam, voire de l’islamisme antioccidental, antifrançais et de plus en plus hostile à la francophonie. Son expansion tend à délégitimer et même à combattre les religions jadis importées par les puissances coloniales européennes chrétiennes. Une référence concrète, en ce domaine, peut être évoquée : l’appartenance de certains membres de l’OIF à une autre institution internationale, l’Organisation de la conférence islamique (OCI). Sur les 29 États africains membres de l’OIF, 18 ont aussi adhéré à l’OCI, dont 7 membres fondateurs de la Francophonie. Créée dès 1970, à Djeddah, la Conférence islamique, évoquée au chapitre VII, est devenue une institution incontournable à l’échelle de l’ensemble du monde musulman. Certains de ses objectifs clairement affichés ne peuvent que contribuer à renforcer les divergences d’intérêts au sein l’OIF entre membres et non-membres, par exemple l’article qui invite à « consolider la solidarité islamique ; à conforter la lutte de tous les peuples musulmans pour la sauvegarde de leur dignité, de leur indépendance et de leurs droits nationaux »... A fortiori quand on lit dans la Charte le souci de rendre compatibles « les lois civiles avec celles supérieures de la charia », puis de « coordonner les actions destinées à sauvegarder les Lieux saints, soutenir la lutte du peuple palestinien et aider à récupérer ses territoires », l’objectif est difficilement compatible avec celui de l’OIF qui s’interdit toute ingérence dans la géopolitique interne des États. La troisième vague d’adhésions, qui fait passer aujourd’hui l’OIF à 84 membres (54 de plein droit, 4 associés et 26 observateurs), est plus édifiante encore. Elle correspond à la conjonction de 3 facteurs complémentaires : la disparition du système bipolaire, le processus de mondialisation et les mutations internes des missions assignées à l’OIF 6 . Un flux qui, même si certains de ces nouveaux adhérents n’adoptent que le simple statut d’observateur, souligne le souci des anciens membres du bloc de l’Est, après la disparition de l’Union soviétique, d’intégrer des structures supraétatiques susceptibles de leur éviter l’isolement géopolitique synonyme de marginalisation et qui explique aussi l’arrivée au sein de l’OIF d’États où le français n’est ni langue officielle, ni langue nationale, et même tout juste « langue d’étude » pour une minorité ! Quant au processus de mondialisation, il achève de faire de l’OIF une organisation fermement ancrée sur les 5 continents, avec l’adhésion du Cap-Vert (1992), de la Suisse (1996), de São Tomé e Príncipe (1999), d’Andorre (2004), de l’Autriche (2004), de la Grèce (2004), de Chypre (2006), du Ghana (2006), du Mozambique (2006), de la Thaïlande (2006), de la République dominicaine (2010), des Émirats arabes unis (2010), du Monténégro (2010), du Qatar (2012), de l’Uruguay (2012), de la Corée du Sud (2015), du Mexique (2015) ou de l’Argentine (2016). Les missions de l’OIF, progressivement modifiées, se sont notamment concrétisées par les déclarations historiques de Bamako, de Saint-Boniface et de Ouagadougou. Les deux premières soulignent la volonté de l’OIF de « contribuer à la prévention des conflits et dans l’espace francophone, de favoriser la consolidation de l’État de droit et de la démocratie et d’agir pour la promotion et l’effectivité des droits de l’homme ». Programme qui épouse indéniablement les grands principes et les grands axes de la politique étrangère conduite par la France au cours des dernières décennies. Quant à la déclaration de Ouagadougou, elle met en avant dans le domaine économique et social les thèmes majeurs de la coopération et du développement durable et solidaire. Notons déjà, une incompatibilité (au moins apparente) entre ce double affichage et le fait que l’OIF a aussi adopté sans réserve le principe de non-ingérence dans les affaires intérieures des États concernés ! Au-delà de ces considérations générales, deux processus majeurs et complémentaires demeurent : l’approfondissement des structures, des missions, des objectifs, d’une part ; l’élargissement géographique, avec la multiplication spectaculaire des adhésions, d’autre part. Parmi les exemples les plus édifiants, on peut citer celui de la Guinée équatoriale. Au lendemain de son accession à l’indépendance, ce pays ne reconnaissait qu’une seule langue officielle, l’espagnol (en dépit du fait que la grande majorité de ses habitants ne parlait que fang). Par sa situation géographique, la partie continentale du pays étant frontalière de deux États francophones, le Gabon et le Cameroun, le régime de Malabo a décidé d’adopter, en 1998, une loi constitutionnelle établissant que « les langues officielles de la République de Guinée équatoriale sont l’espagnol et le français ». Dans ce contexte volontariste, le français est devenu la langue obligatoire dans les établissements du second degré (des établissements, il est vrai, fréquentés par moins de 10 % de la population). En juillet 2007, le président Obiang Nguema faisait adopter le portugais comme troisième langue officielle du pays, et adhérait dans la foulée à la Communauté des pays de langue portugaise (la CPLP, « lusophonie ») sans cacher que l’officialisation des langues française et lusitanienne était destinée à favoriser la candidature de Malabo aux aides économiques offertes par la France, la CPLP et la Francophonie ! À l’échelle de l’Europe, les nouveaux venus dans le club francophone de l’OIF confortent sans équivoque l’actualité et la pérennité des contentieux potentiels de la péninsule balkanique. La Croatie catholique (proallemande et germanophile), la Serbie orthodoxe (traditionnellement francophile), l’Albanie musulmane (très italophile et italophone), par exemple, sont désormais toutes les trois membres de l’OIF. Cela suffira-t-il à éradiquer définitivement les problèmes interétatiques, voire intraétatiques qui surgissent régulièrement au sein des territoires de l’ex-Yougoslavie ? On peut bien sûr en douter. Au-delà des Balkans, la présence de la Moldavie, de l’Ukraine, de l’Arménie ou de la Géorgie dans cette instance francophone rappelle aussi directement l’acuité des questions géopolitiques qui ont agité et qui agitent encore les marches orientales de l’Europe, l’ensemble caucasien et la vitalité de ses « conflits gelés ». Dans l’Asie du Sud-Est, la présence du Laos, du Viêtnam ou du Cambodge contribue à s’interroger sur la fragilité des équilibres régionaux et sur le rôle effectif que pourrait jouer l’OIF dans la promotion des valeurs démocratiques. Au plan des relations bilatérales, les exemples foisonnent aussi en matière d’ambiguïté et vraisemblablement de leurres et de faux-semblants. Par exemple, la « cohabitation », au sein de l’OIF, de la Hongrie, de la Roumanie, de la Bulgarie et de la Moldavie, masque les contestations récurrentes liées (et pas seulement dans la mémoire collective) aux modifications historiques des frontières, et particulièrement celles qui sont directement héritées des traités mettant fin à la Première Guerre mondiale et régulièrement réactualisés par l’épineuse question des minorités. Témoin, l’œuvre concrète d’un francophone, Emmanuel de Martonne, le « Père » de la Grande Roumanie, dont la personne est quasiment adulée à Bucarest et franchement détestée du côté de Budapest ou de Sofia, et pour cause : une partie de l’ancienne Hongrie, toujours peuplée de Magyars, appartient à la Roumanie. 1. Claude Hagège, Contre la pensée unique, Paris, Odile Jacob, 256 p. 2. Tristan Gaudiaut, « Les langues les plus parlées dans le monde », Statista, 29 septembre 2020. 3. Organisation internationale de la francophonie. 4. Bénin, Burundi, Côte d’Ivoire, Gabon, Burkina Faso, Madagascar, Mali, Maurice, Niger, Rwanda, Sénégal, Tchad, Togo, Tunisie. Une seconde vague d’adhésions deux décennies après, plus hétérogène : Laos (1972), Liban (1973), Comores (1975), Seychelles (1976), Djibouti (1977), Vanuatu (1979), Dominique (1977), Sainte-Lucie (1979), Mauritanie (1981), Maroc (1981), Égypte (1983), Centrafrique (1973), Cameroun (1975), Congo RDC (1977), Guinée-Bissau (1979), Congo-Brazzaville (1981), Guinée (1981). 5. Petites îles françaises situées autour de Madagascar. 6. Vont adhérer successivement à l’Organisation des pays comme la Roumanie (1991), la Bulgarie (1991), la Pologne (1996), la République tchèque (1997), la Moldavie (1998), la Lituanie (1999), l’Albanie (1999), la Slovénie (1999), la Slovaquie (2002), la Macédoine (2002), la Serbie (2003), la Hongrie (2004), la Croatie (2006), la Géorgie (2006), l’Ukraine (2006), I’Arménie (2008) ou la Lettonie (2008). PARTIE II VARIABLES CONTEMPORAINES CHAPITRE VII Islamisme et terrorisme mondialisés « Il faut savoir ce que l’on veut. Quand on le sait, il faut avoir le courage de le dire. Quand on le dit, il faut avoir le courage de le faire. » Georges Clemenceau De quoi parle-t-on au juste ? Loin de supprimer les conflits identitaires, la mondialisation est un formidable moteur des chocs civilisationnels, dont l’islamisme radical est l’exemple le plus flagrant. Le projet panislamiste étant par définition hostile aux frontières et aux nations, il constitue de ce point de vue une des faces noires de la mondialisation. En 2014, lorsque des combattants de l’État islamique effaçaient à coups de pelleteuses la frontière syro-irakienne considérée comme un héritage impie des accords Sykes-Picot, cela participait en fait du même projet antifrontiériste que celui annoncé par Thomas Friedman, auteur de La Terre est plate. Cet apparent paradoxe a été décrypté par Benjamin Barber dans son ouvrage précité, Djihad versus McWorld. Pour mieux comprendre la place de l’islamisme et du terrorisme djihadiste dans le processus de mondialisation et donc de destruction de la diversité culturelle de la planète, il faut d’abord définir ce phénomène d’un point de vue géopolitique. La perspective communautarienne 1 des relations internationales, théorisée par Barry Hughes 2 , qui reconnaît aux groupes identitaires ethnoreligieux radicaux un rôle d’acteurs de la politique internationale, permet d’appréhender l’islamisme comme un phénomène géopolitique à part entière, dont le terrorisme n’est qu’une composante minoritaire. Du point de vue des études de sécurité et de la polémologie, l’islamisme doit être analysé comme un projet politico-religieux qui vise à imposer la charia dans sa conception totalitaire à tous les musulmans, puis à rétablir un califat destiné à dominer, de gré ou de force, l’humanité tout entière (voir califat, cartes n o 8 et 9). Ce continuum idéologico-religieux, qui crée des passerelles entre islamisme politique institutionnel et islamisme djihadiste, ne peut pas être ignoré par ceux qui font face à cette menace à la fois polymorphe et asymétrique, qu’ils soient musulmans, les premiers concernés et frappés par les islamistes qui poursuivent avant tout les « apostats » (murtaddin), ou qu’ils soient non musulmans, donc des infidèles (koufars). D’après l’approche communautarienne de Barry Hughes, les communautés qui se perçoivent comme supérieures (race, ethnie, religion ou culture/langue) ont tendance à s’isoler par l’établissement de frontières étanches, formelles ou virtuelles, et peuvent devenir des acteurs influents de la politique internationale dès lors que leur groupe en rupture avec l’ordre ambiant veut imposer sa domination aux autres entités via un prosélytisme suprémaciste ou irrédentiste 3 . Adepte de cette démarche analytique qui analyse le fait civilisationnel, Mohammad- Reza Djalili 4 a très bien mis en lumière la conception géopolitique originelle islamique, à laquelle se réfèrent toutes les mouvances islamistes, en rappelant que l’islam politique (et pas seulement le terrorisme islamiste) divise principalement l’humanité en deux mondes antinomiques : le dar al-islam, ou « demeure de l’Islam », entité fondée sur le triple monisme : une communauté, une foi, une loi, et le dar al-harb (monde du non-Islam ou demeure de la guerre, à combattre ou à soumettre). Les musulmans sont ici censés former une communauté unique, séparée et supérieure 5 . Dans cette vision, la religion est le seul fondement de la citoyenneté et de la communauté, l’oumma, appelées à terme à être réunies dans un califat (carte n o 8). Ce projet néocalifal, commun aux mouvances islamistes institutionnalisées (Frères musulmans, Jamaa al-islam, Millî Görüş, etc.) ou terroristes (salafistes djihadistes), relancé par les adeptes du salafisme ou salafiyya, est non seulement vu comme une institution supranationale appelée à dominer toute l’humanité (Tamkine planétaire), mais constitue la seule « nation » ayant réellement le droit d’exister sur terre. Le droit islamique classique ne reconnaît d’ailleurs d’autre nation que l’islamique. Cette théorie néo-impériale de l’État universel islamique s’oppose par principe à la coexistence d’une pluralité d’États égaux et souverains, et c’est pour cette raison notamment que l’islamisme radical n’est pas qu’une menace terroriste (partie émergée de l’iceberg totalitaire) mais avant tout un défi géopolitique et stratégique pour tous les États-nations attachés à leur souveraineté et à leur pérennité, qui voient dans l’islamisme un projet subversif à la fois séparatiste (en interne) et suprémaciste conquérant (au niveau externe). « Tant que l’humanité dans sa totalité n’est pas soumise à cet État islamique idéal – le “dar al-islam” –, il reste une partie du monde qui échappe à la loi divine, le “dar al- harb”, explique Djalili. Pour conquérir ces territoires, le recours à la force (guerre) est en principe licite jusqu’à la victoire finale de l’Islam sur les non-croyants. » Fortement influencé par le prédicateur islamiste pakistanais Abou Ala al-Mawdoudi, penseur majeur des Frères musulmans – après al-Banna et Sayyid Qutb, inspirateur du djihadisme, confirme cette idée « orthodoxe » théocratique que « l’Islam ne connaît que deux types de sociétés : musulmane ou jahilite. La société musulmane est celle où est appliqué l’Islam, [...]. La société jahilite est celle où l’Islam ne s’applique pas 6 ». Par extension, la jahiliyya désigne tout ce qui, dans le monde moderne, s’éloigne de l’Islam, que ce soient les vestiges de la société païenne pharaonique ou les sociétés non musulmanes du présent. Dans la rhétorique musulmane traditionnelle, l’Europe, l’Inde ou les pays musulmans dirigés par des régimes peu ou prou laïcisant (Irak, Syrie, Tunisie, Turquie) sont par conséquent des sociétés jahilites 7 . Les pôles majeurs du totalitarisme vert : de l’islamisme institutionnel au djihadisme Cette pensée totalitaire, commune à l’islamisme indo-pakistanais, au salafisme révolutionnaire et djihadiste et aux Frères musulmans, dont les États protecteurs actuels sont le Qatar et la Turquie d’Erdoğan, inspire l’ensemble de l’islamisme radical. La seule différence est que les djihadistes veulent réaliser l’objectif ultime du califat universel par la guerre hic et nunc, dans le cadre de la « stratégie de la sidération » violente, alors que les adeptes de l’islamisme institutionnel (Frères musulmans ; islamistes turcs de l’AKP/Milli Görüs) veulent y parvenir par des moyens démocratiques ou subversifs, en prenant le contrôle d’États musulmans purifiés de leurs forces laïques stato- nationalistes, perçues comme des cinquièmes colonnes du monde « mécréant ». En dépit des différences et antagonismes opposant, d’une part, l’islamisme institutionnel, adepte de la stratégie de l’entrisme, et, de l’autre, l’islamisme djihadiste, adepte de la stratégie de l’intimidation par la violence, les sources théologiques salafo- fréristes demeurent communes et les deux acteurs islamistes dissemblables concourent tous deux aux mêmes objectifs de démantèlement du pouvoir infidèle dénoncé par Hassan al-Banna, Sayyid Qutb ou Abou Ala al- Mawdoudi et d’édification d’un empire califal, décrit par Bruno Étienne comme le marqueur même de la catégorie d’islamisme radical. Cette idéologie fondée sur le règne de la charia et du califat planétaire, appelée à soumettre, de gré ou de force, l’humanité (voir carte n o 8), est portée depuis des décennies par des grands pôles étatiques 8 : le wahhabisme salafiste officiel d’Arabie saoudite, avec son bras prosélyte mondial, la Ligue islamique mondiale ; le pôle indo-pakistanais, cofondateur du Jamaat al-islamiyya ; des talibans d’al-Qaida ; le Qatar, parrain du Hamas et des Frères musulmans, à la tête du média planétaire Al Jazeera ; le pôle néo-ottoman réhabilité par la Turquie postkémaliste de Recep Tayyip Erdoğan ; la révolution islamique iranienne chiite, influencée dans ses origines par les Frères musulmans bien qu’étant chiite ; sans oublier les puissantes institutions et organisations internationales panislamiques comme l’Organisation de la coopération islamique (voir infra), qui réunit cinquante-sept pays musulmans désireux d’instaurer un ordre international alternatif fondé sur la charia, l’Organisation du monde islamique pour l’éducation, les sciences et la culture (Isesco, sorte d’« Unesco » islamique, influencée par les Frères musulmans) ; et enfin, les grandes centrales terroristes comme al-Qaida ou Daesh, et les groupes franchisés associés comme Aqmi, Boko Haram, shebab somaliens, etc. (voir infra). Ces pôles sont tous plus ou moins reliés par des passerelles officieuses ou officielles, ponctuelles ou durables, le Qatar, la Turquie et l’Iran appuyant officiellement le Djihad islamique et le Hamas palestiniens, et le Pakistan, le Qatar, le Koweït, le Soudan, l’Arabie saoudite et la Turquie soutenant ou ayant même parfois cocréé des centrales terroristes comme al-Qaida ou Daesh. De ce fait, la différence entre, d’une part, l’islamisme institutionnel, qui a pignon sur rue en pays musulman et non musulman, et, de l’autre, l’islamisme djihadiste, est plus une différence de degrés que de nature, et c’est bien là le vrai fond, idéologico-politique et théologique, du problème. Les organisations terroristes ne constituent que la face émergée de l’iceberg islamiste totalitaire qui a déclaré la guerre à ses ennemis « mécréants » et « apostats ». En réalité, la menace islamiste est également incarnée par des pays et mouvances parfois réputés « amis » de l’Occident, certains étant dotés d’armées régulières, parfois nucléaires (Pakistan, bientôt la Turquie et l’Arabie saoudite), ou fournies par l’Alliance atlantique (Turquie). Elle est alimentée financièrement, diplomatiquement et idéologiquement par les monarchies gazo-pétrolières sunnites du Golfe et relayée – sous couvert de droit à la liberté religieuse – jusqu’au sein de nos sociétés ouvertes ou des Nations unies, par des organisations et associations appuyées au niveau institutionnel par ces mêmes États et pôles précités (Isesco, OCI, Ligue islamique mondiale, etc.). Paradoxalement, l’Occident entend donc lutter contre le djihadisme sur son sol sans jamais neutraliser ces pôles subversifs parfois « alliés », qui poursuivent pourtant les mêmes objectifs d’islamisation planétaire que ces terroristes, certes de façon plus « pacifique ». L’erreur occidentale et atlantiste des alliances contracivilisationnelles Les alliances paradoxales, que nous avons nommées « contra- ou anticivilisationnelles » scellées par les États occidentaux membres de l’Otan avec les pôles de l’islamisme, remontent, on le sait, à la fin de la Seconde Guerre mondiale (pacte du Quincy scellé entre les États-Unis et l’Arabie saoudite en 1945). Elles ont été à la fois fondées sur des impératifs énergétiques, financiers, puis politico-stratégiques, notamment sous la guerre froide, lorsque les États-Unis ont appuyé les moudjahidines en Afghanistan pour endiguer l’Union soviétique (muslim belt). La généalogie du djihadisme remonte en fait, sur le plan doctrinal, à un courant de l’islam sunnite promu par l’Arabie saoudite et le Qatar, et inspirateur théologique d’al-Qaida et de Daesh, le hanbalisme, ancêtre du wahhabisme. On appelle aussi ce courant « salafisme », en référence aux « pieux ancêtres » (as-Salaf), les premiers musulmans compagnons de Mahomet qu’il conviendrait selon eux d’imiter en tout, y compris dans le culte du djihad conquérant 9 . Au même titre que le djihad guerrier offensif, le dogme salafiste (aqida), qui invite tout musulman à désavouer les mécréants et à faire corps avec les musulmans (al-wala wa’l-bara ou « l’alliance et le désaveu »), est directement issu du wahhabisme saoudien. Cette idée foncièrement communautarienne, pour paraphraser Hughes, ou séparatiste, selon les termes du président Emmanuel Macron, consistant à désavouer les infidèles, a été théorisée au XIX e siècle par le petit-fils de Muhammad ibn ‘Abd al-Wahhāb ash-Sheikh (1786-1818) et elle est officiellement enseignée en Arabie saoudite et dans des milliers de mosquées et centres islamiques pilotés par ce grand allié des États-Unis dans le monde entier. À titre d’exemple, le fameux terroriste français Farid Benyettou, émir du réseau djihadiste dit « des Buttes-Chaumont », à Paris, qui a formé un nombre incroyable de futurs terroristes, élaborait ses « cours de religion » à partir des ouvrages de salafistes très respectables comme Muhammad ibn ‘Abd al-Wahhāb, notamment Ousoul ath-Thalata, puis de Saoudiens contemporains en bons termes avec les autorités de Riyad, comme Muhammad ibn Salih al-‘Uthaymin (mort en 2001), auteur notamment d’un manuel de droit islamique, Al- Ousoul min ‘ilm al-Oussoul 10 . À ses débuts, le phénomène s’est essentiellement exprimé à l’échelle locale, malgré sa prétention néocalifale déjà perceptible dans les écrits fondateurs des grands idéologues de l’islamisme radical au XIX e siècle. Force est de constater que c’est le processus de mondialisation anglo-saxonne qui a permis à al-Qaida de devenir la première organisation internationale islamiste et djihadiste dans les années 1980-1990, au sortir de la guerre froide. Depuis, le djihadisme, profitant de la mondialisation technologique comme des flux migratoires et du multiculturalisme, est devenu le quotidien de nombreuses sociétés musulmanes ou non musulmanes partout dans le monde. État des lieux et stratégies du djihadisme D’après une étude de la Fondation pour l’innovation politique (Fondapol) qui a recensé les attentats djihadistes dans le monde sur les quarante dernières années, le terrorisme islamiste aurait tué 167 000 personnes entre 1979 et 2019 pour 36 000 actes terroristes perpétrés aux quatre coins du globe. À ce chiffre, il convient d’ajouter au moins 3 000 morts en 2020, ce qui nous amène à un total de 170 000 morts début 2021. Si la France est le pays européen le plus touché, avec 320 morts causés par près de 74 attentats islamistes (soit 100 morts de plus que l’Espagne et trois fois plus que le Royaume-Uni – 101 morts), l’attentat du World Trade Center du 11 septembre 2001 (2 977 victimes) demeure l’acte le plus meurtrier à ce jour. Toutefois, il faut toujours garder à l’esprit que les pays qui paient le tribut le plus lourd sont, et de loin, les pays musulmans eux-mêmes, les zones les plus touchées étant l’Asie centrale (Afghanistan : 36 725 morts), l’Afrique subsaharienne (Nigeria : 19 000 morts), les États de la mer d’Arabie (Somalie, Soudan, Yémen), le Proche- et le Moyen-Orient (Syrie, Irak). Depuis 2012, l’Europe, plus particulièrement la France et la Belgique, a été la cible d’attentats ou de projets d’attaques perpétrés par des commandos revenant de Syrie ou d’Irak, ou bien par des islamistes ne s’étant pas rendus sur zone mais déterminés à agir localement. Dans la seule période 2017-2019, les pays de l’Union européenne ont subi 115 incidents à caractère terroriste islamiste, 22 attentats, 13 tentatives d’attentats et 78 projets d’attaques, pour un total de 85 morts et 400 blessés 11 . Près de 5 500 citoyens européens sont partis faire le djihad en Syrie-Irak depuis 2014 et 7 000 d’Afrique du Nord 12 . D’après le coordinateur de l’Union contre le terrorisme, Gilles de Kerchove, 1 500 djihadistes sont déjà rentrés en Europe depuis 2014, et le nombre d’islamistes radicaux capables de passer à l’acte est évalué à 50 000 au moins pour l’ensemble de l’UE 13 , donc sans compter des foyers suisses, bosniaques ou kosovars et albanais. Il estime le nombre d’islamistes prodjihadistes ou terroristes à 5 000 en Espagne, 25 000 au Royaume-Uni, et 17 000 en France. Dans l’Hexagone, 450 détenus islamisés (radicalisés) ont déjà été libérés entre 2012 et 2020, la majorité ayant été fanatisée en prison, preuve que les stratégies de déradicalisation et de réinsertion promues par l’Union et ses pays membres sont un fiasco, d’autant que dans plusieurs cas, des terroristes passés à l’acte étaient eux-mêmes suivis par les services... La France est le pays pour lequel le défi est et sera le plus important à l’avenir : environ 21 000 personnes ont été identifiées comme étant à des stades divers de radicalisation 14 . Le problème se pose donc, d’une part, avec les terroristes encore présents en Syrie dans les camps de détention kurdes, qui pourraient s’échapper ou être libérés, à la suite du désengagement américain et de l’abandon des forces kurdes, puis, d’autre part, en Europe et en France avec « les frustrés du djihad », ceux qui n’ont pas pu partir, puis tous ceux qui vont être ou ont été libérés de prison après être revenus de la zone Syrie-Irak- Yémen ou après avoir été arrêtés dans le cadre d’opérations terroristes commises ou planifiées en France. Les Français partis faire le djihad, le plus gros contingent d’Européens, et qui sont de retour, représentent ainsi un danger et un défi majeurs pour les autorités, en raison de leur expérience du terrain, de leur formation aux techniques de guérilla urbaine et de leur capacité à transmettre leur savoir aux radicalisés français, notamment en prison. De plus, la situation instable dans le nord de la Syrie, avec le retrait des troupes américaines, a inspiré le gouvernement français qui a décidé de rapatrier près de 130 hommes et femmes 15 détenus par les Kurdes et qui ont combattu ou sont en lien avec l’État islamique, soit une faible proportion sur les 300 personnes entre 2012 et 2017 qui sont revenues de Syrie, dont 240 hommes djihadistes 16 . Preuve de la forte possibilité de récidive de ces détenus libérés et très difficiles à surveiller indéfiniment, faute de moyens, une étude du Centre d’analyse du terrorisme (CAT) de juillet 2018 rappelle qu’environ 60 % des Français partis faire le djihad entre 1986 et 2011, en Afghanistan, en Bosnie ou en Irak, ont récidivé à leur retour : 6 revenants sur 10 ont en effet été condamnés en France ou à l’étranger postérieurement à leur retour pour des infractions terroristes. Ces chiffres ne comprennent pas les nombreux Français partis rejoindre Daesh entre 2014 et 2019, faute d’étude globale sur leur cas, fait ainsi valoir le CAT, et de recul historique, la majorité des 600 personnes jugées depuis 2014 étant encore en détention. Une menace asymétrique à la fois exogène et endogène Les principaux facteurs qui ont engendré le terrorisme international dans un contexte de mondialisation toujours plus intense ne montrent aucun signe de ralentissement pour les quinze prochaines années. Facilitée par les communications mondiales et les nouvelles technologies de l’information, la renaissance globale de l’identité islamique et le succès de l’islam politique, mouvement de fond observé dans tous les pays musulmans et même au sein des minorités musulmanes d’Occident, d’Inde, ou d’Asie du Sud-Est, va continuer d’offrir un cadre propice pour la diffusion de l’islamisme radical à l’intérieur et à l’extérieur du Moyen-Orient. Ce renouveau panislamiste s’est manifesté de façon particulièrement conflictuelle dans les contrées aux prises avec des luttes séparatistes nationales ou régionales (Palestine, Tchétchénie, Irak, Cachemire, Mindanao, sud de la Thaïlande, Xinjiang, Syrie, Libye, Nigeria, Afghanistan, Sahel, Corne africaine, etc.). Et dans un avenir proche, des grandes centrales djihadistes comme al-Qaida ou Daesh vont absorber encore plus qu’auparavant des guérillas islamistes et des mouvements séparatistes locaux. Parallèlement aux réseaux informels et traditionnels de fondations caritatives, madrassas, hawalas, et autres mécanismes de solidarité panislamique, exploités au maximum par les organisations islamistes pour contrer les forces antiterroristes et judiciaires des États, les technologies de l’information digitale permettront à la menace terroriste de devenir de plus en plus décentralisée, évoluant de ce fait vers un éventail éclectique de groupes, cellules et individus qui n’ont plus besoin d’un quartier général fixe pour planifier et exécuter des opérations, même si les actes perpétrés individuellement par des terroristes de troisième génération (voir infra) ou pseudo-loups solitaires sont en fait inspirés par les grandes centrales qui conçoivent kits, modes d’emploi, programmes ou simples appels destinés à mobiliser plus de personnes encore. Les conseils de ciblage, le savoir-faire en matière d’armes, la collecte de fonds et les formations deviendront de plus en plus virtuels, surtout avec l’avènement de la 5G et des imprimantes 3D (voir chapitre IX). Les attaques terroristes continueront, certes, d’utiliser principalement des armes conventionnelles, voire rudimentaires (djihad low cost : couteaux, voitures béliers et fusillades), qui s’adaptent constamment à la lutte contre le terrorisme. Toutefois, l’intérêt des djihadistes pour les armes chimiques, biologiques, radiologiques et nucléaires, certes compliquées à manier et à acquérir, est croissant. Le risque d’attaques terroristes majeures impliquant des ADM (armes de destruction massive) augmente donc. Les terroristes pourraient en effet acquérir des agents biologiques ou, moins vraisemblablement, un engin nucléaire portable (valise nucléaire), qui pourrait causer des pertes massives. Le bioterrorisme semble particulièrement adapté aux groupes plus petits et mieux informés. Les terroristes vont également intensifier les cyberattaques pour perturber les réseaux d’information critiques et, plus probablement encore, causer des dommages physiques aux systèmes d’information, puis pénétrer et frapper les services régaliens et même de renseignements. L’exemple français le plus évident étant l’agent de renseignement informaticien Mickaël Harpon, qui attaqua et tua quatre de ses collègues à la direction du renseignement de la préfecture de police de Paris (DR-PP) le 3 octobre 2019. Djihadisme low cost ubérisé Aujourd’hui, grâce aux technologies de la mondialisation marchande et digitale, n’importe qui peut se radicaliser seul chez lui, mais non sans aide extérieure, ce qui signifie que le « loup solitaire » existe de façon opérationnelle parfois, mais son inspiration vient de documents, vidéos, messages, fréquentations, lieux de prière, ouvrages conçus par des professionnels du terrorisme transnational et les cerveaux islamistes apatrides qui les mobilisent et qui cautionnent religieusement et moralement leurs actes de manière déterritorialisée. Il existe ainsi mille outils destinés à appuyer la diffusion de l’idéologie djihadiste, de modes d’emploi, de magazines (Dabiq, Dar al-Islam, etc.), de manuels, d’appels ou de protocoles... On peut citer par exemple le manuel Management de la sauvagerie d’Abou Bakr Naji, ou les textes d’Abou Moussab al-Souri, Syrien naturalisé espagnol, qui a écrit l’Appel à la résistance islamique mondiale (2003), deux théoriciens liés à al-Qaida et repris par Daesh qui ont mobilisé des centaines de djihadistes européens et internationaux soi-disant loups solitaires, mais en réalité recrutés psychologiquement et idéologiquement par ces inspirateurs suivant le modèle du djihadisme ubérisé. En outre, des documents techniques circulent dans ces milieux et sur le Darknet (voir chapitre IX), pour transmettre la fabrication de bombes artisanales, les méthodes pour se fondre dans la population, les techniques de ruses de guerre et taqiya 17 , bref, un ensemble de modus operandi et stratagèmes prêts à l’emploi à destination des candidats au terrorisme. Les stratèges du djihadisme s’appuient par ailleurs sur les textes sacrés. De cette manière, ils sont parvenus à légitimer et à décomplexer ceux qui commettent des crimes au nom d’Allah. Si un homme allait poser une bombe dans une synagogue après avoir lu Mein Kampf, en se réclamant des idées d’Adolf Hitler, dirait-on de lui qu’il se serait autoradicalisé et qu’il n’aurait rien à voir avec l’extrême droite ? En fait, les organisations islamistes internationales qui diffusent l’idéologie totalitaire et violente de la charia ont une influence mondiale et un réel enracinement théologique. Si l’on veut l’appréhender correctement et lutter efficacement contre les dangers qu’il pose, on ne peut pas réduire le terrorisme islamiste à ses petits soldats, mais il faut s’attaquer à son continuum idéologique évoqué plus haut. Et ce point de contact idéologique ou continuum est crucial dans la lutte antiterroriste, car si les radicalisés pouvant passer à l’acte violent sont estimés en France entre 12 000 et 20 000 (partisans de l’État islamique ou d’al-Qaida), les islamistes plus habituels, adeptes du suprémacisme de la charia et du califat, mais qui évoluent dans un cadre plus institutionnel tout en adhérant aux mêmes fondamentaux, sont quant à eux évalués à au moins 500 000 en France et entre un million et 1,5 million dans l’Union européenne, véritable vivier idéologique pour les recruteurs djihadistes. À cet effet, l’étude de l’Institut Montaigne, menée par Hakim El Karoui, citée précédemment, a démontré que 46 % des musulmans français sont de bons républicains, mais que 25 % sont favorables au voile islamique et à l’essentiel de la charia, et que 28 % d’entre eux ont connu une jeunesse marginale et sont entrés en sécession islamiste, contre la société française. Nous sommes donc confrontés à un véritable problème géopolitique de fracture civilisationnelle : une part croissante de la population musulmane européenne est appelée à s’inscrire en rupture avec la majorité « mécréante » autochtone en l’absence de politiques d’assimilation volontaristes. Ainsi, nos contrées jadis relativement homogènes et pacifiques seront de plus en plus semblables aux pays fracturés ethnoreligieusement et au bord de la guerre civile, comme la Thaïlande du Sud, les Philippines (îles musulmanes du Sud), le Nigeria (Nord musulman contre Sud chrétien), le Liban (chiites versus chrétiens et sunnites, puis Palestiniens), la Tchétchénie (Russes orthodoxes contre musulmans autochtones), la Macédoine (Albanais versus slavo-orthodoxes), etc. Comprenons bien en effet que cette idéologie s’implante de façon privilégiée là où elle trouve un écho, un terreau favorable, donc en pays hétérogène et ouvert aux flux de populations externes, ce qui explique pourquoi des pays comme la Hongrie ou le Japon ne connaissent aucun problème de non-intégration islamiste communautariste et de djihadisme. Situation actuelle/future de Daesh/al-Qaida La perte de territoire de Daesh et sa capacité de frappe en Occident diminuée ces derniers temps peuvent donner un sentiment de victoire. Mais loin d’avoir perdu aujourd’hui toute son influence et ses territoires, on oublie trop souvent que le premier territoire de Daesh, organisation foncièrement antinationaliste, est autant virtuel que celui du capitalisme ubérisé à la McWorld. Il est donc fondamental pour les États de l’investir dans le cadre d’une contre- propagande. Loin d’être des simples barbares illettrés, nombre de djihadistes sont parfaitement à l’aise avec les nouvelles technologies : ils savent notamment parfaitement crypter leurs communications. D’après le Centre d’analyse du terrorisme, en 2016, 80 % de la propagande (islamiste extrémiste) est diffusée sur les réseaux sociaux comme Facebook et Twitter. Les jeunes européens étant pour la grande majorité ultraconnectés, ils sont le terreau idéal des djihadistes pour la propagation de leur idéologie et le recrutement. On notera la même chose au sujet du rôle des femmes. Si elles n’avaient jadis pas le « droit » de s’impliquer, elles sont aujourd’hui autorisées à participer aux opérations suicide de « martyrs » terroristes. Dans les médias, on insiste trop souvent sur les femmes victimes de manipulation des islamistes (bien que cela arrive aussi), en oubliant qu’elles y jouent en fait un rôle très important en participant activement au recrutement et aux actions, la plupart de celles qui ont rejoint l’État islamique en Syrie l’ayant fait en connaissance de cause. Autre nouveauté, les groupes djihadistes ont vu dans la crise sanitaire de la Covid-19 une opportunité pour lancer de nouvelles offensives contre des gouvernements affaiblis d’Afrique (Sahel, Corne est), du Moyen-Orient et d’Asie du Sud-Est. Jusqu’à présent, ni l’État islamique ni aucune des différentes branches d’al-Qaida n’a affiché une vision stratégique claire concernant la pandémie (bien que l’EI ait diffusé des conseils sanitaires à ses militants sur la manière de gérer la maladie en se basant sur les paroles du prophète Mahomet...). Néanmoins, comme l’a déjà fait valoir Crisis Group, les forces djihadistes ont tendance à « exploiter le chaos » (voir l’ouvrage d’Abou Bakr Naji, Gestion de la barbarie 18 ), en gagnant du terrain et des adeptes là où il existe déjà des conflits, ou lorsque des États faibles sont confrontés à des troubles sociaux. L’EI, par exemple, a tiré parti du chaos post-2011 en Syrie pour arriver à un niveau de pouvoir que l’organisation n’aurait jamais atteint autrement. Il est possible que le chaos social et politique qui va probablement s’exacerber en 2022 (révoltes sociales comme les Gilets jaunes débordés par des groupes islamistes, émeutes et pillages perpétrés par les bandes ethniques des quartiers, etc.) offre des occasions similaires pour les djihadistes à mesure que la crise actuelle se poursuit. Inversement, les groupes qui contrôlent des portions importantes du territoire – comme les shebabs en Somalie – pourraient, tout comme les gouvernements, faire face à une montée de la grogne populaire s’ils ne parviennent pas à enrayer l’épidémie de la Covid-19 19 . Daesh n’est pas mort L’État islamique est aujourd’hui une organisation fort différente de ce qu’elle était lors de son accession au pouvoir en 2014 dans des territoires d’Irak et de Syrie où elle a proclamé un éphémère califat. Ceci fut tout de même la première expérience audacieuse visant à créer un « État » néocalifal et qui a fait sortir du mythe ce projet rêvé depuis des décennies par l’ensemble de la mouvance islamiste totalitaire mondiale. Depuis 2017, ce califat étatique territorialisé a été détruit par la Coalition internationale portée par les États-Unis et les efforts parallèles de la Russie, de l’Iran, des forces Kurdes, et des États syrien et irakien. Cependant, l’État islamique, redevenu une organisation transnationale, demeure encore parmi les deux plus puissantes « centrales » terroristes du monde avec al-Qaida. En Irak et en Syrie, le groupe tente de se reconstruire et il s’appuie sur des tactiques de guérilla et des attaques contre les forces de sécurité irakiennes et le régime d’Assad en Syrie. Pendant ce temps, des cellules dormantes attendent de lancer des attaques, comme celle du 21 janvier à Bagdad qui a fait plus de 30 morts, revendiquée par l’État islamique. Concernant la Syrie, la situation est loin de s’améliorer et toute l’action des Occidentaux, encore obnubilés par leur stratégie d’endiguement de la Russie et de ses alliés stratégiques iranien et syrien, semble concourir à faire le jeu de l’islamisme et du djihadisme : en juin 2019, Washington a fait adopter de nouvelles sanctions à travers la loi César (Caesar Syria Civilian Protection Act), extraterritoriale, qui prévoit d’interdire l’entrée aux États-Unis et de barrer l’accès au système financier américain à toute personne, institution ou entreprise soutenant l’État syrien dans la reconstruction ou les hydrocarbures (y compris la vente). Le but de cette stratégie de « pressions maximales sur le pays » est clairement d’empêcher la reconstruction matérielle de la Syrie, et donc de compromettre le volet économique, social et politique du plan de stabilisation du régime d’Assad conçu par Moscou. La Russie a certes gagné la bataille de l’éradication des rebelles islamistes mais ne pourra pas en empêcher durablement leur retour tant que le pays n’aura pas retrouvé le chemin de la croissance. On pourrait presque parler de « terrorisme économique » tant la pression sur la population, qui en est la première victime, est grande. Il est clair que la pauvreté endémique et croissante dans le pays, comme d’ailleurs au Liban voisin, directement impacté, offre un terreau favorable au retour de Daesh, d’al-Qaida et des rebelles frères musulmans qui attendent leur heure. En témoignent d’ailleurs les attentats commis par l’État islamique dans des zones stratégiques de Syrie : le 30 décembre 2020, 37 soldats syriens ont été tués dans une embuscade 20 dans leur bus militaire ; le 3 février 2021, 20 combattants prorégime ont trouvé la mort dans une nouvelle attaque de l’EI 21 . Et globalement, depuis mars 2019, 1 200 soldats syriens ou alliés ont été tués par les djihadistes de Daesh qui sont donc loin d’avoir disparu 22 . Daesh a cependant subi des revers bien réels, mais outre le fait que ses troupes sont encore nombreuses en zone « Syriak », il s’est aussi étendu dans le monde, adaptant ses stratégies à chaque contrée, jusqu’en Afrique subsaharienne, à l’Ouest, et à l’Asie, au Sud-Est. L’EI conserve aussi un trésor de guerre imposant estimé à 3 milliards d’euros, et son réseau, de plus en plus dur à cibler grâce à une digitalisation et à une décentralisation accrue, sera plus difficile à identifier et à combattre. L’erreur des pays occidentaux serait de préjuger de la défaite ou de la victoire de la mouvance islamiste (politique ou djihadiste) sur la base d’une perte de territoires ou de pouvoir (coup d’État du maréchal Abdel Fattah al-Sissi renversant l’ex-président égyptien frère musulman Mohamed Morsi en novembre 2013). Ce serait oublier que nous sommes confrontés à un phénomène totalitaire prosélyte dont le premier but est de propulser l’idéologie islamiste, de gré ou de force, dans une optique de conquête des esprits qui prime sur celle des territoires, en tout cas dans une phase préparatoire. Il est intéressant de relire les propos prononcés par Abou Mohammed al-Adnani peu avant sa mort en 2016. Le cerveau des attentats et porte-parole de Daesh, selon lequel le « territoire est secondaire » et l’idéologie (charia-califat) première, dit ainsi : « Notre but, notre victoire ou notre échec ne se mesurent pas à la conquête ou à la perte d’une ville. [...] Notre système d’action est essentiellement de répandre la Charia et de suivre le Coran. Tant que notre saint Coran sera lu et se répandra, notre vraie conquête continuera et nous ne serons jamais vaincus 23 . » L’anthropologue franco-américain Scott Atran, spécialiste du djihadisme, en conclut que la victoire de Daesh, en dépit de ses pertes de territoires, consiste à « avoir persuadé des millions de personnes que la charia est la seule façon légitime de gouverner ». Il est en effet indéniable que cette idée a progressé dans le monde, y compris auprès des jeunes musulmans de France. Dans la même veine, on peut aussi relire les propos du précurseur de l’État islamique, ex-membre d’al-Qaida en Irak, tué en 2006, Abou Moussab al-Zarqaoui : « Nous ne combattons pas ici (Irak) pour un morceau de terre, ni pour des frontières imaginaires tracées par Sykes-Picot, de même que nous ne combattons pas pour qu’un taghout (“tyran-apostat”) arabe remplace un taghout occidental. Notre djihad est bien supérieur à tout cela, nous combattons pour que la parole d’Allah soit la plus haute et que la religion soit tout entière à Allah 24 . » La mort d’al-Baghdadi, n’a pas fondamentalement changé la donne : l’organisation s’est immédiatement dotée d’un nouveau chef/calife en la personne du Turkmène irakien, Amir Mohammed Saïd al-Salbi al-Mawla, surnommé Abou Omar al-Turkmani, issu de la ville de Tal Afar, où nombre d’ateliers d’explosifs ont préparé les attentats planifiés par Daesh durant des années. Abou Omar, alias le Turkmène 25 , a d’ailleurs joué un rôle majeur dans le génocide de la minorité kurdophone irakienne yézidie et les trafics d’esclaves sexuels. Le fait que la direction de l’EI ne soit plus arabe mais turkmène, et que le frère même de ce nouveau calife, réfugié en Turquie, soit à la tête de réseaux de rebelles islamistes turkmènes agissant en Syrie, en Irak et en Libye (le « Front turkmène d’Irak », coalition de formations turkmènes fondée en 1995 avec le soutien d’Ankara), montre une évolution non exclusivement arabophone de la direction de l’organisation qui rompt ainsi avec trente ans de direction arabe des groupes djihadistes internationaux du Moyen-Orient. Cette évolution est d’autant plus significative que la Turquie d’Erdoğan, elle-même en voie de radicalisation idéologique panislamiste ou plutôt « néo-ottomane », a soutenu Daesh en Syrie (2014-2016), face à l’ennemi commun kurde, puis le Hamas palestinien à Gaza et al-Qaida en Syrie. Ankara a d’ailleurs parfaitement su instrumentaliser ces groupes combattants islamistes (dont nombre d’anciens d’al-Qaida/al-Nosra) en zone syro-irakienne pour alimenter ses nouveaux fronts ouverts en Libye ou dans le Caucase. On peut citer notamment les divisions Sultan Mourad, Hamza, Muntazir Billah, Suleyman Shah, qui ont fourni des mercenaires pour aller combattre aux côtés des milices islamistes dans l’ouest de la Libye face au nationaliste Khalifa Haftar et avec les forces azéries contre les Arméniens dans le Haut-Karabagh. Parallèlement, le nouveau calife Abou Omar al-Turkmani s’emploie actuellement à transformer les 4 000 djihadistes actifs en Irak et les 3 800 encore présents en Syrie en troupes de guérilleros capables de reprendre des territoires dès que des fenêtres d’opportunités s’ouvriront. Daesh conserve un trésor de guerre et de dizaines de milliers de combattants djihadistes D’après le ministère de la Défense américain, Daesh conserverait entre 15 500 et 25 000 membres, en Irak, principalement, sans compter les franchisés d’Afrique subsaharienne et d’Asie. En juin 2018, l’organisation contrôlait toujours environ 2 % du territoire en Irak et en Syrie, et elle essaierait de regrouper ses membres pour y créer des cellules dormantes en attendant un retour en force. Son noyau territorial est surtout concentré dans l’est de la Syrie, dans la vallée du Moyen-Euphrate, dans des régions rurales du sud de la province de Hasakah, et dans une enclave du bassin du Yarmuk, au sud de Damas. L’État islamique maintient des réseaux clandestins et ses djihadistes combattent principalement en petits groupes de 3 à 5 personnes. L’EI est devenu plus internationaliste qu’al-Qaida et s’est en quelque sorte spécialisé dans « l’ennemi lointain », d’où la plus grande proportion d’attentats commis par Daesh en Occident par rapport à al-Qaida, quant à elle focalisée sur « l’ennemi proche » (gouvernements musulmans « traîtres », apostats, et les forces occidentales « occupant » des pays musulmans). En outre, depuis la chute de l’État islamique en 2017, nombre d’anciens d’al-Qaida devenus membres de l’EI sont retournés dans le giron d’al-Qaida, ce qui n’est pas sans créer des tensions entre les deux organisations, même si l’on observe aussi des cas d’hybridations selon les théâtres, notamment en Afrique sahélienne. L’objectif d’islamisation de l’humanité demeure toutefois commun aux deux organisations, mais les modèles diffèrent : si l’État islamique veut absolument recréer le califat transnational et abolir les frontières entre États musulmans, al-Qaida remet à plus tard le but ultime du califat mondial et privilégie entre-temps une lutte plus directe dans des cadres nationaux. Al-Qaida redevenue la plus puissante organisation terroriste Après la chute de l’État islamique, al-Qaida, moins sous les radars que l’EI, en a profité pour se renforcer. Elle a toujours été présente en Syrie, via le groupe Jabhat al-Nosra, devenu Hayat Tahrir al-Sham, et début 2018, un nouveau groupe fidèle à al-Qaida a fait son apparition en Syrie sous le nom de Tanzim Hurras ad-Din, lequel regroupe entre 2 000 et 3 000 combattants. Al-Qaida possède des implantations plus anciennes et plus importantes que Daesh, au Moyen-Orient, au Khorasan, au Sahel, au Yémen, en Libye ou en Somalie. Lors d’une opération américaine dans la région Afghanistan/Pakistan, les forces spéciales américaines ont tué Hamza Ben Laden, fils préféré d’Oussama Ben Laden, le 14 septembre 2019, présenté comme l’héritier de l’organisation. De la même manière, le supposé numéro deux d’al-Qaida, inculpé aux États-Unis pour des attentats perpétrés contre des ambassades américaines en Afrique de l’Est en 1998, Abdullah Ahmed Abdullah, a été assassiné lors d’une opération secrète dans les rues de Téhéran au mois d’août 2020. Abdullah, alias Abou Mohammed al-Masri (« Abou Mohamed l’Égyptien »), était présenté comme un successeur possible d’Ayman al-Zawahiri, l’actuel chef d’al- Qaida, et se trouvait en Iran depuis 2003. Et le 4 juin 2020, le leader d’al-Qaida au Maghreb islamique, l’Algérien Abdelmalek Droukdel, a lui aussi été tué dans le nord du Mali, parallèlement à la capture, mi-mai, d’un cadre important de l’État islamique au Grand Sahara (EIGS). Toutefois, la mort de hauts cadres du noyau central historique d’al-Qaida n’affecte pas le reste de la nébuleuse, en réalité reliée par une idéologie, un projet et des intérêts partagés, mais composée de franchisés et franchiseurs. L’organisation est toujours forte de plus de 50 000 à 70 000 membres dans le monde, dont 11 000 rien qu’en Syrie et 7 000 dans le seul Sahel. Elle fonctionne comme une centrale qui rédige des notes, des appels, suggère des alliances, émet des fatwas et consignes, conçoit des kits opérationnels, sans intervenir sur l’aspect tactique des opérations, se contentant de définir la stratégie globale que les affiliés et groupes « franchisés » appliquent comme ils l’entendent. al-Qaida au Maghreb islamique reste la filiale la plus active, aux côtés d’al-Qaida dans la péninsule Arabique (Aqpa, basée au Yémen). Si les États-Unis retirent des milliers de soldats d’Afghanistan, al-Qaida est également bien placée pour profiter du vide qui en résulte et régénérer son réseau dans toute l’Asie du Sud. L’organisation, toujours dirigée par l’un de ses fondateurs historiques, Ayman al-Zawahiri, a survécu pendant plus de trois décennies grâce à la capacité du groupe à innover en affinant constamment des tactiques, des techniques et modus vivendi caractérisés par une très forte capacité d’adaptation selon les circonstances, les contextes culturels et les zones géographiques. Ses affiliés à travers le monde continuent de démontrer leur capacité à lancer des attaques spectaculaires, comme en témoignent les attentats perpétrés le 2 janvier 2021 au Niger (cinquante-six villageois tués), par une mouvance d’al-Qaida au Sahel, le Groupe de soutien à l’islam et aux musulmans (en abrégé GSIM 26 ), puis au Mali, contre deux militaires français : la sergente Yvonne Huynh et le brigadier Loïc Risser, du 2 e régiment de hussards de Haguenau (Bas-Rhin). L’Asie du Sud, nouvel horizon des centrales djihadistes En Asie du Sud-Est, principalement aux Philippines et en Indonésie, alimentées par la pauvreté, les tensions entre les divers groupes ethnoreligieux, les organisations terroristes se développent et recrutent de plus en plus depuis une dizaine d’années, souvent en se greffant sur des mouvements préexistants séparatistes islamistes qui sont ainsi franchisés. Aux Philippines, l’organisation terroriste Abu Sayyaf a été très tôt en lien avec al-Qaida et a même été financée à ses débuts par l’organisation caritative de Mohammad Jamal Khalifa, un beau-frère d’Oussama Ben Laden. Al-Qaida est l’organisation terroriste la plus active dans cette zone, même si Daesh y progresse depuis 2016. Parmi les principales attaques survenues au cours des deux dernières décennies, on peut mentionner celles perpétrées par Abou Sayyaf, le 27 février 2004 contre un ferry, aux Philippines (116 morts), et le 10 juillet 2007 – en coopération avec le Front Moro islamique de libération (14 marines philippins tués, à Basilan, dont 10 décapités) ; le 27 janvier 2019 dans la cathédrale de Jolo aux Philippines (20 morts et 81 blessés), le double attentat à la bombe du 24 août 2019, à Jolo (10 morts), ou encore celui du 17 avril 2020, lorsque, en pleine pandémie, 40 combattants de Daesh et Abu Sayyaf ont attaqué des soldats toujours à Jolo (12 morts). Quant à Daesh, initialement présente surtout au Moyen-Orient, elle a commencé à migrer vers l’Asie du Sud-Est après sa défaite en Syrie, montrant ainsi que l’organisation est capable de s’implanter partout dans le monde, en se greffant sur des groupes islamistes locaux ou en les infiltrant puis en les divisant. De nombreux militants d’Abu Sayyaf ont ainsi fait allégeance à l’État islamique. De même, 700 ressortissants indonésiens ont rejoint Daesh en Syrie pour y faire le djihad. La plupart ont répandu leur radicalisme dans leur pays à leur retour. L’État islamique comprendrait minimum 500 membres actifs aux Philippines, sans compter les autres groupes djihadistes armés rivaux ou associés, ce qui est conséquent pour la seule partie musulmane du sud des Philippines. En octobre 2017, un épisode marquant a démontré la montée en force de Daesh dans la région du Mindanao, au sud du pays, lors de la bataille de Marawi (ville à majorité musulmane) qui a opposé des combattants de l’État islamique aux forces gouvernementales philippines. Avec des scènes dignes de la guerre en Syrie, l’affrontement a duré cinq mois et provoqué la mort de 1 132 personnes (920 islamistes, 165 soldats et 47 civils) ainsi que le déplacement de 360 000 autres. Des centaines, voire des milliers de civils sont restés piégés dans la ville assiégée pendant des mois, retenus en otages ou pris entre deux feux 27 . Rappelons qu’en septembre 2017, dans le cadre de l’opération Pacific Eagle-Philippines (OPE-P), une campagne antiterroriste menée par le commandement Indo-Pacifique des États-Unis a été lancée pour soutenir le gouvernement philippin et ses forces militaires dans leurs efforts pour contrer l’État islamique et autres organisations djihadistes philippines. En avril 2020, sur fond de Covid-19 et de tensions sociales liées, la Defense Intelligence Agency (DIA) américaine a répertorié des messages islamistes sur les réseaux sociaux appelant à attaquer ceux qui respectent les mesures sanitaires du gouvernement philippin, et qui menacent les autorités de violence si les mosquées n’étaient pas autorisées à rouvrir 28 . Les terroristes ont ainsi profité de la crise sanitaire pour tenter de gagner du terrain : ainsi, le 26 juin 2020, lorsque la police a tué quatre militants de l’État islamique à Parañaque, près de la capitale Manille, une cellule dormante de l’EI a été démantelée, dont un membre impliqué dans l’attaque de la cathédrale de Jolo en 2019. Bien que moins touchée par le terrorisme, la Malaisie est également gagnée par l’islamisme, notamment l’État du Kelantan, dirigé par un parti islamiste qui a implanté les législations issues de la charia : les cinémas et discothèques y sont interdits, les couples ne peuvent pas se tenir la main en public et l’administration introduit les coups de canne en public pour sanctionner le non-respect de la loi islamique 29 ... Le djihadisme en pleine ascension au Sahel Le drame que traverse l’Afrique, frappée de plein fouet par le djihadisme, rappelle aux Occidentaux restés prisonniers de l’eurocentrisme que le totalitarisme islamiste ne combat pas seulement l’Occident « croisé », mais d’abord les pays musulmans et du Sud : l’Afrique paie de loin le plus lourd tribut depuis la chute de Daesh en Irak/Syrie. Les chiffres parlent d’eux-mêmes : 4 000 morts rien qu’en 2019 dans la zone sahélienne dite « des trois frontières » (Niger-Burkina-Mali), 15 000 au Nigeria depuis 2012, 5 000 en Afrique dans la Corne et l’Afrique australe depuis trois ans... Bien que le Nigeria soit la plus importante économie de l’Afrique – l’un des plus grands producteurs de pétrole de l’OPEP, et qui possède une élite politique compétente –, l’armée nationale est dépassée par l’insurrection du groupe Boko Haram dans le Nord et par ses incessantes attaques. Boko Haram, qui signifie « interdire ce qui est occidental », ne cesse de gagner du terrain. Rendue célèbre en 2014 lorsqu’elle a kidnappé plus de 200 jeunes filles en 2014, l’organisation a depuis lors considérablement élargi son assise au Nigeria en s’appuyant sur la pauvreté du Nord-Est musulman revanchard vis-à-vis du Sud chrétien, riche en pétrole, mais aussi sur la diffusion depuis les années 1990 du fanatisme salafiste, qui a souvent commencé par l’islamisation « institutionnelle » à l’instigation de prédicateurs revenus d’Arabie saoudite. Depuis l’ascension médiatique de Boko Haram, en 2014, des centaines d’églises catholiques ont été incendiées dans ces États du Nord-Est ; 80 000 chrétiens ont pris le chemin de l’exil pour gagner des États du Nigeria non musulmans. 64 000 ont dû trouver refuge au Cameroun, ce pays subissant aussi des attaques régulières du groupe... Depuis les années 2005, les attentats les plus violents commis par al-Qaida ont eu lieu au Sahel, où des dizaines de milliers de combattants appuyés par des tribus et réseaux salafistes ont plongé dans le chaos les faibles États du G5 Sahel (Mali, Tchad, Burkina, Mauritanie et Niger). Des milliers de civils ont été tués. Près de 3 millions de personnes ont dû fuir leurs domiciles au Mali, Niger et Burkina Faso, principaux pays touchés. Les troupes françaises de l’opération Barkhane, dont les effectifs (5 100 soldats en 2020, devant être réduits à 3 000 en 2022) sont trop faibles pour pacifier une zone grande comme l’Union européenne, peinent à endiguer la progression constante du djihadisme, d’une part, et de l’islamisme politique salafiste, de l’autre, faute de solution politique. On retrouve toujours ici le continuum idéologico-politique évoqué plus haut entre islamistes politiques et djihadistes. Dans les anciennes colonies françaises, la situation ressemble de plus en plus à celle du Nigeria : depuis la guerre de 2012, les djihadistes venus du nord du Mali (Kidal) ne cessent de gagner du terrain vers le centre et le sud du pays et les États voisins : Burkina Faso, Niger, Nigeria, Mali, Bénin, Cameroun, Côte d’Ivoire. Avec leur folle intervention contre le régime de Kadhafi en 2011 – qui a permis aux mercenaires présents en Libye d’acheminer armes et combattants dans tout le Sahel –, la France, la Grande-Bretagne et les États-Unis ont contribué à l’expansion de ce fléau en Afrique noire. Les attentats et prises d’otages dans la région des « trois frontières », là où une mine artisanale a tué, le 2 janvier 2021, deux soldats français à Ménaka (Mali), sont quasi quotidiens. Le processus de « sahélisation » d’Aqmi, à l’origine maghrébine, s’est accentué depuis la fin des années 2010 et la guerre civile malienne : la quasi-totalité de ses chefs et de sa logistique a été transférée de l’Algérie vers le Sahel. Le génie de l’homme fort d’Aqmi au Sahel, le Touareg malien Iyad Ag Ghali, ancien du Tabligh et des milices libyennes, fondateur d’Ansar Dine, a été de regrouper des mouvements djihadistes, touaregs, arabes et peuls noirs- africains nomades de la région au sein d’une structure unitaire nommée GSIM. Selon le Centre d’études stratégiques de l’Afrique lié au ministère de la Défense américain, et d’après les forces françaises présentes sur place, le Sahel est aujourd’hui la zone où le terrorisme islamiste connaît la croissance la plus rapide. Dans ce contexte, déjà très chaotique, le Burkina Faso a subi depuis la seule année 2015 plus de 100 attentats djihadistes de plus en plus meurtriers, perpétrés notamment par Aqmi, Ansar Dine, le Mouvement pour l’unicité du djihad en Afrique de l’Ouest (Mujao), Al-Mourabitoune, le GSIM, l’État islamique au Grand Sahara, la Katiba Macina, ou encore Ansar-ul-Islam, lié à Daesh. On retiendra l’attentat du 2 mars 2018 contre l’état-major général des armées et l’ambassade de France à Ouagadougou, revendiqué par le GSIM, qui a fait 16 morts. Ou encore celui du 13 août 2017, lorsque des djihadistes ont ouvert le feu sur un restaurant du centre de Ouagadougou (19 morts). Dans tout le continent africain, on constate une augmentation de tensions entre les communautés. Le terrorisme islamiste progresse non seulement en pays musulmans (Mali, Burkina Faso), mais aussi de plus en plus en pays mixtes chrétiens/musulmans, comme on le voit au Nigeria, bien sûr, et même, ce qui est nouveau, en Côte d’Ivoire, pays certes tiraillé entre tribus antagonistes et entre musulmans au nord et chrétiens au sud, mais où les attaques djihadistes et la percée de l’islam politique sont très récentes. On se souvient de l’attentat du 13 mars 2016 qui fit 19 morts (dont 3 soldats ivoiriens) dans un quartier touristique de Grand-Bassam – lieu de tourisme très prisé classé au patrimoine mondial de l’Unesco. Comme ailleurs, les lieux touristiques sont, avec les militaires des pays du G5 Sahel et les symboles gouvernementaux, des cibles privilégiées des djihadistes. Pour ce qui est du Bénin, de plus en plus infiltré par le djihadisme venu du Burkina Faso voisin, on rappellera que les otages français libérés le 10 mai 2019 par les forces spéciales du COS s’étaient aventurés dans le cadre d’un safari dans le parc du Pendjari (Bénin), l’un des plus beaux de l’Afrique de l’Ouest. Comme en Égypte (Nil, Charm el-Cheikh, Alexandrie, etc.), en Tunisie (attentats du Bardo et sur les plages), ou ailleurs, la stratégie des groupes djihadistes est de paralyser le tourisme en déstabilisant la zone. C’est ainsi que des pays comme le Bénin, qui tentent de développer leur tourisme, la Côte d’Ivoire, le Ghana et le Cameroun, sans oublier le Nigeria, voient leurs côtes et leurs zones frontalières de plus en plus visées. Le 2 janvier 2021, le pire attentat jamais commis par des djihadistes au Niger contre des civils a fait 100 morts dans 2 villages de l’Ouest (Tchoma Bangou et Zaroumadereye). Notons que les attentats et prises d’otages dans la région Sahel en zone francophone ont presque toujours lieu dans le secteur des « trois frontières ». Face à ce fléau hybride qui unit fanatisme, rivalités ethnotribales, délinquance et séparatismes, la France, venue au secours de l’État malien en janvier 2013 (opération Serval), puis l’opération Barkhane (revue à la baisse par Emmanuel Macron et qui a délaissé le Nord du Mali pour la zone des trois-frontières, plus exposée, notamment au Niger) apparaissent de moins en moins légitimes aux yeux des habitants. Nombre d’entre eux manifestant même à Bamako ou Gao aux cris : « La Russie plutôt que la France... » Les islamistes ont une vraie stratégie, contrairement à leurs ennemis et à l’Occident... D’après l’expert du djihadisme au Sahel, Drissa Kananbayé, les groupes djihadistes ont une vraie stratégie régionale d’expansion, et leurs attaques suivent un plan de conquête réfléchi. Il décline cette stratégie en trois actes : 1/ affamer, en volant le bétail et brûlant les vivres des habitants des villages abandonnés par des forces de l’ordre ; 2/ acculturer, en détruisant les traditions africaines préislamiques animistes et le soufisme-maraboutisme, considérés apostats ; 3/ soumettre les villageois qui, excommuniés et culpabilisés par les uns, attaqués et terrorisés par les autres, finissent même parfois par rejoindre les djihadistes. Grâce à cette stratégie qui pousse les villageois à gagner des villes, poursuit l’expert, les djihadistes étendent leur contrôle et leur économie criminelle. Ils font d’une pierre deux coups, en terrifiant les personnes exilées en ville où les islamistes politiques les fanatisent idéologiquement. Kananbayé rappelle que leur but n’est pas de sortir de la pauvreté, mais d’y plonger les habitants dans le cadre d’un chaos d’ailleurs théorisé par l’idéologue du califat, Abou Baker Naji (voir infra), très prisé dans la djihadosphère. Kananbayé rappelle que les imams wahhabites formés en Arabie saoudite complètent le travail des djihadistes sur le théâtre urbain : le célèbre imam malien Mahmoud Dicko, chef salafiste endoctriné à Médine, qui a présidé le Haut Conseil islamique du Mali (HCIM) et formé des milliers d’adeptes, incarne parfaitement cette alliance objective entre « coupeurs de têtes » et « coupeurs de langues 30 ». Le 26 mars en 2018, il remplit un stade de 100 000 personnes et fit annuler un projet de Code de la famille qui aurait amélioré le statut légal des mères isolées. En juin 2020, il a contribué à faire chuter le président Ibrahim Boubacar Keïta et créé un mouvement islamiste, la Coordination des mouvements, associations et sympathisants (CMAS) aux relations très ambiguës avec les djihadistes. Pour l’expert, la mainmise des islamistes se vérifie à travers la construction sauvage de mosquées à tous les coins de rue sur financement des pays du Golfe pendant que les populations meurent de soif et de faim. Nomades musulmans peuls fuyant la désertification en razziant les sédentaires du Sud : un double mouvement de fond climatique et civilisationnel Le problème (djihadiste) de fond en Afrique subsaharienne est également alimenté par le phénomène d’exode des nomades africains musulmans des ethnies peuls ou foulani, venues du nord et en proie à la sécheresse (la pluviométrie a en effet chuté de 20 % ces quarante dernières années), qui descendent de plus en plus vers le centre et le sud en pays mixte musulmans/chrétiens ou majoritairement non musulmans. Parallèlement, l’autre grand fléau concret de l’Afrique subsaharienne, la surnatalité incontrôlée (le Sahel est la seule région du monde qui n’a pas entamé sa transition démographique, voir chapitre IX), conduit les agriculteurs à rechercher de nouvelles terres. Un autre phénomène amplificateur est le délitement de l’État, corrompu et mal géré. On observe en particulier ce phénomène au Nigeria, au Mali, au Burkina Faso, au Niger ou en République centrafricaine. Les phénomènes de razzias perpétrées par des musulmans nomades du Nord sur des sédentaires du Sud-Est, une vraie tendance lourde. Dans leur pérégrination visant à retrouver du pâturage pour leur bétail, ces prédateurs nomades attaquent les villages des chrétiens, animistes ou musulmans sédentaires non peuls hostiles à l’islamisme (maraboutiques). Ces razzieurs sont « bénis » par des prêcheurs islamistes qui s’appuient sur la tradition du djihad et de la razzia contenue dans la charia et héritée des empires islamistes peuls du passé dits « du Macina ». Fondée en 2015 et sévissant surtout en milieu peul dans la région de Mopti, la « Katiba Macina » est le groupe terroriste le plus redoutable de la région. Dans l’imaginaire peul, « l’empire du Macina » (également nommé la Diina, ou « religion », en arabe mal prononcé), ancien État islamiste peul qui régna au XIX e siècle dans l’ouest du Mali, une partie du Burkina Faso et de la Mauritanie avec Mopti pour capitale, représente l’âge d’or où les Peuls n’étaient pas des minorités marginalisées par des États-nations postcoloniaux, mais des dominateurs 31 ... Du fait de cet héritage, les Peuls vivent comme les tenants d’un « islam pur », ce qui les rend perméables à la propagande salafiste, même lorsqu’ils viennent de traditions malikites et soufies africaines. Comme les idéologues de Daesh voulant rétablir les califats arabes (ommeyyade et abbasside) en Syrie et en Irak, les djihadistes maliens peuls sont nostalgiques de cet empire peul du Macina qui lançait des djihads pour « purifier » les sociétés musulmanes. Le leader de l’actuel groupe Macina ou Front de libération du Macina, Hamadoun Koufa, nom de guerre d’Amadou Diallo, est d’ailleurs lui-même un prêcheur peul d’origine soufie qui a été « salafisé » – radicalisé au contact du groupe Ansar Dine. La Katiba Macina a pour objectif de faire sécession de l’État malien dans son fief au centre du Mali, à l’instar des djihadistes berbéro-arabes du nord du pays. Montée en puissance depuis mars 2017, affiliée à Ansar Dine, puis au GSIM, la Katiba Macina sévit dans diverses communes de la région de Gao depuis 2014-2015. C’est elle qui perpètre le plus grand nombre d’attaques terroristes au Mali, au Burkina Faso, au Niger et à la frontière béninoise. Et bientôt en Côte d’Ivoire, au Ghana, au Togo, en Guinée Conakry et équatoriale, puis partout où des groupes tribaux peuls sont perméables au djihadisme. Dans cette partie du monde, le djihadisme est un phénomène « géocivilisationnel » de fond, qui répond à une « tradition djihadiste » ancestrale, d’où le recrutement très « endogène » en Afrique subsaharienne (presque aucun cas de « volontaires » djihadistes européens). Certes, tous les Peuls ne sont pas islamistes et encore moins djihadistes. Et l’amalgame entre Peuls et djihadistes – à l’origine de représailles sommaires contre les minorités peules de la part des pouvoirs et tribus sédentaires – est instrumentalisé par les groupes djihadistes dans le but de recruter. Extension du domaine du djihadisme : de la Somalie à l’Afrique australe De l’autre côté de l’Afrique, le groupe djihadiste somalien Al-Shabaab (« La jeunesse »), lié à al-Qaida, proche de la matrice géopolitique salafiste qu’est la péninsule Arabique, lutte depuis des années pour la création d’un État islamique salafiste en Somalie. Le groupe a régné un temps sur la capitale, Mogadiscio, et d’autres régions, mais la campagne militaire soutenue par l’Union africaine l’a affaibli territorialement. Sa présence demeure toutefois redoutable sur une partie importante du territoire, et aux frontières des pays voisins (Éthiopie, Kenya). Autre preuve du continuum idéologico-théologique du djihadisme, Al-Shabaab a incubé dans le giron d’Al-Ittihad al-Islami, une mouvance de prédicateurs salafistes formés en Arabie saoudite et au Yémen dans les années 1990 qui a été financée et poussée à la violence par Oussama Ben Laden, alors établi au Soudan. Le groupe a uni ses forces avec l’Union des tribunaux islamiques qui s’empara avec lui de la capitale en juin 2006. Ce succès a contribué à répandre le virus djihadiste dans les régions musulmanes voisines de l’Éthiopie honnie car à majorité chrétienne. Suite à l’intervention militaire de cette dernière, fin 2006, pour évincer les djihadistes de Mogadiscio à la demande du gouvernement de transition de la Somalie, les Shabaab ont pris la place des tribunaux islamiques et sont devenus une sorte de guérilla qui contrôle des bouts de territoire au centre et au sud. Un des pays les plus récemment ciblés par le djihadisme en Afrique est le Mozambique, État lusophone, majoritairement catholique, mais qui est un lieu stratégique : le canal du Mozambique étant l’une des principales routes du trafic maritime international. Frontalier de la Tanzanie et riverain de l’archipel des Comores, le pays compte 20 % de musulmans, répartis dans le Nord-Est très pauvre. Profitant de la faiblesse de l’État, l’Arabie saoudite y a exporté dans les années 1980-1990 son salafisme-wahhabite, comme au Mali. En 1998, à la fin de la guerre civile du Mozambique, des jeunes formés dans les universités islamiques saoudiennes 32 ont fait émerger le mouvement Ansar Al-Sunna du Mozambique, appelé par le peuple « Shabbabs ». Ce dernier a prêté récemment allégeance à l’État islamique, contrairement à ses homonymes somaliens. Al-Ansar/shebabs est apparu sur le devant de la scène en 2015, dans la province à 60 % musulmane du Cabo Delgado, au nord du pays, très pauvre et revancharde vis-à-vis des chrétiens majoritaires. Il commet sa première attaque d’envergure en octobre 2017 : il assaille le port de Mocimboa da Praia, s’emparant de postes de police, d’armes et de munitions. Ses attentats, revendiqués par Daesh, sont toujours plus meurtriers : 2 500 victimes en trois ans et plus de 500 000 déplacés depuis juin 2019. Lors d’une attaque djihadiste, le 7 avril 2020, 50 civils villageois ont été exécutés par balles et décapités dans un village, et un autre attentat perpétré en novembre 2020 a provoqué la mort de 52 adolescents retrouvés décapités. Le groupe se finance via les trafics de bois et de rubis, qui généreraient 30 millions de dollars annuels, et – comme Aqmi à l’ouest avec la cocaïne venue d’Amérique latine via le golfe de Guinée – en prélevant des « taxes » sur l’acheminement de l’héroïne venue d’Orient vers l’Europe et l’Afrique du Sud, via Cabo Delgado. Le groupe se finance aussi par donations électroniques... Face à ce péril, Mozambicains et Tanzaniens ont signé, fin 2020, un accord de coopération militaire pour s’organiser face aux djihadistes qui compteraient dans leurs rangs des Somaliens, des Congolais, des Rwandais et des Burundais, et même, fait nouveau, une centaine de Sud-Africains, preuve de l’internationalisation croissante de la menace et de son adaptation à la mondialisation. Le terrorisme islamiste : guerre psychologique et propagande par l’action Attardons-nous maintenant sur les volets idéologico-psychologiques de la stratégie des djihadistes. Selon l’universitaire américain Walter Laqueur, spécialiste de la violence politique, la stratégie du terrorisme consiste à faire de la violence et de la médiatisation qu’elle déclenche une forme de publicité gratuite, une façon de répandre l’idéologie qui anime les terroristes. La finalité de la propagande, qu’elle soit « pacifique » ou « terroriste » (« par l’action » ou « par les faits »), vise selon lui avant tout à influencer et à endoctriner, de sorte qu’il convient d’analyser le djihadisme non pas comme une idéologie, mais comme un simple outil (ou une arme) utilisé pour promouvoir et diffuser une idéologie qui, elle, peut avoir aussi des adeptes non-terroristes et institutionnels. Walter Laqueur précise que « le succès d’une opération terroriste dépend presque entièrement de l’importance de la publicité qu’elle obtient 33 ». L’objectif est d’amener l’adversaire-mécréant-apostat à penser qu’il est en position de faiblesse radicale (« à armes égales, celui qui aime la mort l’emporte sur celui qui la craint ») et qu’il a par conséquent intérêt à se rendre de façon anticipatoire afin d’être épargné dans le futur (en cessant de blasphémer, de réclamer l’intégration des musulmans, de critiquer l’islam, en acceptant l’application graduelle de la charia, et en combattant toujours plus « l’islamophobie » à mesure que le djihadisme frappe, etc.). Pour Laqueur, l’assassinat n’est donc qu’un moyen parmi tant d’autres pour faire de la propagande ou du prosélytisme politico-religieux. En latin, propaganda vient de propagare, qui signifie littéralement « ce qui doit être propagé » : le terrorisme de propagande cherche à modifier les perceptions et comportements des personnes ciblées dans une logique de propagation d’une idée-force, celle de la nécessité de se soumettre à la charia ou de se convertir, à terme, ne serait-ce que pour conjurer la « promesse du pire ». Les médias sont la « cible indirecte » privilégiée des terroristes. Les attaques djihadistes sont donc tout sauf le résultat d’une violence aléatoire, « nihiliste ». Elles obéissent au contraire à une logique et à une planification minutieuses, fruits d’une vision idéologique précise. Comme on l’a vu pour nombre de groupes djihadistes des zones sahélienne ou sud-est asiatique, il est vrai que nombre de microcellules terroristes sont des « franchisés » sui generis n’ayant presque pas de lien de subordination avec al-Qaida ou Daesh, voire des groupes autoradicalisés, des marginaux ou des bandes criminelles que les cerveaux djihadistes récupèrent par opportunité. Ces derniers ne sont jamais étrangers à la mobilisation de leurs émules, même les plus indirectes, car ce sont eux qui mettent à disposition sur le Net des « kits » de fabrication artisanale de bombes ou des appels théologiquement référencés à « tuer les mécréants de n’importe quelle manière, n’importe où et n’importe quand ». Il ne faut pas non plus sous-estimer ces messages idéologiques et mobilisation directe, même à distance, car les contenus et messages s’appuyant sur des hadiths et sur un corpus de l’islam sunnite indiscutés ont une réelle « force légitimante » et mobilisatrice. À la manière des anciens compagnons de route ou activistes favorables à l’ex-URSS, aux régimes révolutionnaires de Castro, de Mao Zedong, ou fascinés par le romantisme violent du Che, sans oublier les Allemands et Européens subjugués par le III e Reich, ceux qui vont commettre des carnages terroristes répondent aux appels idéologiques lancés par des professionnels de la propagande, eux-mêmes appuyés par des entités, partis ou États ayant des objectifs géopolitiques. Dans le cadre de leurs textes de référence qui circulent dans la « djihadosphère », comme le fameux « appel mondial à la résistance islamique », de l’idéologue Abou Moussab al-Souri, les « fanatiseurs » professionnels mobilisent à distance des personnes qui ne leur demandent pas leur avis hiérarchique pour passer à l’acte par la suite, puisqu’ils y sont invités (« djihadisme d’inspiration »). Ce manque de lien pyramidal et hiérarchique ne veut pas dire que les futurs terroristes recrutés sur le Web ou en prison sont « moins islamistes » que ceux recrutés par des imams dans des lieux de culte officiels. Réduire le terrorisme djihadiste à la réalité asociale de délinquants ou déséquilibrés fanatisés via des réseaux sociaux, dans des milieux carcéraux ou des banlieues problématiques (voir supra) pour en conclure qu’il n’y a « rien d’islamique », ne permet ni de comprendre les objectifs du djihadisme, ni de prouver que ce terrorisme n’aurait « rien à voir avec l’islam ». Les musulmans libéraux, soufis ou réformistes issus des élites sécularisées, qui dénoncent au péril de leur vie ou de peines de prison lourdes la pénalisation du blasphème, un des piliers de la charia et de sa « violence sacrée », dans les pays musulmans ou ailleurs, ne sont pas plus « islamiquement corrects » que ceux qui veulent imiter les compagnons du Prophète en embrassant le djihad conquérant. Les cerveaux djihadistes recrutent des délinquants pour leur aptitude à la violence Les entités et gourous salafistes-djihadistes, qui recrutent sur le Web, dans les prisons, les mosquées ou parmi des fratries de voyous des cités, savent canaliser « l’expérience » des malfrats dont la violence est utile, à l’instar des imams radicaux de l’école coranique de Zarka qui formèrent le voyou Abou Moussa al-Zarqaoui 34 , devenu plus tard chef d’al-Qaida en Irak et précurseur de l’État islamique. Zarqaoui avait été repris en main, sur demande de sa mère, par un imam fanatique, al-Maqdissi, lequel condamnera bien sûr Daesh après avoir fanatisé ses monstres, notamment entre l’Afghanistan et l’Irak... Le continuum est là. Les spécialistes de la terreur savent bien que, pour créer une « mentalité terroriste », une organisation structurée au fort rayonnement médiatique et idéologique, il faut faire converger trois éléments complémentaires : le niveau individuel, exécutif (« main-d’œuvre »), qui contribue à créer la motivation opérationnelle et le dévouement nécessaire sur un théâtre d’opérations ; le noyau terroriste (souvent fait de fratries closes ou minisociétés sectaires coupées du monde extérieur et des familles, que Pierre Conessa appelle « cellules souches »), qui assure la phase d’endoctrinement et la formation opérationnelle ; enfin l’organisation mère, qui donne le ton, conçoit la stratégie globale, crée les mécanismes de légitimation théocratique légalisant la violence barbare, et déculpabilise les tueurs en les déresponsabilisant. On retrouve ici les conclusions des expériences des sociopsychologues américains Milgram et Zimbardo qui ont prouvé la puissance de l’autorité hiérarchique et morale dans l’incitation à l’acte sadique violent 35 . L’acte terroriste ne se réduit pas aux commandos suicide spectaculaires lancés par les organisations terroristes. Il est en ce sens bien plus qu’une menace sécuritaire, car il est un moteur, un accélérateur de l’histoire politique. L’effet à la fois « convaincant » et dissuasif de la terreur a des conséquences immédiates sur les consciences sidérées. Le dernier exemple en date, après l’attentat de Charlie Hebdo, a été la décapitation de l’enseignant Samuel Paty (attentat de Conflans-Sainte-Honorine, du 16 octobre 2020) par un djihadiste tchétchène suite à une campagne de diabolisation à la fois digitale, associative et « institutionnelle » (relais dans des mosquées et associations légales proches des Frères musulmans). La « promesse du pire » des terroristes adressée aux « blasphémateurs » est en soi un message hautement persuasif. Elle a déjà fait réfléchir nombre de caricaturistes, d’intellectuels et même de décideurs politiques. Le terrorisme peut ainsi être analysé, d’un point de vue stratégique, comme la façon la plus fulgurante de modifier les comportements d’un camp adverse et de diffuser une idée conquérante, en l’occurrence le suprémacisme panislamiste. En ce sens, la dissuasion extrême provoquée par les massacres perpétrés par les djihadistes profite plus qu’on ne le pense aux islamistes non terroristes, car ceux-ci savent, en dépit de leur dénonciation formelle des attentats, que l’on ne prendrait jamais autant au sérieux leurs demandes de lutter « contre l’islamophobie » si les « infidèles » n’avaient l’épée de Damoclès djihadiste au-dessus de leur tête... L’efficacité de la stratégie de l’intimidation Depuis des décennies, dans les pays musulmans, jadis bien plus laïques et où la liberté de croire ou de ne pas croire était plus présente, la « stratégie de l’intimidation » a associé les pressions des islamistes politiques aux menaces violentes des islamistes terroristes. Les concessions octroyées par les dirigeants nationalistes en place à ceux qui voulaient introduire la charia dans l’ordre légal ont toujours été octroyées pour tenter de faire baisser la violence et « calmer la colère des djihadistes ». En Iran, la révolution islamique de l’ayatollah Khomeiny s’est faite dans le sang avant de devenir texte de loi. Depuis les années 1950, les Frères musulmans égyptiens ont fait assassiner des « apostats » et mis au pas des villages entiers par leurs milices avant de conquérir les urnes lors du printemps arabe en 2012 une fois abouti le processus de réislamisation. Ils n’ont d’ailleurs été stoppés par la suite que par une violence plus dissuasive que la leur, celle du nationalisme et du coup d’État militaire qui a porté au pouvoir le réformiste Abdel Fattah al-Sissi en juillet 2013. En Algérie, les assassinats de nombreux intellectuels et journalistes athées ou laïques et la guerre civile extrêmement meurtrière des années 1990 qui a opposé la junte au pouvoir au FIS et au GIA ont précédé l’islamisation des lois favorisées dans les années 1990-2000 par le président Bouteflika, artisan d’une « Concorde civile ». Exemple plus récent, mais plus lointain, au Bangladesh, jadis pays réputé assez modéré et laïque, le parti islamiste Hefazat-e-Islam, qui a adressé au gouvernement, en 2013, une demande de réislamisation des lois comportant la pénalisation du blasphème, a obtenu gain de cause en 2016 à la suite d’une vague d’assassinats commis entre autres afin d’exiger la peine de mort pour les blasphémateurs. C’est ainsi qu’en trois années, une quarantaine d’intellectuels laïques (blogueurs, journalistes, professeurs...) ont été assassinés après avoir été menacés et ciblés 36 dans le pays. Dans la perspective des élections de 2019, la Ligue Awami au pouvoir a finalement cédé, au nom d’une pax islamica, aux requêtes du Hefazat-e-Islam. Celles-ci ont été d’autant plus prises au sérieux qu’elles ont été objectivement « appuyées » par l’effet d’intimidation et de sidération des actions terroristes. Le Hefazat-e-Islam a même réussi à obtenir la limitation des représentations des êtres humains puis à faire interdire les exercices physiques dans les écoles pour les jeunes filles. Le continuum djihadisme-islamisme et le chantage à l’islamophobie La raison pour laquelle les pôles de l’islam officiel n’ont pas profité de l’occasion funeste des attentats terroristes pour opérer un aggiornamento, pourtant réclamé depuis des décennies par les intellectuels musulmans réformistes et modérés, réside dans le fait que ces pôles reconnus comme interlocuteurs légitimes par les États occidentaux et les Nations unies se distinguent plus des djihadistes par les moyens que par les fins, qui sont en fait les mêmes : l’application de la charia et la restauration du califat. De fait, la réunification de l’oumma islamique au nom d’un projet néo-impérial califal demeure l’objectif affiché des Frères musulmans, de l’OCI, dont sont membres cinquante-sept États musulmans, et d’autres grandes institutions panislamiques mondiales. Ces pôles institutionnels de l’islamisation qui dénoncent verbalement la violence djihadiste tout en affirmant qu’elle n’a « rien à voir avec l’Islam » – et donc en niant son existence même – pratiquent de leur côté une ingérence politique dans les affaires de tous les pays du monde où vivent des musulmans, sous couvert de défense de l’islam et des musulmans « persécutés », se nourrissant aussi d’une « islamophobie » souvent imaginaire. Bien que divisés, ces grands vecteurs de l’islamisation planétaire 37 ambitionnent, sous prétexte de « défendre la religion », de contrôler l’oumma islamique dans le monde et en Occident. L’ouverture de nos sociétés pluralistes, rendues perméables par une vision sans-frontiériste et multiculturaliste béate de la mondialisation, est perçue par les forces islamistes radicales comme une vulnérabilité et une faille dans laquelle le prosélytisme politico-religieux islamiste progresse sans rencontrer trop d’obstacles. C’est à l’aune de ce constat que l’une des références suprêmes des Frères musulmans et de nombreux salafistes « modérés », Youssef al- Qardaoui, a décrété il y a des années que l’Europe, habituellement assimilée au « territoire de la guerre » (dar al- harb), est devenue une terre de « l’annonce » (dar al-dawà) et du « témoignage » (dar as-shahada) car ne faisant plus d’obstacle au prosélytisme islamique. De ce fait, pour un musulman, y vivre serait « licite » pour Qardaoui, dès lors que la société d’accueil permet de vivre en conformité avec la charia. La stratégie du « séparatisme islamiste », déplorée par le président français Emmanuel Macron, et combattue par sa loi visant à « renforcer les principes républicains », pousse les musulmans à ne pas s’intégrer aux mœurs locales « impies » et laïques, au nom d’un « droit à la différence » et d’un antiracisme dévoyés. Pour illustrer cette stratégie de « désassimilation », rappelons les propos prononcés, en 2008, par Recep Tayyip Erdoğan, qui répondit à la chancelière Angela Merkel lorsque celle-ci réclama l’intégration des Turcs musulmans d’Allemagne, pourtant présents depuis des générations mais qui forment toujours une communauté à part : « l’intégration est un crime contre l’Humanité 38 ». Ce processus de « ghetto volontaire » se nourrit de la contagion paranoïaque, qui permet aux islamistes de pousser les musulmans – pris ainsi idéologiquement au piège de la victimisation – à se radicaliser et à se ranger progressivement, par « réaction », sous la bannière protectrice et l’ordre sans frontière de la charia. L’objectif panislamiste et sécessionniste poursuivi par les pôles de l’islamisme mondial, djihadistes ou institutionnels, est combattu, certes, par les États musulmans nationalistes (Émirats arabes unis, Égypte, Jordanie, Algérie, Syrie des Assad, Kazakhstan), qui craignent ce nouvel impérialisme théocratique tourné contre leur souveraineté, mais appuyé par le Qatar, la Turquie néo-ottomane d’Erdoğan, le Pakistan, les Frères musulmans, etc. Toutefois, en dépit des rivalités opposant États et pôles islamistes entre eux dans la lutte pour le leadership islamique mondial, ces pôles ont réussi à rendre une partie des communautés musulmanes d’Occident hostiles à leurs pays de naissance ou d’accueil, perçus comme « mécréants », « pervers », et « hostiles aux musulmans ». La force mobilisatrice des pôles violents et non-violents du totalitarisme islamiste consiste à miser sur la « paranoïsation » qui permet de motiver le musulman qui se sent « exclu » à ne plus se conformer aux mœurs et ordres infidèles « ennemis de l’islam ». Ces foyers potentiels de communautarisme « désassimilé » sont autant de viviers dans lesquels les djihadistes peuvent puiser. La vulnérabilité des sociétés démocratiques et multiculturelles Dans nos sociétés occidentales ouvertes, tout comme au Mozambique, au Nigeria, ou en Inde, le but est de polariser la société en opposant les musulmans aux non-musulmans, d’où le fait que les pays les plus souvent et massivement frappés par les djihadistes sont, premièrement, les pays d’islam et, deuxièmement, les pays multiculturels abritant de fortes communautés musulmanes. La stratégie victimaire de « paranoïsation » fonctionne en plein, tant que des non-musulmans continuent à « dominer » et donc « humilier » les « vrais croyants ». Nos sociétés culpabilisées tombent ainsi dans le piège lorsque leurs dirigeants, leurs intellectuels et leurs médias expliquent la violence islamo-terroriste par la dénonciation de « l’oppression » des musulmans, l’exclusion des immigrés, « l’humiliation des Palestiniens » ou l’islamophobie, qui serait le pire des néoracismes et dont l’interdiction du voile ou de la burqa serait la manifestation la plus concrète. En conséquence, nombre de musulmans radicalisés ou djihadistes justifient eux aussi leur franchissement du Rubicon terroriste en affirmant « réagir » à la « persécution » dont ils feraient l’objet en Occident. Ainsi, Émilie König, la célèbre recruteuse française de Daesh partie rejoindre le califat en Syrie en 2012 puis capturée par les Forces démocratiques kurdes (FDS) de Syrie, début janvier 2017, a assuré, quand elle s’est « désavouée » de la France, que c’est la « persécution » des musulmanes interdites de se couvrir dans l’Hexagone qui la motiva. D’où la dangerosité des théories victimaires véhiculées tant par des djihadistes que par des pôles institutionnels de l’islamisme. Ainsi, l’ancien secrétaire général de l’ONU, Ban Ki-Moon, déclara-t-il en 2009 que « le racisme peut aussi s’exprimer de manière moins formelle comme la haine contre un peuple ou une catégorie particulière comme l’antisémitisme, par exemple, ou plus récemment l’islamophobie 39 ». Une illustration plus récente de ce processus de la « stratégie de l’intimidation » par la « paranoïsation » a été offerte, en octobre 2020, à la suite des deux attentats terroristes survenus en France, à Conflans-Sainte-Honorine (décapitation de Samuel Paty, 16 octobre) et à Nice (trois fidèles égorgés dans la basilique Notre-Dame, 29 octobre), lorsque, au lieu de présenter ses condoléances, comme d’autres grands chefs d’État du monde, le président turc Recep Tayyip Erdoğan a dénoncé « l’islamophobie » de la France républicaine et de son homologue Emmanuel Macron, accusés de « persécuter les musulmans » dans le double contexte du projet de loi contre le « séparatisme islamiste » et de la défense de la liberté de caricaturer dans la presse française. Sans surprise, des pays mentionnés plus haut et réputés amis de l’Occident, comme le Qatar, le Koweït ou le Pakistan, structurellement et idéologiquement proches des Frères musulmans, mais aussi l’université sunnite d’Al-Azhar (Égypte), pourtant réputée modérée, ont emboîté le pas au néosultan en dénonçant vigoureusement l’islamophobie française et occidentale. C’est ainsi que Fahrettin Altun, le directeur de communications à la présidence turque, a affirmé que l’islamophobie gauloise rappellerait « la diabolisation des juifs européens dans les années 1920 » ! Au Pakistan, le Premier ministre Imran Khan a reproché au Président français « d’attaquer l’Islam ». Ces accusations miroirs sont intéressantes à analyser de la part de dirigeants de pays musulmans qui persécutent leurs minorités juives, chrétiennes, hindouistes et chiites... Dans la même logique, l’OCI, qui réunit cinquante-sept pays musulmans, a déploré « les propos de certains responsables français [...] susceptibles de nuire aux relations franco-musulmanes ». Cette adresse insinue que la violence djihadiste qui a décapité Samuel Paty ne serait qu’une réaction à une « provocation » initiale des « islamophobes ». Ce réflexe d’exonération a posteriori de la violence chariatique est une constante de l’OCI et des grands pays et institutions islamiques, Arabie saoudite, Qatar, Turquie et Pakistan en tête. D’où la tentative des pays de l’OCI de faire adopter, depuis 2010, par les Nations unies, des résolutions condamnant la « diffamation des religions ». Ce concept, qui confirme la théorie « communautarienne » des relations internationales de Hughes, vise à faire accréditer l’idée que la critique de l’islam ou le blasphème seraient des formes de « racisme » envers les musulmans. Et dans tous les textes et déclarations de l’OCI et d’autres « institutions » islamiques mondiales (Isesco, Congrès islamique mondial, Ligue islamique mondiale) relatifs au terrorisme islamiste, le fait même de désigner le terrorisme islamiste est dépeint comme une « insulte » envers l’islam et les musulmans. D’où la proposition de bannir tout terme invoquant l’islam et de s’en tenir à l’expression « extrémisme violent », édulcoration adoptée par les Nations unies, l’Union européenne, l’OSCE et le Conseil de l’Europe. Le 25 novembre 2020, le président turc Recep Tayyip Erdoğan a logiquement utilisé la tribune de l’OCI, dans le cadre d’une réunion virtuelle de l’un des comités permanents, pour fustiger la liberté d’expression et de presse en matière d’islam dans la France et l’Europe « islamophobes » : « Certains politiciens européens [...] poursuivent une politique discriminante et haineuse envers les musulmans, cibles de la même campagne de haine qui a visé les Juifs d’Europe avant la Seconde Guerre mondiale. Nous devons combattre [...] le racisme culturel qui a englobé l’Occident. » En réalité, le Président turc et ses homologues, ou autres instances islamiques mondiales, sont parfaitement conscients du fait que les musulmans en France et en Occident sont libres, et bien plus que dans la quasi-totalité des pays islamiques, non démocratiques. La reductio ad hitlerum est utilisée ici de façon rhétorique par des leaders qui ne culpabilisent pas d’être intolérants et même judéophobes mais qui savent que l’Européen culpabilise pour ce qu’il ne fait plus depuis longtemps. Erdoğan a habilement profité de la campagne mondiale de diabolisation de la France et des appels aux boycotts qui en ont découlé pour tancer en fait le seul pays européen qui a contrecarré l’expansionnisme turc croissant en Méditerranée orientale (en plus de la Grèce et de Chypre, voir infra). La géopolitique est une démarche holistique, et cet exemple démontre que « tout est lié ». 1. Qui privilégie l’appartenance culturelle et la communauté face à l’individu. 2. Voir Barry B. Hughes, Continuity and Change in World Politics. Competing Perspectives, 3 e éd., Upper Saddle River, NJ, Prentice Hall, 1997. 3. Voir Philippe Braillard, Théories des relations internationales, Paris, Presses universitaires de France, 1977, p. 12. 4. Mohammad-Reza Djalili, Diplomatie islamique, Paris, Presses universitaires de France, 1989. 5. Daniel Colard, Les Relations internationales, p. 52-53. En fait, il existe une troisième catégorie, le dar al-ahd, situation exceptionnelle de trêve entre monde non musulman et monde musulman, le plus célèbre exemple étant la première communauté des fidèles (oumma) qui vivait en paix au royaume chrétien d’Abyssinie (Éthiopie) face aux ennemis communs païens. 6. Gilles Kepel, Le Prophète et Pharaon. Aux sources des mouvements islamistes, p. 54-55. 7. Sayyid Qutb, in ibid., p. 54. 8. Pays du Golfe, Pakistan ; République islamique iranienne ; Frères musulmans ; Ligue islamique mondiale ; Organisation de la coopération islamique ; etc. 9. Ce courant hanbalite salafiste, quatrième école juridique officielle de l’islam (madhab) sunnite, qui ne peut être réduit à une « hérésie », a été porté par deux penseurs fondamentaux du hanbalisme constamment cités par les djihadistes : Ibn Taymiyya (1263-1328), qui éleva le djihad au rang de sixième pilier de l’islam face aux mécréants mongols, puis Muhammad ibn ‘Abd al-Wahhāb (1703-1792), à l’origine du « wahhabisme », école sunnite officielle du royaume saoudien, gardien des deux Lieux saints (al-Haramain) de l’islam : La Mecque et Médine. 10. Benyettou citait aussi beaucoup un « savant » salaf des XIV-XV e siècles, Ibn Hajar al-Asqalani, auteur du traité des hadiths Boulough al-Maram, qui aborde notamment la question du djihad. 11. Voir rapports du CAT, 2017, 2018 et 2019, http://cat-int.org/. 12. CAT, Compte-rendu de la conférence internationale sur le terrorisme : « Quelles menaces et quels enjeux après la chute du califat ? », 7 novembre 2019. 13. Voir son interview accordée à El Mundo, 31 août 2017. 14. Compte-rendu de la conférence internationale sur le terrorisme, op. cit. 15. Alexandra Gonzalez et Ambre Lepoivre, « Près de 130 djihadistes français vont être rapatriés de Syrie en France », Le Monde, 29 janvier 2019. 16. Lucie Valais, « Terrorisme : 240 jihadistes de retour en France depuis 2012, la majorité en prison », RTL, 27 octobre 2017. 17. Voir Alexandre Del Valle, La Stratégie de l’intimidation. Du terrorisme jihadiste à l’islamiquement correct, Paris, L’Artilleur, 2018, voir dans ce livre les annexes consacrées aux textes sacrés islamiques relatifs à la ruse de guerre. 18. Abou Bakr Naji, Idārat at-Tawaḥḥuš. Akhṭar marḥalah satamurru bihā l ‘ummah ; Management of Savagery. The Most Critical Stage Through Which the Islamic Nation Will Pass, 2007, 250 p. 19. International Crisis Group, « COVID-19 and Conflict: Seven Trends to Watch », 24 mars 2020. 20. « Syrie : 37 militaires du régime tués dans une attaque djihadiste dans l’Est », Le Figaro, 30 décembre 2020. 21. « Dix-neuf combattants prorégime tués dans une attaque de l’EI », L’Orient-Le Jour, 3 février 2021. 22. « Terrorisme. Daech revient sur le devant de la scène en Syrie », Courrier international, 12 janvier 2021. 23. Scott Atran, « Daech n’a pas commandé les attentats de Paris et Bruxelles », Le Soir plus, 20 octobre 2017. 24. Cité in Romain Caillet et Pierre Puchot, Le combat vous a été prescrit, Stock, 2017, p. 233-234. 25. Il est né dans la ville irakienne de Tal Afar (soixante-dix kilomètres à l’ouest de Mossoul), enclave turkmène entre chiites et sunnites, ces derniers ayant fourni jadis à Saddam Hussein maints cadres. Et lorsque Saddam commença, face aux Américains, à mobiliser des réseaux salafistes, les sunnites de Tal Afar, surreprésentés, alimenteront l’EI. 26. Le GSIM regroupe Ansar Dine, des branches d’Aqmi, des combattants de l’ex-Mujao et du MNLA berbère du Mali. 27. Amnesty International, « The Battle of Marawi: Death and destruction in the Philippines », rapport, 17 novembre 2017. 28. Lead inspector general, « Operation Inherent resolve and Operation Pacific Eagle – Philippines », report to the United States Congress, 1 er avril 2020-30 juin 2020. 29. « En Malaisie, l’islam conservateur progresse », Le Monde, 21 juillet 2017. 30. Alexandre Del Valle, La Stratégie de l’intimidation, op. cit. 31. Dès le XVIII e siècle, un « protodjihadisme » a sévi en Afrique subsaharienne-sahélienne : l’État théocratique du Fouta-Djalon en Moyenne- Guinéeau XVIII e siècle ; l’Empire peul du Macina au Mali entre 1818-1862 ; l’empire théocratique de Sékou Amadou Barryi, puis de Sékou Amadou, sans oublier au Nigeria l’empire de Sokoto au XIX e siècle. 32. Et inspirés par un religieux kenyan lié aux attentats antiaméricains de Nairobi et Dar es-Salam en 1998, Aboud Rogo Mohammed, ont ouvert leurs madrasas en Tanzanie et au Mozambique. 33. Walter Laqueur, « The Futility of Terrorism », Harper’s Magazine, vol. 252, n o 1510, mai 1976, p. 69-120. 34. Dans les années 1980, la mère d’Abou Moussa al-Zarqaoui, inquiète que son fils soit délinquant drogué et alcoolique, l’envoie dans une école coranique de Zarka (sa ville natale en Jordanie) pour le « remettre dans le droit chemin ». Il en ressortira très pieux mais ultraradical puis se retrouvera à la fin des années 1980 dans les mains de l’imam djihadiste d’al-Qaida al-Maqdissi, qui l’emmènera en Afghanistan. 35. Tout comme l’expérience célèbre de Milgram, celle de Zimbardo, psychologue américain, dite « expérience de Stanford », montre les mécanismes de l’obéissance à une institution et prouve que n’importe qui peut commettre des actes atroces en situation de légitimation par l’autorité de référence. 36. Un rapport du Bangladesh Hindu Buddhist Christian Unity Council de 2016 comptabilise 1 471 incidents violents contre des minorités, contre 262 en 2015. Les atrocités ont culminé le 1 er juillet 2016, lors de l’attaque d’un café-restaurant de Dacca qui a fait 22 victimes, dont 18 étrangers. 37. OCI ; Ligue islamique mondiale ; Frères musulmans ; autres associations pilotées par des États comme la Turquie néo-ottomane d’Erdoğan, le Pakistan coparrain d’al-Qaida et créateur des talibans afghans, le Qatar, protecteur des Frères musulmans, et l’Arabie saoudite, promotrice du wahhabisme-salafiste. 38. « L’assimilation est un crime contre l’humanité », déclara Erdoğan, à Cologne, le 10 février 2007, devant 16 000 Turcs. 39. Delphine Roucaute et Madjid Zerrouky, « L’islamophobie est-elle punie par la loi ? », Le Monde, 20 janvier 2015. CHAPITRE VIII Prolifération nucléaire et aléas du désarmement « Les États émergents d’Asie se sont naturellement tournés vers les sciences de l’atome dans le même temps que s’en détournaient les “anciennement industrialisés” en Occident [...]. La Russie, la Chine, l’Inde, le Pakistan, la Corée du Nord possédant le savoir de l’“atome militarisé”. La Chine doit à Hiroshima une révélation : séculairement assurée d’une civilisation n’ayant rien à envier à l’extérieur, force lui fut de constater que c’est la science occidentale et non la sienne qui a maîtrisé la désintégration de la matière. Dans un tel environnement, on saisit les ressorts de la démarche iranienne... » Général Pierre Marie Gallois Des origines du nucléaire militaire à l’échec des traités de désarmement et de non-prolifération La prolifération nucléaire récente, qui concerne surtout la Corée du Nord et l’Iran, est devenue possible grâce à l’effacement des frontières, processus qui a facilité la mondialisation des technologies nucléaires et balistiques qui devaient être au départ strictement contrôlées par des États membres du club privilégié des détenteurs de ces armes dévastatrices. Un exemple édifiant de cette mondialisation technologique hors contrôle a été offert ces dernières années par l’évolution de l’Ukraine. Après la dislocation de l’URSS, ce pays a vendu clandestinement des technologies balistiques à la Corée du Nord, profitant d’un contexte de chaos et de paupérisation accentué par le conflit armé dans le Donbass qui a démarré en 2014 et dure encore. Le 16 juillet 1945, le monde entrait dans l’ère nucléaire avec la première explosion de la bombe atomique américaine dans le désert du Nouveau-Mexique, à Alamogordo. Non sans cynisme, les Américains n’ont guère tardé pour passer du stade de l’expérimentation à celui de l’application, puisque vingt jours plus tard, le 6 août 1945, le bombardier Enola Gay larguait « Little Boy » et ses 15 kt sur Hiroshima ; trois jours encore, et c’était au tour de Nagasaki. « L’arme de la terreur » n’était plus une fiction. À la fin des années 1930, des savants comme Albert Einstein avaient émis l’hypothèse que l’Allemagne hitlérienne pourrait produire dans un délai assez bref une bombe basée sur le principe de l’énergie de fission d’un atome lourd, comme le plutonium ou uranium. C’est dans ce contexte que le gouvernement Franklin Roosevelt lança le spectaculaire programme Manhattan 1 , dans lequel les meilleurs experts du monde occidental, associés à de grandes entreprises (amorce du désormais célèbre « complexe militaro-industriel »), et qui devait aboutir à Alamogordo, puis, à Hiroshima... La plupart des observateurs évoquaient à ce propos la naissance du concept de dissuasion, or il n’en était rien : Little Boy était tout simplement destiné à faire capituler l’armée nippone et, plus discrètement, à freiner les ambitions de « l’allié » soviétique car I’armée Rouge progressait rapidement. Quant au bombardement atomique tout aussi massif de la ville de Nagasaki, trois jours plus tard, qui était en réalité inutile pour atteindre l’objectif de la capitulation, déjà acquise, il s’explique par le fait que la bombe d’Hiroshima est une bombe à l’uranium tandis que celle de Nagasaki était au plutonium, cette dernière avait été fabriquée par un lobby industriel concurrent du précédent et désirant faire, à son tour, une « expérimentation »... À partir de cette date, le « club nucléaire » va se développer lentement mais régulièrement. Durant quatre ans, Washington conserve le monopole de la détention de l’arme atomique. Moscou réalisera sa première expérience dans le désert du Kazakhstan en août 1949. La Grande-Bretagne (sous franchise américaine) la réalise à son tour en novembre 1952, suivie de la France, en février 1960 (au Sahara, alors encore français), de la Chine de Mao, en octobre 1964, dans le Xinjiang, de l’Union indienne, le 19 mai 1974, d’Israël en 1981, du Pakistan, le 13 mai 1998, et de la Corée du Nord, en 2006. Pour résumer, ces 9 pays sont les seuls qui possèdent l’arme nucléaire aujourd’hui. Au total, de 1945 jusqu’à nos jours, il y a eu plus de 2 000 essais nucléaires réalisés 2 . Quant à la spécificité de l’arme atomique : rappelons simplement que l’explosif présente plusieurs caractères originaux, dont une puissance de destruction colossale pour un faible volume, comparativement aux armes conventionnelles. La miniaturisation de l’arme nucléaire n’a guère cessé de croître au cours des années, permettant aussi de réduire le gabarit des véhicules porteurs et de multiplier, sur un même vecteur, le nombre d’ogives. Les missiles balistiques présentent des caractéristiques quasi révolutionnaires : la vitesse était grosso modo de l’ordre de 1 000 km/h pour un bombardier « banal ». Elle peut désormais atteindre 25 000 à 30 000 km/h, avec les conséquences que l’on imagine en matière de temps de réaction. Quant à la portée, les missiles intercontinentaux peuvent atteindre, depuis un demi-siècle, des cibles situées de 14 000 à 15 000 km, ce qui signifie tout simplement qu’un des pays possédant cette arme peut menacer n’importe quelle région du globe. De plus, alors qu’à l’aube des années 1970, la marge d’imprécision d’un Minuteman 3 était de 2,4 km, elle n’est aujourd’hui que d’environ 200 m... Ces précisions permettent de mieux comprendre pourquoi la République islamique iranienne souhaite acquérir le feu atomique et pourquoi la Corée du Nord n’y a pas renoncé : cette dissuasion maximale est une « assurance-vie » pour tout régime qui se trouve dans le collimateur des États-Unis... La Corée du Nord n’a en effet jamais subi le sort de l’Irak ou de la Libye, se plaît à dire le dictateur Kim Jong-un... Les conséquences géopolitiques de l’atome Au-delà des conséquences strictement stratégiques, l’apparition puis le développement de l’armement nucléaire ont entraîné un certain nombre de bouleversements, notamment dans la hiérarchie et le poids des facteurs géostratégiques des six critères majeurs pris en compte depuis des siècles par les États-majors, à savoir : la localisation : toutes notions de distance perdent leur signification à l’heure des armes de nouvelle technologie nucléaire et des missiles intercontinentaux ; les dimensions du champ de bataille, qui changent complètement d’échelle par rapport aux territoires à conquérir, la puissance de destruction de la charge atomique pouvant raser des villes entières. Une bombe nucléaire Tsar 4 , par exemple, a une zone de déflagration d’environ 117 km², de quoi raser Paris et une partie de sa banlieue d’un coup 5 ! Et l’on ne raisonne plus en délais de quelques jours, mais en une poignée de minutes... ; les conditions climatiques : la qualité de ces armes leur permet d’être utilisées dans n’importe quelle condition, comme se plaisait aussi à le répéter Pierre Marie Gallois, « le missile atomique ignore la pluie, la neige, la glace, la tempête, le brouillard ». le poids de la logistique, majeur dans le cadre des guerres conventionnelles, est très allégé dans l’optique d’un conflit atomique ; le contexte « industriel » : le nucléaire est friand, par essence, de techniciens hautement qualifiés et de budgets de R&D élevés, mais peu gourmand en hommes, contrairement aux arsenaux d’armements classiques ; le nombre de combattants : l’époque des gros bataillons est révolue à l’ère nucléaire ; une flotte de 4 ou 5 SNLE 6 suffirait largement à détruire n’importe quel État du globe. Cependant, pour chaque gouvernement, la menace que représentent ces armes pour la sécurité collective passe après la défense de leurs propres intérêts. La Chine, la Russie ou l’Iran y voyant un moyen de contrer les Américains en renforçant leur influence dans diverses zones du globe, notamment au Moyen-Orient. Bouleversement des hiérarchies militaires étatiques classiques La plupart des spécialistes s’accordent depuis des lustres à établir une hiérarchie des États-nations. En 1914, à la veille de la Grande Guerre, la France et le Royaume-Uni, les deux grands empires coloniaux, précédaient le Deuxième Reich et la Russie tsariste, suivaient les États-Unis, le Japon ou les empires austro-hongrois et ottomans (voir carte n o 9). Ce classement s’est vu modifié maintes fois au gré des différentes guerres. L’Allemagne nazie était en tête à la veille de la Seconde Guerre mondiale, pour passer ensuite au monde bipolaire avec les États-Unis et l’URSS et arriver aujourd’hui avec les puissances que l’on connaît : les États-Unis suivis de la Chine et de la Russie, après lesquels viennent la France, le Royaume-Uni, le Japon et l’Inde. Les classements traditionnels des puissances se basent sur divers critères quantitatifs comme le nombre de soldats, la quantité d’armement ou autre, qui, bien que globalement justes, sont assez discutables. En effet, aujourd’hui on distingue plutôt certaines catégories de hiérarchie de puissances : les superpuissances qui sont, par définition, susceptibles de préserver leur territoire national par la « sanctuarisation nucléaire » en dissuadant l’adversaire potentiel d’une agression grâce à un arsenal de forces conventionnelles telles que leur capacité d’intervention extérieure est très élevée. Cette définition pouvait s’appliquer avant 1991 aux deux grands de l’époque. Elle ne concerne plus, pour le moment, que les États-Unis ; ensuite les autres membres du club nucléaire (les huit « partenaires ») composé de : la Russie, la France, le Royaume-Uni, la Chine, l’Inde, Israël, le Pakistan et la Corée du Nord, qui disposent de la maîtrise de l’armement nucléaire et, intégrant dans leurs stratégies le « pouvoir égalisateur de l’atome » (Gallois), peuvent se sentir sanctuarisés, ceux-ci n’ont cependant pas ou plus la capacité de jouer aux gendarmes du monde et ne peuvent évoquer l’utilisation éventuelle de leur arsenal nucléaire que si leurs intérêts vitaux sont menacés ; et enfin les « Exclus de l’arme atomique », catégorie désignant tous les autres membres de l’ONU qui, pour des raisons diverses, ne possèdent pas l’arme nucléaire. Le « club nucléaire » En 2020, neuf États-nations (voir supra) possèdent l’arme nucléaire, avec un poids certes variable, même si l’important ici n’est pas quantitatif, mais tout simplement d’en disposer ou non (« pouvoir égalisateur »). Soulignons tout d’abord qu’il existe deux catégories de membres du club : ceux qui tendent à réduire leurs armements nucléaires, à savoir les États-Unis, la Russie, et, sur une plus petite échelle, le Royaume-Uni et la France ; et les autres, a contrario, qui ont engagé un processus d’augmentation, même modeste, de leurs capacités en la matière : la Chine, bien sûr, mais aussi l’Inde, le Pakistan, Israël et la Corée du Nord. Revenons sur le statut et l’état des lieux nucléaires de chacun des membres du « club des 9 », par ordre d’entrée en scène : 1) Leader incontesté en matière de nucléaire militaire, les États-Unis possèdent environ 5 800 ogives nucléaires à ce jour 7 (dont 2 300 « en attente de démantèlement ») après en avoir eu plus de 25 000 pendant la guerre froide, avec un budget pour la recherche et le maintien de leur arsenal nucléaire de 35,4 milliards de dollars en 2019, soit une augmentation de 20 % par rapport à 2018. Leur arsenal est actuellement déployé sur 19 bases, dont 5 dans des pays européens membres de l’Otan (l’Allemagne, la Turquie, l’Italie, la Belgique et les Pays- Bas) et composé d’une centaine d’appareils aériens, de 450 missiles intercontinentaux et d’une composante sous-marine (2/5 de la force de frappe américaine) de 14 SNLE et 50 sous-marins lance-missiles de croisière. 2) La Russie possède 6 372 ogives pour un peu moins de 400 missiles intercontinentaux 8 avec 78 bombardiers et 13 SNLE patrouillant dans le Pacifique Nord, au large du Japon, dans l’océan Arctique et au sud. Mais l’autre fer de lance de la puissance de la Russie demeure ses forces nucléaires tactiques pour l’essentiel implantées sur les frontières des ex-démocraties populaires, face à l’Otan, et sur la rive de l’Amour, face à son voisin chinois 9 . 3) Le Royaume-Uni dispose aujourd’hui de 195 ogives 10 , dont 4 SNLE armés de Trident. Depuis 1992, tout en confirmant son engagement à n’utiliser l’arme atomique qu’en riposte à une attaque nucléaire, le Royaume-Uni a abandonné sa composante aérienne et n’a donc plus que sa force sous-marine. Autre originalité de la Grande- Bretagne, eu égard à la genèse de ses forces nucléaires : le principe de « double clé », qui suppose l’autorisation préalable de Washington quant à l’utilisation en seconde frappe de ses forces. Plus qu’un symbole, les missiles britanniques sont aujourd’hui stockés dans la base américaine de Kings Bay, en Géorgie. 4) La France, troisième puissance nucléaire du globe, dispose de 290 ogives. Sa capacité de dissuasion repose sur 2 composantes, ses forces aériennes (Mirage, Rafale) et ses forces sous-marines, notamment 6 SNA 11 , progressivement remplacés via la politique de modernisation des sous-marins d’attaque, et 4 SNLE dotés chacun de 16 missiles. 5) La Chine dispose aujourd’hui de 320 ogives nucléaires, 140 missiles balistiques ; et sa composante marine, qui était il y a peu dérisoire (un seul SNLE équipé de 12 missiles il y a dix ans), est maintenant de 6 SNLE de la classe 094 (certaines sources donnent 4 SNLE équipés de 12 Ju Lang-2 [Opex] et 2 autres pas encore opérationnels), armés de 12 missiles JL-2. Deux nouveaux sous-marins SNLE viennent d’être construits et, d’ici 2030, Pékin va se doter d’un nombre de SNLE permettant une présence simultanée de 2 à 3 sous-marins en mer, Pékin devant armer un total incompressible de 4 à 6 lots de missiles (pour tenir compte des rotations et de la maintenance), pour un total de 6 à 8 SNLE, ce qui est logique eu égard à l’importance des façades littorales du pays et de sa vocation potentielle à s’implanter dans le Pacifique. 6) L’Inde recenserait 150 ogives, une capacité de frappe potentielle suffisante pour dissuader la Chine et, a fortiori, le Pakistan. New Delhi dispose aussi d’une petite composante sous-marine, 4 SNA prévus, 3 construits et 1 opérationnel, grâce à son partenariat avec Moscou. L’Inde est le seul État avec la Chine, parmi les puissances nucléaires historiques, à poursuivre un programme de construction de SNLE. 7) Le Pakistan possède 160 ogives nucléaires, des missiles à moyenne portée, dans le cadre de sa coopération militaire avec les États-Unis, dont 1 missile de croisière (le Tigre). Le Pakistan possède ainsi des forces nucléaires susceptibles de dissuader un adversaire potentiel, et donc incontournables dans les relations qu’il entretient avec ses voisins indien et chinois. 8) Israël a longtemps disposé d’un arsenal nucléaire caché, pour des raisons politiques évidentes. L’État hébreu disposerait d’une centaine de missiles balistiques, rendant parfaitement crédible une riposte, voire une frappe préventive, en cas d’agression d’un ennemi potentiel comme l’Iran. En outre, Tel-Aviv s’est doté depuis quinze ans d’une flottille de 6 SNA Dolphin qui font d’Israël une puissance navale non négligeable au cœur de la Méditerranée. 9) La Corée du Nord a procédé, le 9 octobre 2006, à son premier tir, à la stupéfaction de maints États de la planète, y compris de son allié chinois, puis à d’autres en mars 2009, en mai 2013, en janvier 2016, le 23 avril 2016 (tir d’un missile depuis un sous-marin), en septembre 2017, et en août 2019. Tout cela en dépit de la multiplication des sanctions économiques décidées par la communauté internationale. L’État nord-coréen disposerait actuellement de 35 ogives. D’autres sources estimaient en 2016 que l’arsenal nord-coréen était entre 10 et 16 bombes atomiques, mais ce chiffre doit aujourd’hui s’élever à 20 à 30 unités 12 . La prolifération nucléaire La prolifération nucléaire reste aujourd’hui la plus grave menace pour la sécurité collective, car étant donné le nombre de nations ayant ou pouvant avoir l’arme atomique, aucun État ou institution internationale à l’heure actuelle n’est en mesure de faire accepter ses décisions ou de faire respecter les traités de non-prolifération (voir infra). À l’heure de la disparition de l’Union soviétique, et donc du système bipolaire, la Commission des Nations unies consacrée à cette question considérait officiellement qu’« une bonne douzaine d’États disposaient de la capacité de fabriquer la bombe atomique », ils sont aujourd’hui le double ! Figurent dans cette liste des puissances d’Europe occidentale, comme la Belgique, l’Allemagne, l’Italie, le Danemark, la Suède, la Finlande, la Norvège ou l’Espagne, qui maîtrisent la technologie mais qui, pour de raisons diverses, refusent de s’y engager. D’autres pays n’ont pas besoin actuellement de la développer car ils bénéficient de la protection du parapluie américain, à l’image du Canada, de l’Australie, de la Nouvelle-Zélande ou du Japon. Mais d’autres, comme l’Iran, les pays moyen- orientaux ou certains pays asiatiques, essaient actuellement ou pourraient essayer à l’avenir de l’obtenir. Le Japon et la Corée du Sud pourraient être tentés d’acquérir à leur tour l’arme nucléaire face à l’hégémonie militaire croissante de la Chine et face au pouvoir de nuisance de la Corée du Nord. La course au nucléaire est par conséquent loin d’être terminée : en 2019, les neuf pays disposant du feu nucléaire ont dépensé 66,5 milliards d’euros pour cette technologie (10 % de plus qu’en 2018). Aujourd’hui encore, les armes atomiques peuvent constituer une grave menace pour la paix et la sécurité internationales, car ce sont des armes de destruction massive dont l’utilisation provoquerait non seulement des dégâts (humain et matériel) incommensurables, mais remettrait en cause la survie même de l’humanité. Le traité sur la non-prolifération 13 (TNP) est plus que jamais menacé (voir infra) et sa crédibilité est réduite depuis l’obtention de l’arme nucléaire par le Pakistan, l’Inde et surtout la Corée du Nord. Le cauchemar du « terrorisme nucléaire » En plus de comporter un fort risque de déstabilisation de l’ordre géopolitique mondial, la prolifération nucléaire comporte également aujourd’hui le risque que des organisations terroristes obtiennent un jour des armes nucléaires, certes rudimentaires, mais au potentiel dévastateur sans précédent. Il y a actuellement deux régions dans lesquelles le risque de prolifération est élevé : le Moyen-Orient et l’Asie du Nord-Est. Certes, la construction d’une arme nucléaire et son utilisation sont très difficilement accessibles à des groupes terroristes. Toutefois, ceux-ci pourraient s’en procurer soit en l’achetant à un État – peu probable –, soit en prenant le pouvoir dans un pays qui la possède, soit en fabriquant des bombes sales 14 après avoir acheté de la matière fissile auprès d’États ex-soviétiques ou trafiquants de ces pays ayant accédé à des stocks. Des armes atomiques du pauvre seront de plus en plus faciles à fabriquer à l’avenir en raison du nombre très élevé de sources radioactives et des contrôles beaucoup trop légers (peu de réglementations sur les vieux stocks de déchets radioactifs). Un rapport d’information du Sénat estime « à plusieurs milliers le nombre de sources radioactives dites “orphelines”, perdues, abandonnées ou volées, dont certaines peuvent présenter un risque important pour la sécurité 15 ». Un autre point sensible à l’avenir concerne le développement accéléré des nouvelles technologies (notamment le cyber) qui rend encore plus incertains et fragiles les systèmes de sécurisation de ces armes. Quid de l’Iran ? La question du programme nucléaire iranien défraya la chronique internationale en 2002, lorsqu’un dissident du régime, Alireza Jafarzadeh, annonça, preuves à l’appui, que Téhéran avait secrètement construit un site d’enrichissement d’uranium à Natanz, au sud de la capitale. Le Président d’alors, Mahmoud Ahmadinejad, confirma lui-même que « l’Iran allait rapidement rejoindre les puissances nucléaires » et que son pays « éradiquerait l’État d’Israël ». Certes, la communauté scientifique iranienne ne manqua pas de souligner que cela concernait le strict domaine du nucléaire civil, via les centrales de Boucheh, sur le golfe Persique, et de Darkhovin, face au Koweït. Mais la « communauté » dite « internationale » n’a jamais été convaincue, même si le passage du nucléaire civil (enrichissement de 3 à 5 % du minerai d’uranium) au nucléaire militaire (enrichissement de l’ordre de 90 %) est loin d’être évident. C’est ainsi que le 14 juillet 2015, à Vienne, à l’initiative du président Hassan Rohani et de son homologue Barack Obama, un accord spécifique a été signé entre Téhéran, les cinq membres permanents du Conseil de sécurité des Nations unies et l’Allemagne. L’accord de Vienne de 2015 sur le nucléaire iranien, appelé Joint Comprehensive Plan of Action (JCPOA), comporte trois volets majeurs : une limitation du programme nucléaire iranien, pendant au moins dix ans, lui interdisant la possibilité de produire du plutonium enrichi, et non, comme on a pu le lire ici ou là, par un démantèlement du programme ; un renforcement des contrôles, via le corps des inspecteurs de l’Agence internationale de l’énergie atomique (AIEA) ; et, en contrepartie, la levée au moins partielle, des sanctions économiques qui avaient été imposées à l’Iran. Bien que le rapport de l’AIEA du 30 août 2017 soulignait que « l’Iran tenait ses promesses et respectait ses engagements en renonçant à poursuivre la construction du réacteur d’Arak et en maintenant son uranium enrichi sous le seuil exigé des 30 kilogrammes », Donald Trump dénonça l’accord le 8 mai 2018. Deux faits conjoncturels sont à relever depuis cette date : l’assassinat, en Irak, le 12 janvier 2020, du général Qassem Soleimani 16 , le chef des forces Al-Qods et des Gardiens de la révolution (Pasdarans), et celui de Mohsen Fakhrizadeh 17 , le père de la bombe atomique iranienne, le 13 novembre 2020, à Absard, dans la province de Téhéran. Parallèlement, entre 2010 et 2019, des infrastructures nucléaires (centrifugeuses) et des réseaux stratégiques iraniens ont été attaqués par le virus informatique Stuxnet 18 ainsi qu’un autre encore plus sophistiqué et violent. Des faits qui montrent la détermination des États-Unis et d’Israël à ne pas accepter l’avancée de l’Iran vers le feu atomique. Certes, le nouveau président américain Joe Biden a promis de réintégrer l’accord. Et les négociations de Vienne, initiées le 6 avril 2021, ont permis de mettre sur la table un projet d’accord, le 20 juin 2021. Toutefois, si un texte est signé par l’administration américaine et le nouveau président iranien, Ebrahim Raeissi – un proche du Guide Suprême jadis hostile à l’accord de 2015, dont l’intérêt immédiat est de sortir son pays de la crise économique terrible – il sera toujours considéré comme un accord de dupes par l’Etat hébreu qui ne croit pas un instant aux engagements et à la parole des dirigeants iraniens. Joe Biden s’est d’ailleurs gardé de promettre de réintégrer les États-Unis dans l’accord de 2015 sans obtenir au préalable que le régime iranien donne des gages de bonne foi, notamment la fin de l’enrichissement de l’uranium à 60 %, seuil pas si éloigné que cela des 90 % qui permettent le passage au nucléaire militaire alors que l’accord limitait à 3,67 % le degré d’enrichissement de l’uranium produit par l’Iran, bien en deçà du seuil de 20 % atteint par Téhéran avant de signer le pacte. L’intention du président Joe Biden de lever les sanctions renforcées par Donald Trump pour que l’Iran soit motivé à renouer avec ses engagements se heurte en effet au caractère presque irréversible de certaines des mesures prises en 2018, notamment l’embargo pétrolier drastique contre Téhéran et l’interdiction de toute transaction avec l’Iran. Biden ne pourra en fait lever une partie des sanctions que si le régime des mollahs renoue avec les engagements de renonciation au nucléaire militaire dont il s’est progressivement affranchi, officiellement pour répondre à la « pression maximale » exercée par l’administration Trump. Toutefois, Téhéran exige en préalable l’abandon de « toutes les sanctions anciennes et nouvelles ». S’ajoute à ces préconditions, en elles-mêmes problématiques, la dénonciation par le régime iranien du sabotage ayant causé la panne du complexe nucléaire de Natanz (indispensable à l’enrichissement de l’uranium iranien) attribué à Israël. En représailles à cet acte de « terrorisme antinucléaire sioniste », les dirigeants iraniens ont décidé de porter l’enrichissement de leur uranium à 60 %, se rapprochant toujours plus des 90 % nécessaires à la fabrication de l’arme nucléaire. Selon certains, Joe Biden aurait tout intérêt à faire revenir l’Iran dans l’accord, mais il court un risque politique s’il se montre trop laxiste car les opposants à l’accord de Vienne pèsent au Congrès et au Sénat. Toujours est-il qu’une des conséquences principales des sanctions renforcées par Donald Trump (« pression maximale ») a été le renforcement de la coopération irano-chinoise qui a franchi un nouveau cap avec l’officialisation d’un accord stratégique de vingt-cinq ans entre les deux pays en mars 2020, un rapprochement que voudrait éviter à tout prix Joe Biden mais qui participe d’une tendance lourde inhérente à la multipolarisation et aux rivalités entre les États-Unis et le tandem russo-chinois 19 . En fait, en cas d’échec des négociations, la potentielle accession à l’arme nucléaire du pays serait extrêmement déstabilisante pour toute la région et sur le plan de la prolifération mondiale : certains pays arabes comme l’Arabie saoudite, ennemie principale de l’Iran, pourraient tenter à leur tour d’obtenir l’arme nucléaire par le biais du Pakistan, avec qui Riyad entretient des liens stratégiques étroits. Par la suite, la Turquie, à la fois liée au Pakistan et à l’Iran, et qui ne cache plus ses ambitions nucléaires militaires, pourrait saisir l’occasion pour lancer son propre programme accéléré. L’Égypte pourrait décider à son tour de relancer son programme nucléaire militaire secret initié dans les années 1980 et 1990, mais à condition de s’émanciper de sa relation privilégiée avec les États-Unis, ce qui est moins probable. Enfin, Israël ne pourrait pas ne pas intervenir militairement pour empêcher l’éventualité, totalement inacceptable, de l’acquisition du feu atomique par Téhéran... Le commerce des armes à l’heure du système postbipolaire Les ventes d’armes restent de manière significative (plus de 90 %) le quasi-monopole des États développés. Le peloton de tête des vendeurs d’armes (commerce officiel s’entend) est ainsi constitué des États-Unis en première position, de la Russie en deuxième, de la France, de l’Allemagne et de la Grande-Bretagne ensuite, mais en fait de l’UE en deuxième place devant la Russie si l’on raisonne en UE 27. Seules, mais avec des volumes de transactions qui restent modestes, quelques nations du Sud émergent, comme le Brésil, ou l’Union indienne, prenant le relais des seconds couteaux de la période précédente, comme la Pologne, la République tchèque ou la vertueuse Confédération helvétique, qui a par ailleurs déclaré la paix au monde et s’est réfugiée dans une stricte neutralité depuis des siècles, ce qui ne l’a pas empêché, sans états d’âme, d’occuper une place dans le top 10 des vendeurs d’armes depuis de nombreuses années. Quant aux clients, on souligne l’affirmation de la prédominance des pétromonarchies islamiques du Golfe, la présence de quelques nations en voie de développement du Sud-Est asiatique et l’arrivée aux tout premiers rangs (démographie oblige) de la Chine populaire et de l’Inde. Depuis les années 2000, la course aux surarmements s’est indéniablement amplifiée : les ventes d’armes et de systèmes d’armes ont crû annuellement de près de 10 % au cours de période 2012-2019. Le cap des 750 milliards de dollars de ventes a été franchi en 2013, et celui des 1 000 milliards en 2018. Ceci en dépit de la signature, en avril 2013, par quelque 131 États, du Traité sur le commerce des armes (TCA), entré en vigueur le 24 décembre 2014 et aujourd’hui ratifié par 110 nations. Son objectif est de « contribuer à réguler le commerce des armes et lutter contre le trafic illicite », visant tous types d’armements classiques, à l’exception des armes nucléaires, chimiques et bactériologiques, concernées par toute une gamme de traités spécifiques (voir infra). Malgré cela, le commerce mondial des armes n’a cessé depuis de s’accroître 20 . En 2019, la hiérarchie établie par l’International Institute for Strategic Studies (IISS) de Londres a montré que le top 5 assume quelque 75 % du trafic mondial : les États-Unis occupent le haut du pavé, avec 33 % des ventes, devant la Russie (23 %), la France (7,9 %), talonnée par la Chine (6 %), l’Allemagne (5,6 %), et la Grande-Bretagne (5,2 %). Une hiérarchie à mettre en parallèle, avec les plus gros budgets nationaux consacrés à la Défense, États-Unis, Russie ou Chine. Guère de surprises... La France est tout de même le troisième exportateur d’armes au monde. D’après le Small Arms Survey (l’annuaire sur les armes légères) et Uppsala Conflict Data Program (programme de collecte de données sur les conflits de l’université d’Uppsala), la valeur totale des transferts internationaux d’armes en 2020 s’élèverait à environ 100 milliards de dollars. Quant au « top 5 » des plus grands importateurs d’armes sur la période 2014-2019, l’Inde, l’Arabie saoudite (qui importe 22 % des ventes américaines d’armes), l’Égypte, l’Australie et l’Algérie ont totalisé ensemble 35 % des importations d’armes. L’Union indienne (13 %) a ainsi désormais dépassé l’Arabie saoudite (8,3 %) en raison des tensions avec les puissances voisines : Chine et Pakistan (voir conflit du Cachemire). L’Arabie saoudite s’arme quant à elle essentiellement face à son voisin iranien. Les Émirats arabes unis (4,8 %) craignent eux aussi l’Iran, mais sont actifs militairement au Yémen contre les djihadistes, en Libye contre les Frères musulmans, et équipent leurs alliés égyptiens et libyens. Avec 4,2 %, la Chine achète les armes qu’elle ne fabrique pas elle-même et s’équipe face aux États-Unis et à leurs alliés d’Asie ainsi que face à l’Inde. L’Algérie (3,5 %) suit et continue quant à elle d’entretenir des relations conflictuelles avec son entourage, notamment le Maroc, et poursuit sa stratégie d’indépendance et de domination militaire du Maghreb. Les crises continuelles au Proche- et au Moyen-Orient, de l’Iran à la Syrie, en passant par l’Irak, la Libye, le Mali ou le Yémen, n’ont fait que renforcer ces tendances. Rappelons que plus de la moitié des exportations d’armes américaines ont été destinées au Moyen-Orient entre 2014 et 2018, et que dans la même période, 59 % des exportations d’armes du Royaume-Uni ont été destinées au Moyen-Orient, la grande majorité des livraisons concernant des avions de combat destinés à l’Arabie saoudite et à Oman 21 . Toujours d’après les estimations de Small Arms Survey, un milliard d’armes à feu au moins seraient en circulation dans le monde, l’écrasante majorité étant possédée par de civils. Au total, depuis 1989, 2 436 351 personnes sont mortes dans des conflits armés, dont 78 000 en 2018, selon l’université d’Uppsala. Ceux qui veulent « supprimer la guerre », abolir les frontières, promouvoir une humanité unifiée et refusent l’idée même d’avoir des « ennemis » professent, certes, de belles idées. Toutefois, les actions de la majorité des États de la planète, y compris les démocraties occidentales, qui donnent des leçons de tolérance politiquement correctes aux « démocratures » du monde multipolaire, mais comptent parmi le top 5 des pays vendeurs d’armes, confirment le fait que les États n’ont ni amis ni bons sentiments mais des intérêts, souvent cyniques... Contrôle des armements ? Désarmement ? Ces deux concepts cohabitent encore volontiers avec le domaine de l’utopie. Le surarmement reste, plus que jamais, comme nous l’avons vu, la règle. Ce constat scelle l’échec cinglant du multilatéralisme et il dément les thèses irénistes de ceux qui ont proclamé, au sortir de la guerre froide, l’avènement de la paix universelle favorisée par le triomphe du modèle libre-échangiste McWorld et de la démocratisation sur le totalitarisme soviétique. L’ombre du nucléaire est plus que jamais présente, et, comme le disait Albert Einstein à son époque : « J’ignore comment sera la troisième guerre mondiale, mais nous avons la certitude, en revanche, qu’il n’y aura pas beaucoup de monde pour voir la quatrième » ! En effet, les traités sont finalement peu respectés, ou contournés ou annulés. Les États-Unis se sont retirés unilatéralement ces dernières années de plusieurs accords internationaux dont celui sur le climat, sur le nucléaire iranien, du traité ABM en 2001 22 , mais surtout, le 1 er février 2019, du traité des armes nucléaires de portée intermédiaire (Intermediate-Range Nuclear Force Treaty, INF) signé en 1987 par Ronald Reagan et Mikhaïl Gorbatchev, grand symbole de la fin de la guerre froide et qui était jusqu’à maintenant un des piliers les plus importants de l’architecture sécuritaire européenne depuis plus de trente ans. Ce traité interdit l’usage de missiles nucléaires d’une portée de 500 à 5 000 km qui sont les armes les plus redoutées et particulièrement dangereuses car réduisant le temps de réaction à une frappe nucléaire à dix minutes au lieu de trente pour des missiles balistiques intercontinentaux, rendant une défense très complexe. Le retrait des États-Unis du traité INF permet de facto un retour en Europe de ces missiles et vient augmenter le risque, certes peu probable, de guerre nucléaire ou néoguerre froide sur le continent européen et encore plus si le traité New Start, précédemment cité, vient lui aussi à être abandonné. La raison officielle est une réaction au déploiement de missiles russes appelés « Novator », qui pourraient frapper jusqu’à 1 500 km (ce qui est démenti par la Russie). Les États-Unis non seulement sortent des traités, mais voient l’arme nucléaire comme un arsenal tout à fait utilisable, par exemple en juin 2019, l’état-major américain a publié, peut-être par erreur, un document intitulé « Nuclear Operations » référencé JP-3-72 qui affirme que « le nucléaire peut s’utiliser comme n’importe quelle munition dès lors que la cible est militaire et qu’obtenir la victoire l’impose 23 »... On peut ajouter à ce constat le fait que Washington a également contourné la règle en implantant en Roumanie le système Aegis doté de lanceurs verticaux de 4 Mk41 de Lockheed Martin qui accueille le missile Tomahawk, lequel peut être armé d’une charge conventionnelle ou nucléaire, sa portée atteignant 2 500 km, donc de quoi frapper une partie de la « Russie utile ». Le maigre bilan de décennies de désarmement Le thème du désarmement est loin d’être une affaire récente : les Pères de l’Église déjà, à l’aube du christianisme, avaient décidé, aux conciles de Nicée et de Clermont, de mettre « hors la loi les armes les plus cruelles ». L’Église catholique a poursuivi cette action, en prônant l’application (sous peine d’excommunication) de la « trêve de Dieu », des journées où il était formellement interdit de combattre. Plus tard, en 1648, au lendemain de la guerre de Trente Ans, les négociateurs du traité de Westphalie ont évoqué l’officialisation des concepts de « désarmement régional » et d’« équilibre affiché des forces ». En 1899, la conférence de La Haye propose « l’arbitrage obligatoire », et en 1919, les Alliés ratifient la création de la Société des Nations, et sur les « quatorze points » de son pacte, dit « de Wilson », trois concernent ce souhait d’en finir avec l’utilisation de la guerre comme instrument privilégié de résolution des contentieux. Mais les résultats obtenus par la SDN, c’est le moins que l’on puisse écrire, seront cruellement dérisoires... À la fin des années 1950, après l’échec cinglant des plans de désarmement général et complet (sic), les armes nucléaires vont devenir l’objet majeur, jusqu’au milieu des années 1990, des principales négociations, notamment dans le cadre des discussions bilatérales américano-soviétiques. Les accords et les traités ne vont certes pas manquer : le but recherché par les deux grands, à cette époque, est d’obtenir des autres nations un engagement de renonciation à l’acquisition d’armes nucléaires. En termes de contrôle des armements, la stabilité stratégique impliquait que les deux superpuissances disposent de capacités militaires « essentiellement équivalentes », comme le soulignait la fameuse doctrine Kissinger : une équivalence n’impliquant pas l’égalité absolue de chacun des deux partenaires dans les différents secteurs des systèmes d’armes. Et, jusqu’en 1985-1986, chacun, de facto, s’est renforcé dans le système où son adversaire lui paraissait le plus menaçant. Les exemples d’accords et de traités n’ont certes pas manqué depuis 1965-1985. Parmi eux, on peut citer une vingtaine de traités multilatéraux, à portée théorique indéniable, mais aux conséquences concrètes plus que modestes. Leurs objectifs étaient d’éviter la militarisation, nucléaire ou non, de certaines zones ; de geler ou limiter le nombre et les aspects qualitatifs des vecteurs d’armes nucléaires ; de restreindre les essais ou systèmes d’armes ; de prévenir la dissémination de certaines armes parmi les États ; d’interdire différents moyens de guerre ; de faire observer le droit international dans les conflits armés et de notifier préalablement des activités militaires... Citons notamment : a) Des accords destinés à éviter la militarisation de certains environnements : la convention sur la modification de l’environnement du 5 octobre 1978 (31 signataires) qui interdit « l’utilisation à des fins hostiles de techniques susceptibles de modifier substantiellement l’environnement ». Mais la manipulation dudit environnement par le canal de techniques utilisables dans le cadre d’opérations militaires « tactiques » a échappé à cette interdiction ; le traité de désarmement sur le fond des mers et des océans du 18 mai 1972 (70 signataires) qui interdit de placer des armes nucléaires sur les fonds marins au-delà d’une zone de 12 milles mais pas d’installer sur ces mêmes fonds marins des bases de maintenance des systèmes d’armes nucléaires mobiles. b) Des accords destinés à éviter la prolifération nucléaire : le plus célèbre est le TNP du 5 mars 1970 (114 signataires), qui visait à interdire les transferts d’armes nucléaires par les États dotés de ces armes et leur acquisition par ceux qui en sont dépourvus. Cela pour éviter le détournement des matières fissiles destinées à des fins civiles vers la fabrication d’engins explosifs. Ce traité sera très vite sapé de facto, tant par la politique des fournisseurs de produits nucléaires que par le non-respect des obligations de désarmement contractées par les puissances dotées d’armes atomiques. c) Des accords destinés à interdire la fabrication de certains types d’armes : la convention sur les armes biologiques du 10 avril 1972, entrée en vigueur le 26 mars 1975 (92 signataires), qui prohibe la recherche, le développement, la fabrication et l’usage de ces armes ! la convention sur l’interdiction de l’utilisation de certaines armes conventionnelles, signée le 10 avril 1981, portant sur les systèmes d’armes « jugés excessivement pernicieux ou aux effets indiscriminés » ; Parmi les accords portant sur la limitation des essais nucléaires, on peut citer notamment : le traité d’interdiction partielle des essais, d’octobre 1967 (112 signataires), qui interdit les essais nucléaires dans l’atmosphère, l’espace extra-atmosphérique et sous l’eau. Ce traité a contribué à réduire la pollution radioactive provoquée par les explosions nucléaires, mais n’impliquait pas les essais souterrains ; le traité sur l’espace extra-atmosphérique du 10 octobre 1967 (82 signataires) qui interdit la mise en orbite autour de la Terre des armes de destruction massive... mais qui laisse l’espace libre quant au déploiement des autres systèmes d’armes ! le traité sur la limitation des essais souterrains, signé le 2 juillet 1974, qui limite la puissance explosive des armes nucléaires à 150 kt. Un seuil si élevé que les principaux États concernés ont pu le signer sans réserve tout en poursuivant sereinement leurs programmes de développement ! e) Des accords destinés à éviter la militarisation, conventionnelle ou nucléaire, de certaines zones géographiques : contrairement aux précédents, leurs bilans se sont parfois révélés positifs. Il s’agit, tout d’abord, du traité de l’Antarctique. Un précurseur, signé dès le 1 er décembre 1959, entré en vigueur le 23 juin 1961 (21 signataires) et actualisé à Versailles (108 signataires) en décembre 1991. Les États s’engagent « à ce que le continent antarctique soit exclusivement utilisé à des fins pacifiques », disposition d’autant plus significative que le continent recensait un nombre particulièrement élevé de bases militaires, eu égard à sa localisation éminemment stratégique. Mais le plus riche en enseignements demeure le traité de Tlatelolco, signé en avril 1968 par 22 États latino-américains 24 , qui, pour la première fois, établit une zone dénucléarisée dans toute une région habitée du globe, l’Amérique latine. Le protocole 1 du traité souligne « que les États n’appartenant pas à l’Amérique latine seront tenus de maintenir leurs territoires localisés dans cette zone exempte d’armes nucléaires ». La Grande-Bretagne, à cette date, et la France, avec son département de Guyane, sont visées. Logiquement, quatre nations latino- américaines susceptibles de se doter du nucléaire militaire et qui ont d’ailleurs émis des projets dans ce sens ne signent pas : Cuba (exclue de l’OEA depuis la révolution castriste), le Chili, l’Argentine et le Brésil. Les accords bilatéraux de Salt I et Salt II La décennie 1970 va s’illustrer par la signature de deux accords bilatéraux majeurs, Salt I et son avatar Salt II 25 , qui induisent non pas un désarmement mais une limitation. Salt I, signé le 26 mai 1972, par le président des États- Unis, Richard Nixon, et le numéro un de l’Union soviétique, Leonid Brejnev, portait sur la limitation des systèmes de missiles antibalistiques. Il stipulait que les États-Unis et l’URSS « déclarent leur intention commune d’arriver à la date la plus proche possible à l’arrêt de la course aux armes nucléaires ». Si les articles 1 et 2 imposent effectivement une réduction d’un type particulier de défense et gèlent le nombre total des vecteurs, le traité n’impose aucune restriction quant à l’amélioration qualitative des armes nucléaires, ni au nombre d’ogives équipant chaque missile... Rappelons que dès 1974 et la rencontre bilatérale de Vladivostok, les Russes vont moderniser leur arsenal en mettant sur pied des engins balistiques marvés, puis mirvés 26 . Et les Américains, tout en désarmant leurs missiles ABM-1, vont se lancer, entre 1974 et 1977, via le complexe militaro-industriel, dans une R&D de plus en plus sophistiquée. Comme l’écrivait le général Pierre Marie Gallois, « la période immédiatement postérieure à la signature de Salt 1, présenté comme un grand pas vers le désarmement, a vu les Américains passer de quelque 8 000 ogives à plus de 20 000 et les Russes en faire autant portant leur arsenal de destruction à distance de 2 600 à 26 500 27 ». Les États- Unis et l’Union soviétique, loin de désarmer tout en feignant le contraire, avaient cent fois plus d’équipements que nécessaire pour exercer une dissuasion et ils étaient en mesure de raser mutuellement des centaines de fois leurs grandes villes, bref une course aux armements coûteuse devenue irrationnelle... Ces premières négociations ont largement contribué à renforcer des créneaux de production de plus en plus élaborés, au grand bénéfice du complexe militaro-industriel américain, d’une part, et du complexe militaro-bureaucratique soviétique, d’autre part. Compte tenu de l’obligation d’établir un bilan quinquennal de l’application concrète du traité, le successeur de Salt I, nommé logiquement « Salt II », sera négocié et signé à Vienne, le 18 juin 1979, par Jimmy Carter et Leonid Brejnev. Face à la dérive décrite plus haut, et suite aux multiples critiques émises notamment au sein des Nations unies, voire aux États-Unis eux-mêmes, les négociateurs de Salt II vont s’efforcer de travailler sur le nombre total d’ogives équipant de facto les véhicules porteurs 28 . Tout cela aurait effectivement pu aboutir à de probants résultats si Salt II était entré en vigueur... On le sait, en vertu de la Constitution américaine, c’est le Sénat qui autorise ou pas la ratification des traités internationaux signés par le Président, ce qui est loin d’être évident, surtout quand la majorité sénatoriale n’émarge pas au parti du Président. La majorité républicaine refusa alors au démocrate pacifiste Jimmy Carter la ratification de Salt II pour, une fois encore, des motivations de pure géographie électorale interne. La période 1985-2020 : du contrôle des armements au concept de désarmement, Start I, Start II, Start III et New Start Dans un contexte d’implosion de l’Union soviétique, trois traités illustrent la période : Start l, Start II, et Start III (New Start). Pour récapituler, Start I (Strategic Arms Reduction Treaty) porte non sur la limitation d’armes stratégiques défensives, mais sur la réduction des armes stratégiques offensives. Il est signé à Moscou le 31 juillet 1991 par Mikhaïl Gorbatchev et George H. Bush, et entre en vigueur le 5 décembre 1994, pour une durée initiale de quinze ans. Très ambitieux, Start I envisageait de réduire le nombre d’ogives stratégiques déployées de 10 000 à 6 000 unités pour chacun des signataires. Le bilan dressé à la fin de la période s’avère indéniablement plus modeste : on passe de 9 986 ogives américaines à 8 556 et de 10 237 russes à 7 449... Quant à Start II, signé le 3 janvier 1993, par George H. Bush et le successeur de Gorbatchev, Boris Eltsine, président de la nouvelle-née fédération de Russie, il prévoit la réduction des deux tiers des arsenaux stratégiques. Ratifié par le Sénat américain en janvier 1996, mais seulement en avril 2000 par les Russes, Start II ne sera jamais appliqué ! La suite n’est pas plus brillante en termes de réussite : le 24 mai 2002, George W. Bush et Vladimir Poutine signent le traité Sort (Strategic Offensive Reduction Treaty), ratifié le 8 mars 2003, qui confirme les trois phases de Start I, projette un nombre total d’ogives déployées à l’horizon 2012 compris entre 1 800 et 2 000 ogives, mais annule Start II ! Enfin, Start III (généralement appelé « New Start ») est signé le 8 avril 2010, à Prague, par Barack Obama et Dmitri Medvedev. Il envisage une réduction de la capacité opérationnelle des deux camps à 1 550 têtes nucléaires. Il n’englobe pas les armes tactiques, limitant le nombre de lanceurs nucléaires stratégiques déployés à 700. Notons cependant que les États-Unis, en 2018, ont soutenu que pour le rendre plus crédible, l’accord Start III devrait inclure la Chine. Toutefois, Pékin, qui considère que son arsenal est encore bien trop inférieur à celui de Moscou ou Washington, a refusé d’y participer. Son expiration, le 5 février, a été source de tensions entre Washington et Moscou. En octobre 2020, les États-Unis avaient souhaité que la Russie gèle son arsenal nucléaire, une demande bien évidemment jugée « inacceptable » par le Kremlin 29 . Toutefois, fin 2020, Américains et Russes semblaient s’être mis d’accord sur la possibilité d’un gel « conjoint » du nombre de têtes nucléaires, d’autant que Joe Biden a toujours été favorable aux traités de non-prolifération. Les traités multilatéraux Le dernier tiers de siècle s’est aussi illustré par trois traités majeurs, l’accord de Washington de 1987, celui de Paris de 1990 et le traité CTBT de 1996. L’accord de Washington : signé entre les États-Unis et l’URSS le 18 septembre 1987, à la suite des rencontres de Reykjavik, qui portait sur le démantèlement progressif des forces nucléaires « intermédiaires », c’est-à-dire, par convention, à portée inférieure à 5 500 km. Certes, mais ce type d’armes (bien malencontreusement baptisées « euromissiles », au prétexte que les rampes de missiles russes basées sur le flanc occidental de l’Oural pouvaient menacer les principales capitales européennes) est en réalité singulièrement composite. Il regroupe les « Forces nucléaires intermédiaires » (FNI), à savoir tous les missiles de portée comprise entre 1 000 et 5 500 km ; les « FNI à plus courte portée » (entre 500 et 1 000 km) ; et les « Forces nucléaires intermédiaires à portée la plus courte » (SNI), c’est-à- dire inférieure à 500 km. L’accord de Washington laissait de côté ces derniers, ainsi que l’artillerie nucléaire tactique et les systèmes basés à terre. Or, à cette époque déjà, rien n’empêchait techniquement d’équiper des sous-marins nucléaires de missiles de croisière. Bref, les accords de Washington ont permis le démantèlement de 7 à 8 % des forces nucléaires des 2 superpuissances. Le sommet de Paris, novembre 1990 : il mérite d’être qualifié d’événement de première importance au chapitre du contrôle des armements, 35 chefs d’État ou de gouvernement étaient présents, dont l’ensemble des chefs d’État européens, le président des États-Unis et son homologue canadien. Le Traité d’interdiction complète des essais nucléaires du 24 septembre 1996 (TICN ou CTBT pour les anglophones), qui interdit les 4 types d’essais nucléaires : atmosphérique, extra-atmosphérique, sous- marin et, fait nouveau, souterrain. Les 5 puissances membres permanents du Conseil de sécurité de l’ONU le signent. L’Union indienne s’abstient. Mais pour qu’il puisse entrer en vigueur, ce traité doit être ratifié par les 44 pays possédant des réacteurs nucléaires. Le 6 avril 1996, Londres et Paris sont les 2 premiers membres du Club nucléaire à le ratifier, après que la France a procédé, en 1995, à 8 ultimes essais dans le Pacifique sud (voir supra). En 2019, 183 États l’avaient signé et 28 ratifié. Parmi les 44 nations directement concernées, 3 ne l’avaient toujours pas signé, l’Union indienne, le Pakistan et la Corée du Nord ! Et 5 l’avaient signé mais pas ratifié, Israël, l’Égypte, l’Iran, les États-Unis et la Chine de Pékin. Aux États-Unis, le Sénat en a rejeté la ratification en 1999. Depuis, aucune administration n’a jamais réussi à faire ratifier le CTBT... En revanche, en 2000, Vladimir Poutine, alors bien disposé vis-à-vis de l’Occident, fit ratifier par la Douma non seulement le traité Start II, en souffrance depuis 1992, mais également le CTBT, signé en 1996, renvoyant ainsi la responsabilité d’une nouvelle course aux armements aux États-Unis. Relance de la course aux armements sur fond de néoguerre froide... Comme nous le rappelions dans le chapitre IV, les États-Unis, prisonniers d’une vision diabolisante de la Russie, assimilée à un clone de l’URSS totalitaire, et donc d’une représentation stratégique du monde héritée de la guerre froide, ont violé l’Acte fondateur Otan-Russie de 1997 qui impliquait de ne pas faire intégrer dans l’Alliance les pays de l’ex-pacte de Varsovie. Au lieu d’œuvrer à une alliance « panoccidentale » qui aurait donné toute sa place à la Russie face aux menaces communes, notamment chinoise et islamiste, les stratèges de Washington et les élites de McWorld n’ont eu de cesse d’exclure la Russie de l’espace occidental et de poursuivre l’encerclement du Heartland russe par les manœuvres de stationnement et d’extension, toujours plus vers l’est, des forces de l’Otan, jusque dans « l’étranger proche » russe : Pays baltes, Roumanie, Pologne, ex-Yougoslavie, Bulgarie, sans oublier la ligne rouge ukrainienne évoquée plus haut. Cet élargissement sans fin de l’Otan vers l’est et le soutien américano- occidental aux rébellions et oppositions antirusses en Géorgie, Ukraine, Kirghizistan ont contribué à rendre la Russie bien plus hostile encore envers l’Occident qu’elle ne l’était à la fin de la guerre froide. Cette stratégie visant à encercler la Russie et la priver de l’accès aux Mers chaudes puis à tenter de compromettre l’élargissement de son marché gazier ouest-européen est, depuis le milieu des années 2000 (guerre d’Irak, révolutions de « couleurs » ou de « velours » en Ukraine et Géorgie, etc.), un véritable casus belli pour Moscou. En réaction, la Russie poutinienne a renforcé sa coopération avec tous les ennemis de l’Occident : Chine, Corée du Nord, Venezuela, Iran 30 ... La conséquence directe de cette nouvelle guerre froide, dramatique pour la sécurité collective et pour la vieille Europe prise en tenailles, a été le retrait, à l’initiative des États-Unis, de nombreux accords de non-nuisance, de traités de non-prolifération (nucléaire et balistique) et de non-dissémination (armes conventionnelles) qui a permis à Washington, dans le cadre d’une véritable relance de la course aux armements, de retrouver des marges de manœuvre non seulement vis-à-vis de la Russie, mais aussi de la Chine. Cette dernière n’étant en fait contrainte par aucun traité de désarmement passé ou présent, le développement massif de son armement nucléaire, balistique et conventionnel ne souffre plus d’aucune limite... D’évidence, ces retraits américains des grands traités de désarmement et de contrôle des armes, suivis des réponses russes équivalentes sur fond de tensions en Ukraine, au Moyen-Orient et en Syrie, ont rendu plus probables que jamais des conflits entre les deux anciens grands du monde d’avant, y compris nucléaires. Ce retour redouté des conflits interétatiques concerne au premier chef l’Europe, théâtre d’interposition majeure entre la Russie et les forces atlantistes, mais également le Proche-Orient (armées russes et américaines se faisant face en Syrie), la mer Baltique, la mer de Chine et l’Asie en général (continent comptant le plus grand nombre de pays dotés de l’arme nucléaire : Chine, Taiwan, Corée du Nord, Corée du Sud, Pakistan, Inde). Ainsi, on notera qu’à peine un mois après la décision de Donald Trump de retirer les États-Unis du traité sur les forces nucléaires à portée intermédiaires (FNI), en août 2019, Washington a procédé à l’essai d’un missile balistique de moyenne portée qui a atteint sa cible après plus de 500 km de vol et qui n’a pas manqué de faire réagir la Russie comme la Chine, laquelle a dénoncé la recherche systématique de supériorité militaire par les États-Unis au risque d’une relance de la course aux armements dans le monde 31 . À partir de 2010, les États-Unis ont ainsi mis en place par le biais de l’Otan une véritable architecture globale de défense antimissile balistique en Europe (BMDE), couvrant cette fois tous les territoires des pays européens de l’Otan et qui, au passage, encercle la Russie, bien que prétextant être dirigée vers l’Iran... Ce système est objectivement destiné à rendre une frappe russe en retour impossible en cas d’une première frappe nucléaire de l’Otan. En 2014, il a été poursuivi et amélioré par les Américains qui ont ensuite utilisé l’annexion de la Crimée comme prétexte pour implémenter des systèmes de détection radar de défense aérienne supplémentaires et des destroyers. La course aux armements est donc loin d’être stoppée, car en réponse, les Russes développent leurs systèmes de défense : un des exemples les plus importants et inquiétants concerne les missiles hypersoniques Avangard, à la pointe de la technologie. Testé en 2018 et mis en service le 27 décembre 2019 (juste au moment de l’abandon du traité FNI), ce missile est extrêmement performant, évoluant à une vitesse moyenne de Mach 20 (le maximum étant Mach 27, tandis que les missiles guidés traditionnels évoluent aux alentours de Mach 5), et pouvant délivrer des charges nucléaires d’une puissance de 2 Mt 32 ... Autre particularité, ils sont capables de voler à une altitude anormalement basse (rasage) qui rend la détection difficile et trop tardive pour une réaction. Ils peuvent ainsi détruire les missiles intercontinentaux ennemis directement dans leurs silos, remettant en question l’efficacité même de la défense de l’Otan. Ce système a rendu Vladimir Poutine particulièrement fier du fait que « personne d’autre que nous n’a d’armes hypersoniques »... Précédemment, la Russie a également mis au point un missile balistique intercontinental du nom de Satan 2 ou « RS-28 Sarmat », très furtif et qui serait capable de détruire un territoire comme la France en quelques secondes. Washington se prépare à un affrontement direct contre la Russie, et cela de manière officielle, comme en témoigne le programme d’exercice « Defender 2020 », qui avait pour but de simuler l’attaque d’un des pays de l’Otan. Pour cela, 37 000 soldats dont 20 000 Américains étaient attendus pour un budget de 315 millions d’euros, chiffre qui a finalement été considérablement réduit en raison de la pandémie de la Covid-19 (6 000 soldats américains). Cependant, cela met clairement en lumière les objectifs de Washington : afficher leur domination sur l’Europe et leurs menaces à l’égard de la Russie. Toutefois, en se concentrant sur « l’ennemi russe », l’Otan semble oublier la Chine, pourtant beaucoup plus menaçante, à terme, d’un point de vue géocivilisationnel, économique et stratégique, que la Russie. Les forces armées américaines pourraient en effet être dépassées dans quelques dizaines d’années par la Chine en cas de conflit dans le Pacifique. Ce déclassement est favorisé par la priorité américaine accordée au Moyen-Orient et à la Russie. De plus, la plupart des bases militaires américaines du Pacifique ouest manquent d’infrastructures de défense et sont vulnérables. Enfin, il ne faut pas oublier que la Chine nucléaire possède aussi l’armée la plus vaste au monde avec plus de 2 millions de soldats opérationnels (et 800 000 réservistes) et un budget de la Défense presque trois fois supérieur à celui de la Russie (172 milliards d’euros contre 64). En outre, elle a fortement investi dans les missiles balistiques de haute précision. Même si la puissance militaire américaine dispose encore d’une bonne marge de sécurité, dans un monde en évolution très rapide, les rapports de force peuvent évoluer de façon surprenante. De plus, la Chine développe elle aussi les armes hypersoniques, les outils de guerre informatique ou l’intelligence artificielle, domaine dans lequel elle aurait quasiment déjà atteint l’égalité avec les États-Unis et les aurait peut-être même déjà dépassés, notamment l’informatique quantique. 1. Projet de recherche qui produisit la première bombe atomique durant la Seconde Guerre mondiale. 2. Statista Research Department, « Worldwide number of nuclear tests from 1945 to 2020 », 1 er décembre 2020. 3. Missile balistique intercontinental américain à ogive nucléaire. 4. Bombe nucléaire à hydrogène développée par l’Union soviétique, pesant 57 Mt, considérée comme la bombe la plus puissante ayant été créée (aujourd’hui abandonnée). 5. Le souffle de l’explosion balayerait tous les bâtiments sur 3 000 km² et les radiations thermiques s’étendraient sur 17 000 km² ; les morts s’élèveraient (pour Paris) à 7 millions, in « Voici l’étendue des dégâts si une bombe nucléaire Tsar frappait Paris », L’Express, 3 avril 2015. 6. Sous-marins nucléaires lanceurs d’engins. 7. Hans M. Kristensen et Matt Korda, « Status of World Nuclear Forces », Federation of American Scientist, septembre 2020. 8. Sénat : « L’évolution de l’arsenal nucléaire russe », Désarmement, non-proliférations nucléaires et sécurité de la France, rapport d’information, 19 janvier 2021. 9. En plus des SNLE, l’arsenal naval nucléaire comporte des lanceurs de missiles de croisière (SSGN) : BGM109 Tomahawk pour les États-Unis, SS-N-19 pour la Russie et nom inconnu pour les Chinois. Les États-Unis ont cinquante sous-marins SSGN, le Royaume-Uni et la France en ont aussi. Les BGM109 sont à double capacité : conventionnelle et nucléaire. On peut y ajouter les missiles de croisière lancés à partir de plates-formes aériennes. 10. Hans M. Kristensen et Matt Korda, « Status of World Nuclear Forces », art. cit. 11. Sous-marins nucléaires d’attaque. 12. « Corée du Nord : Le difficile accès à la dissuasion », Défense et sécurité internationale, n o 121, février 2016, p. 21. 13. Traité entré en vigueur en 1970 visant à empêcher la prolifération des armes nucléaires, à favoriser l’utilisation pacifique de l’énergie nucléaire et à faire progresser l’objectif du désarmement nucléaire. 14. Bombes mêlant des explosifs classiques et éléments radioactifs comme ceux utilisés en médecine ou déchets radioactifs. 15. « Des caractéristiques dangereuses pour la sécurité internationale », rapport d’information du Sénat, 19 janvier 2021. 16. Général iranien commandant de la Force Al-Qods, unité d’élite des Pasdarans, était très populaire en Iran. 17. Physicien, général des Pasdarans et haut responsable dans le programme nucléaire iranien, tué le 27 novembre 2020. 18. Ver informatique conçu par la NSA avec l’unité israélienne 8200 dans le cadre de l’opération Olympic Games. 19. Le « pacte de coopération stratégique » signé le 27 mars 2021 à Téhéran. 20. Le TCA fixe des interdictions pour mettre fin aux transferts d’armes, de munitions et d’articles associés entre États, notamment si l’on soupçonne qu’ils sont utilisés pour commettre ou faciliter des crimes contre l’humanité ou de guerre. 21. Entre 2014 et 2019, de 4 100 véhicules blindés ont été livrés à l’Arabie saoudite par l’Autriche, le Canada, la France, la Géorgie, l’Afrique du Sud et la Turquie, et 338 tanks par les seuls États-Unis. La France a livré quant à elle 1 389 véhicules blindés de combat à l’Arabie saoudite. 22. Traité qui limitait les systèmes antimissiles balistiques, retrait présenté par George W. Bush comme une première étape vers un bouclier de défense antimissiles destiné à protéger les États-Unis et ses alliés. 23. « Du danger pour l’Europe de la stratégie nucléaire des États-Unis et de l’OTAN », Capital, 30 mai 2020. 24. L’accord distingue entre l’énergie nucléaire à but militaire, condamnée, et l’énergie nucléaire civile, encouragée pour contribuer à la croissance et au développement des États concernés. 25. Salt est l’abréviation de l’anglais Strategic Arms Limitation Talks (« négociations sur la limitation des armes stratégiques »). 26. Missiles marvés : missiles dotés de plusieurs ogives nucléaires programmées sur un même objectif. Missiles mirvés : missiles dotés de plusieurs ogives nucléaires programmées, chacune sur des objectifs différents. 27. Source : conversations entre Jacques Soppelsa et le général Pierre Marie Gallois rapportées dans son site web. 28. Un plafond de 10 ogives pour les missiles balistiques et de bombardiers et de 14 ogives pour les missiles de sous-marins. 29. « Qu’est-ce que le New Start, ce traité qui ravive les tensions entre Washington et Moscou ? », Le Monde, 14 octobre 2020. 30. Michel Geoffroy, La Nouvelle Guerre des mondes, op. cit. 31. Michel Cabirol, « Pourquoi les États-Unis sont sortis du Traité sur les forces nucléaires à portée intermédiaire », La Tribune, 23 août 2019. 32. César Frezat, « La Russie à l’avant-garde des missiles hypersoniques », note du Cerpa, avril 2019. CHAPITRE IX Le crime organisé : grand gagnant de la mondialisation ! « S’il n’y a pas de banque, il n’y a pas de blanchiment ; s’il n’y a pas de blanchiment, il n’y a pas de crime. C’est une équation qu’il faut bien avoir en tête. » Éric Vernier « Actuellement, l’économie a besoin de l’argent sale pour fonctionner. » Noël Pons Accélérée à la fin des années 1980, la mondialisation marchande, avec ses trois volets (libre circulation des biens, des personnes et de l’argent), ses effets en termes de dérégulation, d’ouverture des frontières et de migrations de masse, a nettement contribué à l’internationalisation et à l’intensification du crime organisé. Cette accélération a été portée par trois facteurs liés entre eux : l’extension du marché des drogues sur l’ensemble de la société occidentale ; la nécessité d’acheminer cette drogue depuis le producteur jusqu’aux principaux pays consommateurs séparés par des milliers de kilomètres ; l’émergence des paradis fiscaux et sociétés off-shore devenus des centres financiers recyclant des capitaux illégaux issus de ces trafics parasitaires et nocifs. Cette internationalisation a étroitement suivi les vagues successives de la mondialisation anglo-saxonne avec ses abolitions de contrôles sur les frontières et les échanges financiers. La criminalité transnationale organisée (CTO) est devenue un acteur géopolitique incontournable, certes non étatique, hybride, illégal, mais qui détient une telle puissance qu’il peut parfois faire plier des États et corrompre leurs décideurs, leurs fonctionnaires et leurs forces de l’ordre. Les pays les plus faibles sont les plus exposés, mais le péril est global, car les flux d’argent sale et les stupéfiants pointent presque tous vers les riches économies du Nord qui sont les plus gros marchés et qui possèdent les grandes banques et paradis fiscaux les plus sûrs. Le souci premier des CTO est, une fois leurs marchandises illicites vendues, de faire rentrer l’argent sale dans l’économie légale. Dans une société toujours plus mondialisée et interconnectée, les possibilités ont exponentiellement augmenté jusqu’à offrir aux mafias l’occasion d’ériger de véritables multinationales du crime où toutes les activités rentables – en plus de la drogue – sont les bienvenues. Là aussi, l’idée de la « mondialisation heureuse » trouve de sérieuses limites : les mafias aiment par-dessus tout les accords de libre-échange, l’ouverture des frontières, les déréglementations, le capitalisme mondialisé et même l’économie digitale. Aujourd’hui, leurs activités comprennent, outre la production et la vente de drogues, les trafics d’armes, d’êtres humains/migrants, la prostitution, l’élimination des déchets toxiques, le vol de matériaux, le braconnage, le trafic d’œuvres d’art, d’animaux, ou toute autre activité illégale, y compris les trafics d’organes et le cybercrime. D’après l’expert Éric Vernier, qui a croisé les statistiques de l’ONU, du FMI, du Groupe d’action financière sur le blanchiment de capitaux (Gafi) et d’ONG spécialisées, la richesse dégagée annuelle des mafias au niveau mondial avoisinerait 2 000 milliards de dollars par an. L’expert Jean de Maillard 1 parle ainsi de « produit criminel brut » (PCB). La comparaison avec les économies légales est vertigineuse, car les réseaux criminels représenteraient alors la « huitième puissance mondiale » et seraient membres du G8 s’ils étaient un État ! Le PCB des mafias est supérieur au PIB de pays comme l’Italie ou le Brésil (1 800 milliards de dollars), et comparable à celui de la France (2 100 en 2019), ou même du continent africain tout entier 2 , soit près de 2 % du PIB mondial 3 . À noter qu’Eurostat a demandé aux pays de l’UE d’inclure dans le calcul de leur PIB les recettes de la drogue et de la prostitution 4 ... Quant à l’argent sale en général, si l’on inclut dans ce chiffre global l’argent sale « noir » du crime, « l’argent gris » des petites fraudes ou de l’argent facile, les abus de biens sociaux, les faux bilans et les détournements de fonds non liés aux mafias, il équivaut à 7 000 milliards de dollars chaque année, soit 10 % du PIB mondial. Les détournements de fonds publics représenteraient environ 2 600 milliards, soit 5 % du PIB mondial 5 . En France, la seule fraude à la sécurité sociale drainerait chaque année des dizaines de milliards vers des pays africains. La Cour des comptes française a d’ailleurs estimé cette fraude entre 20 et 25 milliards d’euros par an 6 . Les principaux responsables du blanchiment de masse et de l’argent sale présents sur le marché restent toutefois et de loin les organisations criminelles de grande envergure (mafias, cartels), notamment grâce au trafic de stupéfiants. Blanchiment : la mondialisation financière et le capitalisme dérégulé, des opportunités pour le crime organisé D’après Rhoda Weeks-Brown, conseillère directrice du département juridique du FMI, le blanchiment d’argent représenterait entre 1 600 et 4 000 milliards de dollars par an, soit 2 à 5 % du PIB mondial ou près de 3 000 milliards en moyenne ou 10 milliards de dollars par jour, dont 600 milliards chaque année rien que pour le trafic de stupéfiants 7 . Selon la définition du Gafi, le blanchiment de capitaux consiste à « retraiter des produits d’origine criminelle pour en masquer l’origine illégale, de manière à légitimer des biens mal acquis ». Tout trafic ou activité illégale d’envergure nécessite à un moment ou à un autre d’être blanchi, recyclé dans l’économie légale, afin que les organisations criminelles puissent l’utiliser. La méthode classique consiste à créer des entreprises qui perçoivent l’argent illégal et le transforment en gain légal transférable dans des institutions bancaires officielles. Les pays où l’argent est blanchi sont d’abord ceux ayant des législations fiscales et réglementations bancaires particulières et/ou utilisant le secret bancaire. Une fois les fonds entrés dans le système financier, ils « sont réintroduits dans des activités économiques légitimes (immobilier, produits de luxe, création d’entreprises) », processus facilité par les nouveaux moyens de paiement, la libéralisation et la dérégulation des marchés financiers. Il serait en effet naïf de croire que les criminels sont de simples délinquants analphabètes, car les personnes en charge des comptes et du blanchiment dans ces organisations sortent souvent des meilleures écoles. Ils connaissent donc parfaitement le système bancaire et les façons de procéder pour blanchir l’argent grâce aux moyens légaux, via des techniques de plus en plus complexes (que ce soit à réaliser comme à démanteler). C’est grâce au blanchiment que les organisations criminelles perdurent, faute de quoi elles ne pourraient pas réinvestir. « Dans de nombreux pays, elles possèdent des secteurs entiers de l’économie. Les fonds qu’elles détiennent seraient d’au moins 4 000 milliards de dollars ». Le blanchiment de capitaux permet à la criminalité organisée d’acquérir ou de contrôler des pans entiers de l’économie par ses investissements. Si l’on compare les moyens humains et financiers des organisations criminelles à ceux des organismes de lutte, on se rend compte que le combat est inégal : les mafias regroupent bien plus de monde et surtout des sommes d’argent beaucoup plus importantes... À titre d’exemple, le budget de Tracfin (organisme de lutte contre le blanchiment international) est de quelques millions d’euros seulement, somme dérisoire comparée à celles des mafias. Le trafic de drogue, entreprise presque aussi lucrative que le pétrole ! En se référant aux données de la production de drogue dans le monde fournies par l’United Nations Office on Drugs and Crime 8 (UNODC) et Europol, on évalue le revenu mondial annuel du trafic de drogue entre 600 et 1 000 milliards de dollars. La production de la seule cocaïne aurait atteint le niveau record de 1 976 tonnes en 2017. « La drogue représenterait la 3 e économie du monde, après le pétrole et l’alimentation, devant les ventes d’armes (dont une partie est vendue en contrebande). Avec un chiffre d’affaires d’environ 1 000 milliards de dollars, le commerce de la drogue est de surcroît très rentable, puisque les bénéfices atteindraient la moitié de cette somme avec 80 % blanchis 9 . » Pour la distribution, le plus grand marché identifié est sans surprise l’Amérique du Nord, qui absorbe à elle seule 44 % des ventes, suivie par l’Europe, avec 33 %. Ceci nous rappelle qu’il n’y a pas de vente de drogue sans consommateurs, notamment dans les pays riches, et que la demande en Occident découle aussi d’une culture de l’addiction et de l’hédonisme inhérente aux antivaleurs véhiculées par McWorld et les stars ou antimodèles du show-biz. Pour ce qui est de l’Europe, le marché de la drogue a été estimé à 30 milliards d’euros en 2017, selon Europol 10 , le marché du cannabis détenant la première position, avec le Maroc comme premier fournisseur. Le même organisme international a recensé 5 000 groupes criminels internationaux organisés sévissant dans des pays de l’Union européenne, plus d’un tiers d’entre eux se livrant au trafic de drogue 11 . Le trou noir narco-islamiste afghan Depuis l’invasion soviétique (années 1980) et les guerres civiles de 1980-1990, jusqu’à la montée en puissance des talibans en 2000, l’Afghanistan est devenu la capitale mondiale de l’opium. La culture du pavot s’y est imposée très tôt (1950), comme une source de revenus importante pour les paysans, car facile à cultiver, peu consommatrice d’eau, et donc très rentable (bien plus que le blé). L’Afghanistan est le premier producteur d’opium, avec 90 % de la production mondiale. Selon l’ONUDC, la moitié des revenus des talibans (voire 65 %) en proviendrait. L’emploi et la sécurité que les talibans ont apportés à la population grâce au trafic leur ont permis de gagner le soutien de celle- ci, notamment la partie rurale pachtoune. L’ONUDC a estimé que les groupes terroristes et insurgés ont recueilli environ 150 millions de dollars en 2016 grâce au commerce afghan d’opiacés, et aux taxes prélevées sur la culture du pavot. Le Pakistan, par sa proximité avec l’Afghanistan, connaît de gros problèmes de santé publique liés à la consommation de stupéfiants : l’héroïne y est la drogue la plus consommée avec une forte augmentation chez les adolescents. Idem en Iran, où le ministère de l’Intérieur a annoncé en 2018 que 3 % de la population était dépendante. Par ailleurs, 75 tonnes d’héroïne arriveraient chaque année en Russie 12 , où l’impact est également très fort, de même dans les pays d’Asie centrale, au Tadjikistan par exemple, où le trafic venant d’Afghanistan générerait environ 2,7 milliards de dollars par an, ce qui en fait une source de revenus bien plus importante que les activités légales. Sur la route du nord qui relie l’Afghanistan au marché européen opèrent des organisations criminelles qui utilisent des voitures de luxe avec des cachettes sophistiquées et impossibles à détecter, même avec des scanners ultraperformants de dernière génération fournis par les États-Unis. Ainsi, en 2019-2020, à la suite d’opérations policières entre plusieurs pays, ces gangs, basés notamment à l’est de la Turquie, ont fait passer de l’héroïne afghane à travers l’Iran, l’Asie centrale, la Russie, la Pologne et l’Allemagne avec pour destination finale les Pays-Bas. Une véritable multinationale fonctionnait dans tous ces pays en s’appuyant sur les diasporas turques de Hollande. C’est ainsi qu’en 2019, une saisie record a été effectuée au Kazakhstan avec plus d’une tonne d’héroïne dissimulée dans des grosses plaques de marbre livrées depuis une usine iranienne. Aujourd’hui, le bilan est plus que catastrophique : les talibans reviennent sur le devant de la scène par l’accord historique signé le 29 février 2020 à Doha avec les États-Unis, après une guerre de près de vingt ans menée pour les éliminer... Cet accord est la marque du profond échec américain dans la région qui se double d’un gâchis de 800 milliards de dollars. Cet accord engage les Américains à retirer progressivement leurs troupes présentes dans le pays, ce qui constitue un véritable danger pour le Gouvernement et le peuple afghans, car il acte que les talibans sont redevenus assez puissants pour négocier avec Washington et qu’ils pourraient, par la suite, revenir en force sur la scène politique du pays. Des pourparlers pour un nouvel accord ont débuté le 12 septembre 2020 13 , les talibans espérant avoir les mains libres avant l’automne 2021, date à laquelle les troupes américaines devraient avoir entièrement quitté le pays, si Joe Biden ne revient pas sur cette décision de Donald Trump. Le gouvernement afghan serait alors à la merci des talibans, qui contrôlaient déjà 80 % du pays en juillet 2021. Géographie du crime organisé Bénéficiaires nets de la mondialisation marchande, les groupes criminels et mafieux, qui gèrent des territoires et quartiers défendus si besoin par les armes – tout en étant connectés à des réseaux mondiaux d’approvisionnement et d’exportation –, sont les champions de la « glocalisation » (alliage de mondialisation et de local). Ils savent s’adapter à n’importe quel changement socio-économique et peuvent modifier le système en place en faveur de leurs intérêts. Ils instaurent des méthodes de gestion sophistiquées et des logistiques internationales et locales performantes qui permettent d’acheminer les marchandises criminelles sur des dizaines de milliers de kilomètres. La mondialisation a permis d’étendre le crime organisé sur les cinq continents, avec son lot de violence, de corruption et de déstabilisation sociale. L’Europe occidentale elle-même n’a pu échapper à certaines formes de criminalité organisée et territorialisée, dans de nombreux quartiers de non-droit et de contre-société qui vivent de facto sous le contrôle de narcopouvoirs locaux. À l’échelle globale, les zones les plus criminogènes se situent dans les milieux les plus défavorisés, nomment d’Amérique centrale (Salvador, Honduras, Mexique, Haïti...), du Sud (Brésil, Bolivie, Pérou), du Caucase, des Balkans, d’Asie centrale (Afghanistan, Ouzbékistan, Tadjikistan) et d’Asie du Sud-Est, mais également de l’Afrique (Nigeria, Somalie, Maroc, etc.). Les mafias et autres organisations criminelles ont d’ailleurs tout intérêt à maintenir la population de leurs territoires dans la pauvreté et l’illettrisme afin d’augmenter leur pouvoir d’attraction et leur emprise. On le voit par exemple en Amérique du Sud, où la culture de la coca (comme le cannabis au Maroc) permet à des centaines de milliers de paysans de survivre 14 . Les pays de l’Est européen ne sont pas en reste : les organisations criminelles y sont particulièrement développées (Kosovo, Albanie, Russie, Bulgarie, Serbie, Monténégro, Turquie). La drogue qui entre aux États-Unis transite par les Caraïbes, l’Amérique centrale, les Andes. Les trois principales productions ont longtemps été situées dans le Croissant d’or (Pakistan, Iran, Afghanistan) et le Triangle d’or pour l’opium (Birmanie, Thaïlande, Laos) et la Ceinture blanche pour la cocaïne (Colombie, Bolivie, Pérou, Équateur, Brésil). Aujourd’hui, c’est l’Afghanistan qui concentre la majorité de la production mondiale de l’héroïne. Toutefois, la zone de consommation est essentiellement, en termes de valeur, l’Europe occidentale et l’Amérique du Nord. Les produits stupéfiants naturels sont nombreux, mais la légalisation du cannabis dans certains endroits (Espagne, Pays-Bas, Californie) a donné lieu à un développement de la production d’amphétamine, d’opioïdes, d’ecstasy ou d’autres drogues de synthèse fabriquées dans des laboratoires clandestins extrêmement mobiles. Afin d’échapper aux saisies, les trafiquants modifient donc sans cesse des composants, souvent légaux, avant de les utiliser comme psychotropes. Ces drogues sont très souvent vendues au moyen du Darknet et produites en masse en Chine, notamment, dont les réseaux criminels bénéficient d’une grande partie des délocalisations et sous-traitance de productions chimiques occidentales, créant ainsi une distinction compliquée entre drogues et médicaments... L’Asie du Sud-Est est d’ailleurs aujourd’hui l’épicentre du trafic mondial de drogue de synthèse, avec un chiffre d’affaires de plusieurs dizaines de milliards de dollars par an provenant de laboratoires clandestins. La production de drogue est telle que, même avec les saisies records de ces dernières années, les trafiquants sont toujours capables de remplacer leurs marchandises pour agir efficacement sur l’offre. Les organismes de détection et de répression ne doivent donc plus mesurer leur succès aux quantités de drogue saisies, mais plutôt au nombre d’organisations et de groupes criminels transnationaux spécialisés dans le trafic de drogue démantelés. Or, il faut pour cela recourir à des méthodes de plus en plus sophistiquées, développer une masse critique de connaissances de base et veiller à l’échange d’informations opérationnelles entre les organismes de détection et de répression et les unités spécialisées de différents pays. Par ailleurs, le « modèle économique » des groupes criminels organisés évolue, et ils se transforment en réseaux de plus en plus indépendants et difficiles à contrer. Ils ont même souvent une longueur d’avance sur les États, dont l’évolution des procédures judiciaires et des lois est bien plus lente que la capacité d’adaptation des mafias. De plus, les moyens pour le transport des marchandises sont de plus en plus sophistiqués : les groupes criminels transportant leurs drogues par des « narco-sous-marins », des drones, des bolides et porte-conteneurs sont de plus en plus difficiles à détecter. Certains ont par exemple été interceptés en Espagne avec 3 tonnes de cocaïne en 2019 15 , et d’autres opérations antidrogue ont même permis de saisir plus de 5 tonnes de stupéfiants dans un sous-marin artisanal au large du Panamá... Mafias italiennes Les mafias italiennes constituent un véritable phénomène en Europe parce que ces OCT, qui bénéficient de complicités d’une partie des populations les plus défavorisées et des classes politiques du sud de l’Italie, sont les plus anciennes, les plus enracinées et les plus popularisées. Ces organisations sont aussi fort très présentes au niveau international et pour elles, l’ouverture des frontières inhérentes à l’espace Schengen a été une véritable aubaine, tout comme l’ont été en général la mondialisation et la libre circulation des biens, des personnes et des services chères aux responsables européens. À l’origine, le phénomène était purement local et territorialisé, toutefois, après 1945, les mafiosi ont largement profité de l’immigration massive d’Italiens aux États-Unis, en Amérique latine, en Europe, en Australie et au Canada, pour étendre leur réseau criminel à l’échelle planétaire. La plus célèbre, Cosa nostra, pur produit de la mondialisation anglo-saxonne dans sa version moderne, s’est implantée aux États-Unis, au Canada et en Italie pour y régner sur le crime, avant d’être remplacée ces dernières décennies par des mafias italiennes concurrentes calabraise et napolitaine : la Camorra en Campanie, la N’dranghetta en Calabre (la plus puissante et la plus traditionnelle). La Sacra corona unita des Pouilles et la Stidda en Sicile sont plus récentes, mais elles sont bien moins puissantes que les pieuvres napolitaine et calabraise. Selon le criminologue Francesco Calderoni, professeur à l’Università Cattolica del Sacro Cuore de Milan et chercheur au Transcrime (centre de recherche sur le crime international), le montant annuel des gains de ces mafias serait de 10,7 milliards d’euros par an, soit 0,7 % du PIB italien. L’extorsion de fonds demeure, avec la drogue, l’activité principale. La Camorra et la N’dranghetta engrangent aujourd’hui les plus hauts revenus, avec respectivement 3,3 et 3 milliards d’euros annuels, et ces mafias ont dépassé de loin la Cosa nostra sicilienne, désormais moribonde après avoir été presque vaincue par l’État italien suite aux excès du parrain Toto Riina et à sa folle tentative de défier l’État par le terrorisme, ce qui a provoqué une série de dénonciations de « repentis » et des représailles judiciaires sans précédent dans les années 1992-1997. Elles totaliseraient 68 % des activités mafieuses en Italie. On a recensé depuis toujours les ingérences de la mafia dans la politique italienne, surtout dans la partie sud de l’Italie. D’après l’Autorité nationale anticorruption (Anac 16 ), le secteur le plus touché par la corruption est celui des travaux publics, suivi de la gestion des déchets, très prisé par les mafias calabraise et napolitaine, qui les enterrent illégalement dans le sol italien 17 ou ailleurs comme dans les pays de l’Est. D’après le rapport sur la corruption de l’ONG Transparency International 18 , l’Italie, avec 51 points sur 100 et classée 51 sur 198, fait partie des pays les plus corrompus d’Europe. Depuis des décennies, même des villes du Nord comme Turin ou Milan, de tradition non mafieuse, ont été investies par les mafias du Sud, surtout la N’dranghetta. Ceci dit, la mondialisation marchande, couplée à la généralisation de la consommation de drogues dures et douces en Occident depuis la révolution libertaire de 1968 et l’intériorisation, par les jeunes, des codes des stars du pop, a offert d’immenses marchés aux autres mafias qui se sont multipliées au point que les clans italiens ont été concurrencés par ceux venus des Balkans (mafias serbes et surtout albano-kosovares), du monde turcophone (clans turcs et kurdes), du Caucase (Tchétchènes, Géorgiens et Arméniens), d’Asie (triades chinoises), d’Afrique (mafias nigérianes) et, bien sûr, d’Amérique latine (narcocartels colombiens et surtout mexicains). Mafias albanaises Les mafias albanaise et kosovare sont en progression constante depuis trois décennies en Europe et dans le monde. Favorisées par la mondialisation et la chute du communisme soviétique et yougoslave, elles se sont développées dans les années 1980-1990 avec l’ouverture des frontières et l’éclatement de l’ex-Yougoslavie, fruits des interventions militaires américaines (1992-1999). Quelques années plus tard, en 2007, l’indépendance officielle du Kosovo – déjà séparé de facto de la Serbie depuis lors – a permis le renforcement du crime organisé transnational albanophone dans tout le monde occidental à partir de ses bases ethnogéographiques balkaniques (Kosovo, Macédoine, Albanie, sud-est du Monténégro ou « Croissant balkanique »). Ces clans mafieux prospèrent parmi les diasporas albanophones d’Europe essentiellement implantées en Grèce, en Italie, en Suisse, en France, en Allemagne, en Belgique, ou en Autriche, ainsi qu’en Amérique du Nord. Ils sont « spécialisés » dans le trafic d’êtres humains, de drogue et d’organes (héroïne et cannabis), la prostitution industrielle, les cambriolages et les braquages 19 . Ces activités généreraient un « chiffre d’affaires » annuel de plusieurs milliards de dollars 20 . Composées de familles ou clans qui fonctionnent par les liens du sang et leur code d’honneur, le Kanun (vendettas intergénérationnelles, loi du silence), ces organisations sont très imperméables (peu de repentis) et aussi caractérisées par une extrême violence, bien plus encore que les mafias géographiquement proches et rivales de Serbie ou du sud de l’Italie qu’elles ont concurrencées, voire parfois éradiquées dans certaines zones (Suisse, notamment). Ladite mafia albanaise – en réalité composée de clans autonomes albanais, kosovars, macédoniens et monténégrins – s’est principalement étendue après la quasi-guerre civile survenue en Albanie en 1997, à la suite d’une grave crise financière, puis consécutivement à la guerre du Kosovo (1998-1999), de nombreux Albanais d’Albanie et d’ailleurs ayant obtenu un statut de réfugié politique en prétendant être des Kosovars victimes des Serbes (ils l’étaient vraiment parfois). Les flux de migrants albanais qui ont étoffé les diasporas ont constitué des terreaux de recrutement et des bases de rackets et de trafics 21 pour les clans mafieux qui ont profité de l’ouverture des frontières intereuropéennes. La manne des éventuels fonds structurels européens fait également rêver. Cette expansion de la criminalité organisée albanophone en Occident a été sans contexte accentuée par le rapprochement des Balkans avec le reste de l’Europe (échanges commerciaux, candidature à l’euro et à l’UE, accords dans le cadre du voisinage de l’UE, adhésions de l’Albanie à l’Otan...), puis par le fait que des clans mafieux ont trouvé un appui au plus haut sommet de l’État kosovar, lui-même dirigé par les anciens cadres de l’organisation albanaise UÇK (Ushtria Çlirimtare e Kosovës, Armée de libération du Kosovo), groupe paramilitaire terroriste lié aux réseaux criminels albanais. D’évidence, ces organisations voient la perspective de l’entrée – à terme – de l’Albanie dans l’Union européenne comme une véritable aubaine car cela permettrait de libéraliser les flux de biens, de personnes et de capitaux, et de rendre encore plus aisés les acheminements de stupéfiants et les trafics d’êtres humains. Du point de vue des services de sécurité européens, le Kosovo – créé entre 1999 et 2007 avec l’appui américano-atlantiste –, État jamais reconnu par la Russie, la Serbie, l’Espagne et d’autres pays membres de l’ONU, peut être considéré depuis sa création comme un État mafieux, à l’instar de certains États fédérés mexicains aux mains des cartels. Rappelons seulement que l’ancien président du Kosovo, Hashim Thaçi, ainsi que d’autres fondateurs de cet État sont directement issus du « Groupe de Drenica 22 », l’ex-UCK, organisation terroriste séparatiste elle-même liée à la mafia albanaise. Ce fait a été établi par la Cour pénale internationale de La Haye pour les crimes en ex-Yougoslavie 23 (CPIY). D’après un document du rapporteur du Conseil de l’Europe, Dick Marty, l’UÇK aurait en effet été impliquée dans maintes activités criminelles (trafics de drogue, de cigarettes et d’organes) comme dans l’accaparement des grands secteurs de l’économie kosovare 24 . Le trafic de drogue (héroïne et cannabis) est la principale activité des clans albanais. Pour l’héroïne, la source d’approvisionnement majeure est aujourd’hui l’Afghanistan (via la Turquie et les Balkans), les destinations et marchés de prédilection étant les pays d’Europe de l’Ouest. Les Balkans jouent en fait le rôle de plaque tournante obligée des drogues acheminées depuis l’Asie centrale vers l’Occident, via l’Italie et la Suisse, principaux pays d’accueil et de passage des diasporas albanophones. En plus d’être leaders pour la distribution, l’Albanie et le Kosovo sont également aujourd’hui d’importants producteurs de cannabis à destination de l’UE, concurrençant ainsi le narco-État marocain. En témoigne l’augmentation en Italie des saisies de cannabis en provenance d’Albanie, passées de 42 tonnes en 2016 à plus de 90 tonnes en 2017 25 , ce qui reflète l’intensification du trafic sur l’ensemble de la mer Adriatique. D’après le rapport d’Europol 2019 sur le trafic de drogue, les mafieux albanais sont également devenus des acteurs clés du trafic et de la distribution de cocaïne, jadis quasi monopolisés par les cartels latino- américains en collaboration avec les mafias italiennes pour l’acheminement vers l’Europe. En avril 2019, une importante opération d’Europol 26 menée en coopération avec la France, la Belgique, l’Italie et les Pays-Bas, a ainsi permis l’arrestation, pour trafic de drogue, d’êtres humains et blanchiment d’argent, de plus de 60 membres de clans albanophones. Autre indice révélateur de leur expansion vers l’Europe, notamment la France, le nombre d’Albanais et de Kosovars dans les prisons françaises a bondi de 340 % entre 2011 et 2017 27 . Le dernier événement médiatisé en date concerne une guerre de clans kosovars débutée en 2013, qui s’est notamment soldée par l’assassinat d’un homme à Frasses (Suisse) et par la mort de 23 autres et des dizaines de blessés au Kosovo 28 . Les cartels d’Amérique centrale Les narcos ont été les grands bénéficiaires de l’ouverture des frontières – chère aux démocrates américains et aux ONG immigrationnistes – et des traités de libre-échange des années 1990 (Nafta) inhérents à la mondialisation anglo-saxonne. Cinq principaux cartels 29 mexicains contrôlent de vastes zones où ils sont souvent capables de commander aux gouverneurs des États fédérés. Le cartel de Sinaloa, par exemple, contrôle toute la partie nord-ouest du Mexique. Il s’est taillé une solide réputation grâce à son célèbre leader El Chapo et à sa violence extrême qui n’a souvent rien à envier à Daesh, avec plus de 200 000 morts sur une période comparable de onze ans et la terreur permanente provoquée par les démembrements et les décapitations... Avant d’être arrêté en février 2014 aux États- Unis, ce parrain était devenu le principal acteur du trafic international de cocaïne, profitant d’un pacte avec le Gouvernement qui consistait en l’injection de narcodollars dans l’économie mexicaine légale en échange de protection. Le trafic de stupéfiants illicites aux États-Unis, en Europe et en Asie lui rapportait un chiffre d’affaires annuel de 3,5 milliards de dollars 30 . On sait qu’à partir de 1995, il y a eu un changement dans les relations entre pouvoir légal et cartels lorsque la politique économique a mis les institutions publiques au service des marchés internationaux, ce qui a abouti simultanément à la décentralisation du pouvoir légal et à la régionalisation des cartels. On a alors assisté à un renversement du pouvoir au profit des groupes criminels qui ont su profiter du système capitaliste-libéral en se faisant reconnaître comme des entrepreneurs privés, autrement dit des multinationales du crime contribuant au développement économico-social du pays... Il en a été de même pour tous les grands cartels du pays, qui se sont constitués et renforcés par des alliances avec les autorités politiques. « Les narcos font des affaires et partagent leurs profits avec les politiques ; les politiques disposent du monopole de la légitimité et redistribuent une partie des profits des narcos pour l’entretien de leurs clientèles sociales sous forme d’aides personnalisées informelles ou de services publics 31 . » Ils sont devenus si puissants et indispensables que tout le monde en profite : les trafiquants, leurs « alliés » politiques, les banquiers blanchisseurs, les entrepreneurs et commerçants, leurs employés directs, ainsi que les paysans qui cultivent les plantes et leurs familles. Le profit injecté dans l’économie légale permet même d’assurer la croissance du PIB et de réduire en partie la pauvreté dans un pays dont le taux de précarité est déjà très élevé. Le cartel Nouvelle Génération de Jalisco, qui contrôle principalement la région de Tierra Caliente, au Mexique, est par exemple un expert de la distribution de drogues synthétiques sur le continent et entretient des liens étroits avec les marchés asiatiques de la drogue. « 60 à 80 % de la cocaïne consommée aux États-Unis y entre par la frontière mexicaine ; 50 à 70 % de la consommation de marijuana des États-Unis et 20 à 30 % de l’héroïne 32 . » Au niveau des différents cartels et gangs répertoriés, 19 sont considérés comme d’envergure nationale avec des ramifications aux États-Unis, et 5 d’ampleur internationale (cartels du Golfe, de Juárez, de Sinaloa, de Tijuana et de Valencia). Le narcotrafic serait l’employeur direct de près de 400 000 personnes au seul Mexique 33 . Même avec nombre de leurs membres et dirigeants derrière les barreaux, les organisations sont toujours actives et gèrent les trafics depuis leur prison. « La famille la plus puissante, la famille Félix Arellano, aurait contrôlé près de 70 % de la cocaïne transitant à travers le monde », écrit Éric Vernier. Dans la même zone, on peut retrouver les maras, présents au Salvador et Honduras principalement. Dans certains territoires, les narcocartels ont acquis un tel pouvoir politique qu’ils y redistribuent eux-mêmes les richesses et y choisissent les candidats aux élections 34 . Ils parviennent à recycler leurs profits dans des activités légales où ils contraignent propriétaires et entrepreneurs à leur céder des titres. Ils développent ainsi en quasi-impunité leurs activités d’enlèvement contre rançon, de trafic de stupéfiants, d’armes et de migrants, ces derniers étant transformés en passeurs de drogue. Les cartels assurent souvent eux- mêmes l’ordre public en prenant la place de l’État, contrôlant les polices locales et installant des barrages de contrôle routier... Récemment, on a pu se rendre compte de l’incroyable puissance des cartels mexicains lors de la tentative d’arrestation du fils d’« El Chapo », qui a débouché sur un affrontement à l’arme de guerre entre le cartel et les forces mexicaines, soldé par huit morts, une quinzaine de blessés et la libération du prisonnier par le Gouvernement 35 . On peut aussi citer l’attaque contre le chef de la police de Mexico, Omar García Harfuch, miraculeusement réchappé après qu’une douzaine d’hommes armés de grenades et de fusils d’assaut ont pris pour cible sa camionnette blindée 36 . Les cartels ont depuis quelques années commencé à créer des enclaves autonomes dans une explosion de violence qui s’apparente à une guerre contre l’État mexicain. Le cartel de Sinaloa, par exemple, aurait exécuté à lui seul plus de 30 000 personnes en vingt ans... La carte de la violence au Mexique montre non seulement des niveaux élevés de perception de l’insécurité – qui, au cours de l’année 2020, a atteint 64,5 % de la population et dans les zones urbaines 73,7 % –, mais aussi une augmentation réelle de 16 % du taux de victimes de la criminalité. Entre 2007 et 2018, le nombre d’homicides a plus que doublé, passant d’un taux de 9,3 homicides pour 100 000 habitants à 21,1 en 2018. À elle seule, l’Amérique latine concentre environ 36 % de l’ensemble des homicides dans le monde. Dans nombre d’États fédérés mexicains, les cartels se substituent à l’État, fournissant des aides à la population en échange de leur soutien. En pleine crise de la Covid-19, on a pu ainsi voir apparaître publiquement en star et patriarche Nemesio Oseguera Cervantes, El Mencho, le chef du cartel de Jalisco. Ce parrain a fait construire son propre hôpital privé pour ne pas avoir à se rendre dans une institution publique, la population locale pouvant elle aussi avoir accès à ces services, ce qui rappelle Pablo Escobar se faisant construire sa propre prison. Les cartels sont les grands gagnants de la pandémie, car la crise du coronavirus leur a donné une nouvelle emprise sur les populations, en leur conférant de facto le statut d’organisation de charité, de pourvoyeur de nourriture, de médicaments ou de matériel de protection dont les Mexicains manquaient. Aujourd’hui au Mexique, la confiance de la population en l’État est rompue, la violence extrême s’est démocratisée et la peur s’est installée. Toutes les solutions mises en place pour endiguer le crime ont échoué. Dans ce pays désormais failli ou plutôt gangrené, soit on négocie avec les narcos et on accroît la corruption, soit on les réprime et on accentue la violence. Le lien entre force de l’ordre et narcos est d’ailleurs désormais ancré dans la structure même du système politique du Mexique. Mafias russophones Profitant de la troisième vague de mondialisation qui a été permise dans les années 1980 par la fin de l’ex- URSS, le crime organisé en provenance de l’espace ex-soviétique, très différent des mafias précitées, et bien plus lié aux affaires et grandes sociétés, s’est propagé grâce à la libre circulation des biens, des personnes et des services bien au-delà des frontières de l’ex-URSS : Europe de l’Ouest, États-Unis, Méditerranée orientale, et même jusqu’en Australie. De puissants réseaux et groupes russophones – souvent non russes ethniquement – y ont blanchi leurs capitaux, illégalement acquis dans le cadre du pillage de la Russie postsoviétique dans un contexte de libération anarchique (époque de Boris Eltsine). Les domaines sont surtout l’hôtellerie de luxe, la restauration et les investissements immobiliers. Selon Interpol, 40 % du PIB russe serait contrôlé par des groupes criminels indigènes. Mikhail Orskii, écrivain et ancien chef d’un groupe criminel dans les années 1990, déclarait récemment, dans une interview au journal Moskovskii Komsomolets, qu’aujourd’hui, 431 « chefs mafieux » ou « voleurs dans la loi » sont en action, dont des Géorgiens (242), des Russes (51), des Arméniens (30), des Yézidis (26), des Azerbaïdjanais (16), des Abkhazes (10), des Tchétchènes (8), et des Israélites, ce qui permet de relativiser le terme générique abusif de « mafias russes 37 ». Des réseaux du crime organisé russe et géorgien sont régulièrement démantelés par la police espagnole dans les régions de la Costa Brava et de la Costa del Sol, la Catalogne étant une zone privilégiée en raison des proximités avec le paradis fiscal d’Andorre et la France. C’est ainsi qu’en décembre 2020, suite à une enquête policière qui a duré sept ans, l’opération Testudo, les forces de police espagnoles ont arrêté 23 personnes liées aux réseaux mafieux russes, qui opèrent dans les villes d’Altea, Alicante, Finistrat, Ibiza, Madrid et Valence 38 . Dans son livre sur le crime organisé russe 39 , Mark Galeotti explique que, « dans l’ensemble, la pègre russe n’est pas définie par des structures hiérarchiques comme la mafia italienne ou le yakuza japonais, mais par un écosystème souterrain complexe et varié ». Galeotti indique qu’il existe six à douze groupes russophones de type mafieux structuré. Certains sont simplement définis par des intérêts communs (Solntsevo), ou par une culture, une religion ou une langue commune (Tchétchènes, Géorgiens, etc.). D’autres sont ancrés autour d’individus (groupe de Tariel Oniani), ont une orientation territoriale précise (Saint-Pétersbourg, Tambovskaya ou l’Association des voleurs d’Extrême-Orient), ou sont dominés par des activités criminelles spécifiques, comme les routes de contrebande. On peut citer également le carrefour criminel des « Ukrainiens », qui opèrent à travers la frontière russo-ukrainienne. La plupart des réseaux mafieux plus vastes qui couvrent une région sont essentiellement confinés dans des zones particulières, comme le gang Uralmash d’Ekaterinbourg, aujourd’hui. Les groupes mafieux des villes de plus grande taille sont dominés par des Azéris et des Géorgiens – comme le célèbre Tariel Oniani (« Taro »). Beaucoup se livrent au racket de protection, fournissant ce que l’on appelle krysha – un « toit » – aux entreprises et aux particuliers résidant sur « leur territoire ». Les pots-de-vin et les « raids » (saisie d’actifs au moyen de faux documents et de fausses réclamations juridiques) sont en pleine hausse. Certains de ces gangs sont également actifs dans le trafic de drogue, la contrefaçon ou l’esclavage moderne. À la différence des cartels mexicains ou albano- kosovars, il n’existe pas de preuve d’ingérence mafieuse dans le pouvoir politique, sauf à des niveaux inférieurs. Par contre, le Kremlin utilise souvent ces groupes criminels comme des instruments secrets dans le cadre de liens de corruption et de missions spéciales. Bien que le niveau de violence ait spectaculairement chuté depuis les années 1990, en grande partie en raison de la pression de l’État, les meurtres contre rémunération, les extorsions et les règlements de compte violents (les razborka) restent des activités essentielles des gangs. Mafia nigériane Parmi les organisations criminelles africaines, la mafia nigériane offre l’exemple le plus abouti d’une internationalisation du crime via les flux migratoires. Les organisations mafieuses nigérianes sont apparues depuis des décennies en Afrique, et plus récemment en Europe, dans le cadre d’une « division internationale du travail » criminel. Cette mafia est née au début des années 1980, après la crise pétrolière, ressource clé du pays, qui a conduit les groupes au pouvoir à rechercher le soutien de criminels pour conserver leurs privilèges, à la suite de la baisse du cours du baril. Ainsi protégée, la criminalité nigériane a pu développer ses trafics, aidée non seulement par le soutien d’une partie du monde politique du pays mais aussi par le contrôle limité que l’État exerce sur le vaste territoire national. Présentes dans de nombreux pays (Allemagne, Espagne, Portugal, Belgique, Roumanie, Royaume-Uni, Autriche, États-Unis, Croatie, Slovénie, République tchèque, Hongrie, Ukraine, Pologne, Russie, Brésil, Malte et Italie), les mafias nigérianes sont actives dans l’héroïne, la cocaïne, la mendicité et la prostitution au sein des communautés diasporiques nigérianes ou africaines du monde entier. Aux côtés de Black Axe (ou la « Hache noire »), on peut citer la Supreme Eiye Confraternity (la « Confrérie suprême Eiye »). Ces noms se sont progressivement frayé un chemin dans le lexique des polices européennes pour prendre place aux côtés de ceux d’autres organisations mafieuses. Sur leur terre d’origine, ces entités connues de longue date ont pris diverses formes avant de tremper dans la criminalité. Comme les autres groupes mafieux, la Black Axe est organisée en une structure pyramidale qui utilise l’intimidation et la violence pour s’implanter, son activité principale – et celle des mafias nigérianes en général – étant la prostitution industrielle, fortement développée par le biais des trafics des migrants reconvertis en trafics d’esclaves sexuels internationaux. Le centre névralgique nigérian de cette traite est Benin City, situé dans l’État d’Edo, au sud du Nigeria, plaque tournante de la prostitution, d’où de nombreuses filles sont envoyées à l’étranger pour se prostituer, souvent sans le savoir au départ. Ainsi, des milliers de jeunes Nigérianes – plus nombreuses encore que les Roumaines et les Albanaises – font le trottoir en Italie et partout dans les villes européennes, après avoir été achetées à des familles pauvres, à qui on fait miroiter des études en Europe. La logistique de leur acheminement, via la Libye, notamment, est organisée par des correspondants de la Black Axe dans les différents pays de transit. Une fois sur le sol italien, elles sont séquestrées et brutalisées. Leurs proches restés au pays sont menacés de mort si la filière est dénoncée par les filles dont les papiers sont confisqués. La mafia nigériane a établi des règles en Italie et en Europe : refusant l’usage d’armes à feu, elle assoit son autorité par la machette et la hache (Black Axe signifie « Hache noire »), et agit en Italie, dans la région de Naples, notamment, en sous-traitant de la Camorra. Le trafic de drogue est aussi prisé par cette mafia qui offre des tarifs encore plus bas que les organisations concurrentes. Elle développe d’ailleurs de plus en plus les drogues de synthèse qui envahissent l’Afrique 40 . Selon les statistiques du ministère italien de l’Intérieur, des dizaines de milliers de migrants africains arrivés en Italie depuis le début de la crise migratoire libyenne (2011-2015) – dont beaucoup de Nigérians – forment ainsi la première communauté de demandeurs d’asile en Italie, avec 83 870 requêtes. La justice italienne s’inquiète non seulement d’un rapprochement entre les organisations criminelles nigérianes et les pieuvres italiennes classiques, mais aussi de la collaboration d’ONG internationales humanitaires promigrants clandestins et des passeurs acheminant la main-d’œuvre des mafias nigérianes. Un sujet tabou pour maints politiques européens adeptes du mythe de l’immigration bonne par nature. Le 18 novembre 2016, 23 Nigérians soupçonnés d’appartenir à la Hache noire étaient arrêtés par la direction antimafia de Palerme. Ils étaient accusés d’avoir fait entrer illégalement de jeunes Africaines – acheminées clandestinement depuis la Libye vers l’île de Lampedusa avec l’aide active des ONG promigrants clandestins – et de les avoir forcées à se prostituer. Parmi eux se trouvait, selon la police italienne, le « ministre de la Défense » de l’organisation, Kenneth Osahon Aghaku. Là n’est pas le seul clin d’œil à l’État : cette mafia nigériane est souvent formée d’anciens militaires, lesquels reversent une sorte de loyer à la Camorra de Naples. Celle-ci lui « loue » un territoire, notamment les 20 000 logements, immeubles et villas construits illégalement dans les années 1960 par le clan mafieux local des Casalesi. À Castel Volturno, en Campanie (Naples), on peut aujourd’hui croiser des centaines de prostituées esclaves nigérianes dont les « passes » démarrent à 5 euros... Ici, on ne parle plus de prostitution, mais bien de trafic d’êtres humains et d’esclavage. Cette organisation, bien moins médiatisée que les vieilles mafias italiennes, est étonnamment très peu dénoncée, les filles exploitées ne parlant pratiquement jamais en raison de la peur extrême de subir des violences de la part de leurs proxénètes et surtout pour éviter les représailles sur leur famille restée au Nigeria. La raison du silence médiatique et politique sur cette mafia est aussi due au fait que sa dénonciation impliquerait celle de l’immigration clandestine, aujourd’hui dépénalisée... La France, les quartiers de non-droit ou la loi des caïds Assimilables à des zones non souveraines mondialisées, les nombreux quartiers de non-droit en France ne sont pas de simples zones hors contrôle qui abritent les trafics en tout genre, mais des réseaux diasporiques transfrontaliers issus de l’immigration extra-européenne parfaitement connectés à des narco-États et des multinationales de la drogue et du trafic d’armes. En France, la criminalité ne cesse d’augmenter, en grande partie grâce au trafic de drogue, hautement lucratif et belligène, alimenté par la mondialisation et les flux migratoires incontrôlés. Le marché de la drogue a littéralement explosé en France depuis les années 2000 pour atteindre entre 3 et 4 milliards d’euros en 2020, une hausse de presque 1 milliard par rapport à 2010. On recense ainsi en France pas moins de 3 952 points de deal dont 276 dans la seule Seine-Saint-Denis. Ceux-ci sont répartis dans toute la France dans ces « quartiers chauds » ou de non-droit où l’économie du narcotrafic rencontre souvent le processus de contre- société islamiste. La consommation de drogues, douces comme dures, est ainsi en pleine expansion partout en France, avec en tête le cannabis, largement fourni par les réseaux marocains, suivi de la cocaïne (mafias latino- américaines) et de l’héroïne (Afghanistan et mafias albano-turques). Dans l’Hexagone, environ 240 000 personnes vivraient directement du trafic de drogue et feraient vivre à leur tour des centaines de milliers de membres des familles sanctuarisées au sein de zones interdites de facto à la police et en rupture avec l’ordre républicain établi. En ce qui concerne le cannabis, les routes du trafic partent quasi exclusivement du Maroc, via l’Espagne. Les Marocains figurent ainsi en tête des plus gros trafiquants de stupéfiants de France. On peut notamment citer les caïds Moufide Bouchibi, Reda Abakrim, Sofiane Hambli, Bouchaïb El Kacimi, ou bien d’autres encore. L’augmentation exponentielle du trafic de drogue dans les quartiers de non-droit et de non-France, de facto « séparés », s’accompagne de violences, de règlements de compte en hausse et d’ensauvagement de plus en plus endémique. Rien qu’en 2020, la France a ainsi compté 60 morts et 250 blessés du fait des violences dues aux trafics de drogue. Après les Marocains, en tête pour le haschich-cannabis, les réseaux albanais, algériens, manouches et nigériens sont également très présents, l’immigration de masse et le narcotrafic étant intrinsèquement liés, dans un contexte de mondialisation, de liberté et d’ouverture des flux incontrôlés de personnes et de marchandises, que celles-ci fussent légales ou illégales. Cette économie du narcotrafic est par ailleurs légitimée moralement par les réseaux islamistes et indigénistes qui disculpent les caïds (voir saga Adama et Assa Traoré) à la tête de 4 000 quartiers de non-droit de l’Hexagone. Ces forces antinationales révolutionnaires entretiennent toute une contre-culture de haine envers la France et la police « raciste islamophobe », ce qui fait coïncider criminalité d’origine exogène et conflits intercommunautaires. Cette convergence entre crime organisé et confessionnalisme islamiste s’est manifestée au grand jour à Dijon, en 2020, lorsque des affrontements violents ont opposé des gangs maghrébins et tchétchènes à la suite de l’agression d’un jeune Tchétchène, ce qui déclencha l’arrivée subite de 200 Tchétchènes cagoulés et armés de couteaux et barres de fer prêts à en découdre dans le quartier des Grésilles, avec à la clé des dizaines de blessés. Le lendemain, en représailles des descentes antiarabes des Tchétchènes, ce sont des groupes maghrébins qui ont fait une démonstration de force en exhibant des kalachnikovs et fusils à pompe, des scènes totalement surréalistes pour une ville jadis réputée calme comme Dijon. L’issue a été une pax islamica négociée par un imam frère musulman. D’autres événements ultérieurs survenus en mai 2020 en région parisienne, à Avignon (assassinat d’un policier par un dealer) ou ailleurs, ont montré que ce processus durable risque de s’intensifier dans l’avenir en raison de la persistance de l’immigration incontrôlée, du manque de moyens des polices, du laxisme judiciaire, de la crise économique, de l’échec de l’intégration depuis les années 1980, et de la « culture de la drogue » véhiculée par les stars du rap et le show-biz façon McWorld. Drogue et terrorisme : la face cachée mafieuse de Daesh et al-Qaida À l’échelle mondiale, la production et le trafic de drogue, directs ou indirects, sont une source importante de revenus pour les activités terroristes qui sont parfaitement à l’aise dans la mondialisation marchande, tout comme les multinationales du crime. Dans un certain nombre de pays, les ressources issues des trafics de drogue, étant donné leurs enjeux énormes, ont contribué à compliquer et à prolonger maints conflits armés et les ont bien souvent rendus plus meurtriers. En Amérique latine au Moyen-Orient, le financement des groupes armés (Farc, M19, Sentier lumineux, OLP, Hezbollah, PKK, etc.) est dans bien des cas lié aux trafics de drogue, notamment, ou aux « taxes » prélevées sur les trafics. Bien des groupes terroristes comme Aqmi, Aqpa ou Daesh sont impliqués dans ces trafics de drogue ainsi que dans le prélèvement de « taxes » sur les acheminements de cocaïne en provenance d’Amérique latine via le golfe de Guinée. D’après les estimations d’Europol, c’est même le premier revenu des terroristes, avec 330 millions de dollars annuels, devant les hydrocarbures (230 millions). Boko Haram a ainsi été accusé d’aider les trafiquants de drogue au Nigeria et dans les pays voisins, et, entre 2014 et 2017, Daesh en Syrie et en Irak, alors à leur apogée, a carrément produit et exporté le captagon, la « drogue du djihad », dont les terroristes sont de très gros consommateurs et qui représente un marché considérable pour l’État islamique, ainsi que pour les autres groupes terroristes. En Syrie, on a pu le voir en juillet 2020, lors de la saisie de 14 tonnes estimées à 1 milliard de dollars 41 , le Liban étant un des principaux points de passage et même un producteur de cette amphétamine. Selon le journal L’Orient-Le Jour, le marché du captagon s’élèverait à plusieurs dizaines de milliards de dollars par an 42 . L’espace sahélo-saharien est également devenu ces dernières années un nouveau carrefour des trafics de toutes sortes. Outre les trafics de cigarettes de contrebande, chers à Aqmi, celui du haschich dans les années 1990, puis de la cocaïne en provenance de l’Amérique latine depuis l’année 2000, sont des mannes inépuisables. Le haschich, produit en grosse majorité au Maroc, est l’un des trafics les plus stables et « sûrs », du fait de l’expérience des Marocains dans le domaine depuis des décennies. Il s’est principalement développé, tout comme le trafic algérien de cigarettes, par le biais des diasporas immigrées en Europe. La mondialisation et l’ouverture des frontières permettent là aussi d’établir des connexions et d’ouvrir les marchés internationaux et locaux connectés. La cocaïne provenant de l’Amérique centrale transite par la Guinée-Bissau et toute l’Afrique de l’Ouest 43 , avec le Mali comme plaque tournante. Un autre trafic a émergé plus récemment : celui des opioïdes, notamment le tramadol, un antidouleur devenu très populaire qui est un véritable fléau en Afrique de l’Ouest, où les taux d’addiction sont très élevés. L’Afrique constitue d’ailleurs 67 % du marché mondial de ce produit, bien moins cher que la cocaïne et même que le crack. Trafic d’êtres humains et prostitutions : esclavage des temps modernes « L’augmentation inquiétante de la traite des personnes représente aujourd’hui le deuxième trafic mondial après celui des stupéfiants 44 », alerte Éric Vernier, spécialiste reconnu des questions de blanchiment et de criminalité. Au fil des siècles, l’esclavagisme et les trafics d’êtres humains ne se sont jamais arrêtés, y compris dans les pays occidentaux, car cette activité est extrêmement rentable. Dans cette catégorie criminelle et morbide, on inclut non seulement la prostitution, mais aussi le commerce pédophile, les trafics d’organes humains, l’esclavage, les enlèvements et la main-d’œuvre immigrée clandestine ou le travail forcé. Selon l’ONUDC, ce dernier trafic générerait plus de 32 milliards de dollars de recettes annuelles. Aujourd’hui, les conflits, l’instabilité, le sous- développement et le manque d’opportunités économiques sont autant de facteurs qui rendent les personnes ciblées toujours plus vulnérables à l’exploitation. Le trafic d’êtres humains est particulièrement répandu en Asie australe et centrale, tandis qu’en Afrique et au Moyen-Orient, le travail forcé et l’esclavage « traditionnel », ancrés dans des traditions de rivalités intertribales pérennes, sont fort répandus 45 . L’esclavage est toujours d’actualité à notre époque et il est encore largement existant, principalement en Afrique noire : « en Mauritanie, on estime à 30 % le taux de la population soumise au servage. Environ, 250 millions d’enfants travaillent illégalement dans le monde, dont un quart est âgé de moins de 10 ans et 20 000 qui décèdent chaque année d’accidents du travail », écrit Éric Vernier. À l’échelle mondiale, la traite des personnes à des fins d’exploitation sexuelle constitue la forme principale d’exploitation, la prostitution étant très prisée des organisations criminelles avec un important marché européen à la clé, dominé par les mafias des pays de l’Est, notamment albanaise et kosovare. Celles-ci sont encore plus actives sur le continent européen que les mafias italiennes, nigérianes et russes précitées : « Les grandes métropoles d’Europe occidentale (Bruxelles, Londres, Hambourg et Paris) sont la première destination du trafic de femmes originaires de l’Europe de l’Est (République tchèque, Bulgarie, Albanie), contrôlé par la mafia albanaise qui achète et viole ces femmes dans des camps de la région ou les envoie dans des “maisons d’abattage” où elles subissent 200 passes par jour, explique Éric Vernier. Les femmes de l’Est, les Africaines, sont enlevées, achetées ou abusées, violées, torturées et dépossédées de leurs papiers officiels 46 ». La prostitution existe partout, les réseaux de proxénétisme se fournissant dans l’ensemble des pays pauvres : Roumanie, Moldavie, Brésil, Thaïlande, Chine, Corée, Viêtnam, Philippines, Inde, Niger, Guinée équatoriale, etc. Les femmes et les enfants enlevés atterrissent, après différents transferts, sur les trottoirs de Paris, de Hambourg, de Chicago, etc. Les femmes et les filles représentent non seulement la majorité des victimes (72 %), mais aussi quasiment la totalité des cibles l’exploitation sexuelle (94 %). Le trafic et la vente d’enfants sont également assez développés, même en Europe : « Des enfants brésiliens, sénégalais, marocains, chinois, coréens, philippins, dominicains, haïtiens... sont régulièrement achetés ou enlevés pour fournir les pays du tourisme pédophile, notamment la Thaïlande, mais aussi les couples occidentaux en mal d’adoption. Un enfant peut être vendu jusqu’à 100 000 dollars à des familles adoptives américaines, sans aucun contrôle par la suite », poursuit Vernier. Par exemple, un réseau bulgare démantelé en France, en octobre 2006, vendait les bébés 6 000 euros après les avoir achetés 500 euros aux mères biologiques 47 . Le Guatemala est particulièrement touché avec le vol d’enfants de familles paysannes déshéritées, qui rapporte aux mafias locales 200 millions de dollars par an. Jusque dans les années 1990, en Roumanie, les familles occidentales achetaient les enfants alignés devant l’orphelinat. Aujourd’hui en Irak, les enfants sont vendus entre 5 000 et 50 000 dollars selon l’âge. Ils sont aussi victimes de travail forcé (légal ou illégal), comme les Roms que l’on voit mendier dans les rues et métros en France ou dans d’autres pays d’Europe. D’après Juan Martín Pérez, directeur du Réseau pour les droits de l’enfance au Mexique, de nombreux enfants sont régulièrement kidnappés ou embauchés dans ce pays sur fond de narcotrafic et de guerre des cartels. Les plus petits travaillent comme guetteurs ou informateurs, puis à partir de 12 ans, ils sont employés pour s’occuper de maisons, et les plus grands, à partir de 16 ans, s’occupent du trafic de drogue et commencent à être recrutés comme tueurs à gages. Ainsi, « le crime assure aux enfants et adolescents les récompenses, la reconnaissance et l’argent qu’ils ne trouvent pas dans la société légale 48 ». Une fois enlevés, ils peuvent être utilisés directement pour des activités criminelles ou comme monnaie d’échange. Au Mexique, le taux de mortalité des enfants de 0 à 17 ans a ainsi augmenté de 135 % entre 2000 et 2012, et en 2012, 1 612 enfants et adolescents ont été tués pour 1 498 en 2017, dont 1 152 garçons et 345 filles. L’incroyable business de l’immigration clandestine Évoqués régulièrement dans les débats médiatiques politiques opposant « populistes » et « immigrationnistes », les flux d’immigrés clandestins qui arrivent en masse sur la petite île italienne de Lampedusa, notamment grâce aux mafias des passeurs nigérians, libyens et aux ONG humanitaires qui les secourent en mer et les acheminent vers les côtes siciliennes, sont devenus un enjeu d’antagonisme politique et de sécurité nationale. Ces flux convergent d’ailleurs avec ceux, connexes, des réseaux de trafics de drogue, de prostitution, d’armes, et de terrorisme. Le trafic de migrants clandestins s’est fortement industrialisé depuis une dizaine d’années, avec les circuits déjà éprouvés des autres trafics d’êtres humains, car il est extrêmement rentable. On estime que le trafic de migrants a généré, rien que pour l’année 2019, des gains compris entre 5,5 et 7 milliards de dollars 49 . Rappelons tout d’abord que si, au départ, le migrant clandestin (qui fuit plus souvent la pauvreté que les guerres) est consentant pour être introduit clandestinement dans un pays en payant les passeurs, le parcours migratoire se termine souvent de manière tragique, après de nombreux abus, violences, exploitations et chantages, ou pour alimenter des mafias et le travail au noir. Les migrants clandestins doivent payer plusieurs milliers d’euros pour, dans certains cas, être abandonnés en pleine mer, d’où la poursuite du parcours avec les bateaux que les ONG affrètent. C’est ainsi que, chaque jour, en Sicile, à Lampedusa, dans les îles grecques, dans les Balkans, ou encore à Ceuta et Melilla, ou sur les côtes andalouses, débarquent des milliers de clandestins appelés « récupérés », quotidiennement secourus grâce aux efforts assidus des navires de sauvetage (souvent illégaux) exploités par des riches ONG idéologiquement fortement engagées et hostiles par principe aux frontières (Moas, Jugend Rettet, Stichting Bootvluchteling, Médecins sans frontières, Save the Children, Proactiva Open Arms, Sea-Watch, Sea-Eye, bateau Life). Derrière ces « récupérateurs » qui « prêtent » leurs bateaux (extrêmement bien équipés et coûteux), on retrouve notamment la fondation Open Society du milliardaire George Soros, chantre de la mondialisation heureuse et de l’abolition des frontières. Rappelons qu’une simple embarcation de 200 migrants, qui coûte en revanche très peu en essence, peut rapporter aux passeurs 1 million d’euros, avec très peu de risques financiers, puisque les migrants sont livrés à eux-mêmes par les passeurs qui restent postés sur la côte libyenne. Grâce aux ONG qui viennent les secourir, les passeurs ont considérablement diminué leurs coûts sans baisser leurs prix « facturés » aux clandestins qu’ils font exprès de placer dans des embarcations dangereuses... Au total, le coût total réel du voyage pour le clandestin atteint 7 000 euros. Souvent, les migrants doivent par la suite se prostituer pour payer leurs dettes, comme certaines femmes asiatiques dépourvues de titres de séjour ou ces Africaines qui paient le coût de leur passage illégal des milliers d’euros (voir supra « Mafia nigériane »). Les gains (pharaoniques, pour les trafiquants) engrangés par l’immigration illégale sont en augmentation constante. Ils se chiffrent, en France comme en Italie, en milliards d’euros. D’après une étude d’Interpol, la traite des êtres humains entre l’Afrique et l’Europe rapporterait 6 milliards d’euros annuels, soit le chiffre d’affaires trimestriel d’une multinationale comme Starbucks... Les cartels de passeurs s’enrichissent non seulement en affrétant des embarcations rudimentaires, mais aussi en fournissant de faux documents, en conduisant les migrants illégaux de l’Afrique noire vers la Libye. Outre la traversée en mer, qui coûte 2 000 à 3 500 euros en moyenne par personne, les migrants déboursent autant pour les parcours dans les déserts et « services annexes » (nourriture, gilet de sauvetage, réserves de billets pour acheter des puces téléphoniques et survivre une fois arrivés en Europe, infos sur les numéros utiles, jobs au marché noir possibles, etc.). Pour prendre la mesure de l’incroyable source de lucrativité que constituent les trafics de migrants clandestins, il suffit de rappeler l’exemple, parmi d’autres, en Libye, du « gouverneur militaire » de Tripoli, l’ex-chef du Groupe islamique combattant libyen (al-Qaida), Abdelhakim Belhaj, protégé de la Turquie d’Erdoğan, qui, devenu respectable depuis la révolution libyenne de 2011, aurait acquis grâce au trafic de migrants une fortune évaluée à 2 milliards de dollars 50 ... Les passeurs de clandestins, à la pointe du marketing digital et de la mondialisation... Comme la prostitution, qui ne s’exerce pas que dans la rue et les salons, mais de plus en plus sur Internet, les « parcours migratoires » illégaux sont vendus sur le Web. En quelques clics, ces étranges « tour- opérateurs »/trafiquants d’êtres humains donnent des prix, des conseils et proposent des « packages » en ligne et même de falsifier les passeports et cartes d’identité. D’après une étude de l’université de Trente consacrée à la capacité des trafiquants à utiliser le Web, de nombreux groupes Facebook et Instagram annoncent des voyages illégaux en arabe et donnent des modes d’emploi 51 . Des chercheurs arabophones qui se sont fait passer pour des migrants ont découvert une véritable boîte de Pandore : tout comme dans une boutique online, les trafiquants proposent des « remises » pour femmes et personnes âgées, des « forfaits famille », un « service complet » comprenant transferts navals et aériens et faux documents, et même un service après-vente... Ils offrent des informations sur les points de départ, les titres de séjour, les aides aux migrants et autres « téléphones utiles ». De nombreux profils identifiés sont faciles à trouver en cliquant sur les moteurs de recherche en arabe : « voyage pour l’Europe », « aller vers l’Italie » ou « espace Schengen ». Les applications comme Viber, Skype, WhatsApp ou Telegram sont utilisées pour échanger avec des « agents de voyages » férus de cryptographies. Ces conseils « vendus » par les trafiquants sont souvent fournis par les ONG promigrants précitées qui publient les astuces pour se rendre illégalement en Europe et y contourner les lois. L’expansion d’Internet dans les pays africains est une aubaine pour les mafias de passeurs de migrants qui connaissent parfaitement les lois des pays d’accueil et expliquent comment déjouer les contrôles. Un groupe lance par exemple ce message : « Pour tous les Syriens, une annonce du Soudan indique qu’aucun visa n’est nécessaire. Quiconque souhaite des informations peut me contacter via Viber. » La Libye n’est pas le seul lieu de passage vers l’Europe : les voyages en provenance de Turquie sont aussi en pleine expansion : « Pour les frères qui veulent voyager d’Istanbul sur des navires de 80 m, explique une autre annonce Facebook, le départ est lundi... » Si un voyage depuis la Libye peut coûter 2 000 à 4 000 euros, ces « agences » vendent 2 500 euros de plus une traversée d’Istanbul à Athènes sur des yachts touristiques que les polices ne contrôlent pas. Un itinéraire de la Turquie vers la Grèce plus précaire, avec une marche de deux heures, coûte 1 700 euros. Les voyages rapides et confortables en avion sont vendus 3 500 euros d’Athènes à l’Allemagne avec faux documents. Pour les navires commerciaux de la Turquie vers l’Italie, le prix varie entre 4 000 et 5 500 euros. Des « publicités » incitent aussi des femmes à se prostituer en ligne ou sur le Web pour financer les voyages. Pour les forces de l’ordre, ces activités cryptées, en arabe ou sur le Darknet, sont extrêmement difficiles à déceler et empêcher. Les problèmes liés aux trafics de migrants sont multiples : la vie et la situation des migrants, vrais ou faux demandeurs d’asile, leur misère, les risques de décès en mer ou d’exploitation, le danger de voir se faufiler parmi eux des délinquants, trafiquants ou terroristes, et le coût, pour les États du sud de l’Europe, de la lutte contre les migrations illégales puis du traitement des personnes que les gouvernements sont sommés d’accueillir, nourrir et loger une fois arrivés dans les ports des pays « sûrs ». D’après le projet de plan budgétaire 52 du ministère de l’Économie et des Finances italien, la dépense totale pour la gestion des migrants a été de 2,6 milliards pour 2015, 3,3 milliards pour 2016, 3,8 milliards pour 2017, et plus de 4,6 milliards en 2018 53 (voir supra). Une majorité de migrants illégaux vient d’Afrique subsaharienne et du Maghreb, il s’agit en fait plus de réfugiés économiques que des demandeurs d’asile fuyant des guerres. Certes, beaucoup de migrants fuient notamment la Syrie en guerre ou l’Afghanistan, notamment via la Turquie. Celle-ci a d’ailleurs accueilli sur son territoire 3,6 millions de Syriens. En février 2019, dans un contexte de tensions franco-turques et turco-européennes en Méditerranée orientale, le Président turc, Recep Tayyip Erdoğan, déclarait ainsi, fort de cette carte migratoire : « Ô Union européenne [...] si vous essayez de présenter notre opération comme une invasion, nous ouvrirons les portes et vous enverrons 3,6 millions de migrants 54 . » Rappelons qu’en mars 2016, la chancelière allemande Angela Merkel avait négocié au nom de l’UE un accord avec la Turquie visant à dissuader les migrants de traverser la mer Égée, par lequel Erdoğan acceptait de multiplier les patrouilles en mer et d’accueillir les demandeurs d’asile arrivés en Grèce. En échange, pour chaque migrant syrien renvoyé en Turquie au départ des îles grecques, l’Union s’engageait à réinstaller en Europe un Syrien vivant dans un camp de réfugiés turc, et Bruxelles verserait une aide de 6 milliards d’euros à destination des 2,7 millions de Syriens réfugiés en Turquie. Elle promettait par ailleurs de rouvrir les négociations sur l’adhésion de la Turquie à l’UE et de faciliter la circulation en Europe des ressortissants turcs sans visa. Or l’accord a été remis en question plusieurs fois par Ankara qui menace à nouveau de laisser passer massivement les migrants vers les côtes grecques si l’Union européenne n’accélère pas la libéralisation des visas, et si les milliards promis ou restant « dus » ne sont pas versés. De son côté, le Parlement européen s’y refuse tant que la Turquie n’assouplit pas sa loi antiterroriste, qui elle-même bloque le dossier de la libéralisation des visas vers l’Union. « Si nous ne prévoyons pas la mesure de l’arrestation immédiate de tout immigré illégal qui arrive candestinement en Italie, nous n’arrêterons jamais le phénomène », a déclaré en décembre 2018 le général Vincenzo Santo, ancien chef d’état-major de l’Otan en Afghanistan. Cette mesure choc de l’officier italien est jugée inacceptable par les lobbys promigrants, et elle est présentée comme contraire aux « traités internationaux » ou autres conventions sur les droits de la mer, ce qui est un fait discutable, car en réalité, un État a le droit de contrôler/réduire l’immigration et de sortir de n’importe quel accord international, si celui-ci est détourné pour nuire à la souveraineté inaliénable de l’État qui l’a cofondé. Et les textes onusiens obligeant soi-disant à accueillir et financer tous les migrants clandestins ne sont pas contraignants (voir « Pacte de Marrakech »). Rappelons tout de même que dans des pays démocratiques comme l’Australie ou les États-Unis, l’entrée illégale sur le territoire national est une infraction pénale passible de prison. En Australie, depuis 2013, tout bateau transportant des clandestins est systématiquement réexpédié vers des îles extraterritoriales d’Asie dans le cadre de détentions sans limite de temps pendant la vérification de l’éligibilité au statut de réfugié. Seuls les migrants entrant de façon légale dans des points d’accueil situés hors du pays sont accueillis et bénéficient éventuellement d’aides. « Jusqu’ici, conclut le général Santo, nous n’avons jamais mené d’actions coordonnées garantissant le refoulement des migrants n’ayant pas le statut de réfugié politique ou fuyant la guerre [...] avec une volonté politique, on pourrait mettre fin en quelque mois à l’immigration clandestine et aux arrivées de clandestins en Italie... » Les politiques le savent parfaitement. Mais ils ont peur de déplaire aux lobbys No Borders et à leurs relais médiatiques. Trafic d’organes D’après un rapport du Global Financial Integrity, le marché des organes figurerait parmi les dix premières activités économiques illégales qui rapportent le plus au monde, les bénéfices allant de 600 millions à 1,2 milliard de dollars annuels. Couplée aux prouesses médicales et au développement des nouvelles technologies, la mondialisation marchande a littéralement fait exploser ce marché qui a suscité les convoitises de grands groupes criminels organisés – comme les clans albanais précités – mais aussi de réseaux de corruption au sein d’États peu soucieux de défense des droits de l’homme, comme la Chine, Chypre du Nord, Cuba, etc. Ces dernières décennies, la Chine a ainsi attiré toujours plus de demandeurs fortunés qui, moyennant des dizaines ou des centaines de milliers de dollars, ont pu se payer des greffes rapides. Le gouvernement chinois a longtemps fermé les yeux sur les prélèvements forcés d’organes de prisonniers dans les hôpitaux militaires. Les « marchandises » organiques peuvent par ailleurs être commandées sur Internet, autre effet de la mondialisation. Ce marché a d’autant plus d’avenir qu’il est le fruit d’une forte demande des élites mondialisées d’Occident ou des pays du Golfe, de riches malades en attente de transplantation, se payant les services de mafias capables de faire prélever des organes directement sur des êtres vivants, comme cela se pratique hélas en Europe de l’Est, au Brésil, ou en Chine 55 . Cette marchandisation des organes d’êtres vivants est extrêmement lucrative et alimente à son tour le tourisme de transplantation. En 2008, un réseau mafieux impliqué dans ce trafic juteux et inhumain a été démantelé au Kosovo 56 : cinq médecins kosovars ayant été condamnés pour trafic d’organes à Pristina par le tribunal de l’Eulex 57 . D’une manière générale, les migrants – tant des pays de l’Est que du Sud et d’Orient – sont particulièrement victimes du trafic d’organes et d’êtres humains, comme on le voit en Roumanie, en Bulgarie, dans les Balkans, en Ukraine, mais aussi en Libye, en particulier là où sévit la milice de Sabratha. Le phénomène est également en plein essor en Asie du Sud-Est (Thaïlande, Birmanie, Népal, Indonésie). En Irak, Daesh a également été fortement impliqué dans ce trafic lucratif : ainsi que l’a déploré Mohamed Alhakim, l’ambassadeur d’Irak auprès des Nations unies, nombre de cadavres découverts dans des charniers de l’EI en Syrie et en Irak présentaient des traces de mutilations avec des organes vitaux manquants... Le diplomate a ainsi révélé l’existence d’une fatwa d’un cheikh de l’État islamique déclarant halal (« licite ») le prélèvement d’organes des « infidèles ». Trafic d’espèces sauvages et braconnage Selon Interpol, le trafic d’espèces sauvages et le braconnage, en pleine croissance, brasserait 20 milliards de dollars 58 par an, si l’on ne compte que les espèces animales. En incluant les produits forestiers, ce nombre s’élève à plus de 100 milliards... D’après un rapport d’Interpol consacré à la criminalité forestière, la contrebande illégale de bois représenterait 15 à 30 % de la production mondiale, ce qui engendrerait des revenus compris entre 51 et 152 milliards de « chiffre d’affaires » par an. Globalement, on estime que la criminalité environnementale en général représenterait entre 70 et 213 milliards de dollars par an. Celle-ci concerne l’exploitation forestière et minière illégales, le braconnage et les trafics d’animaux sauvages, la pêche et, ou encore le déversement de déchets toxiques, qui représentent une menace croissante pour l’environnement. Pour le braconnage, les exemples les plus connus sont l’ivoire de l’éléphant en Afrique ou en Asie du Sud, ou la corne de rhinocéros, qui fait l’objet d’une protection attentive. Ce trafic est très prisé par les organisations criminelles car il procure des profits élevés et un risque réduit. La lutte contre le trafic d’espèces sauvages n’a jamais été une priorité, les États privilégiant celle contre le trafic de drogue ou d’armes. La corne de rhinocéros est recherchée par des pays comme le Viêtnam pour être réduite en poudre et utilisée ensuite comme produit pharmaceutique. Il faut rappeler qu’elle se vend plus cher que la cocaïne ou l’or : entre 40 000 et 50 000 euros le kilogramme, voire parfois jusqu’à 70 000. Pour de tels revenus, les braconniers sont prêts à tout pour abattre ces animaux et pas seulement en Afrique mais aussi en France. On se souvient notamment du rhinocéros du zoo de Thoiry qui avait été abattu par balle le 7 mars 2017 avant que les ravisseurs ne récupèrent la corne à coups de tronçonneuse. Quant à l’ivoire, selon Interpol, il représenterait pour l’Asie un marché de 165 à 188 millions de dollars. En Afrique, certaines milices abattent les animaux afin de financer leurs achats d’armes et la corruption. Les bêtes peuvent également être vendues vivantes pour des zoos ou comme animaux de compagnie. Les prix de vente des grands singes varient : un braconnier peut échanger un chimpanzé contre 50 à 100 dollars, alors que l’intermédiaire peut le revendre avec une marge allant jusqu’à 400 %. Le prix de l’orang-outan peut atteindre 1 000 dollars 59 , et les tigres entre 4 000 et 6 000 dollars, voire parfois 20 000. Un autre trafic, également très lucratif, doit beaucoup à la mondialisation : celui de matières premières, comme le bois, l’or, les diamants ou le pétrole. Ce type de trafic est particulièrement développé en Afrique, dans le contexte des économies de guerres liées à des conflits intertribaux opposant des milices qui financent leurs activités par les pillages et trafics de matières premières. Au Liberia, par exemple, pendant la guerre civile, l’ancien président Charles Taylor a utilisé le bois comme principale source de financement. Selon les estimations, l’industrie forestière aurait rapporté de 80 à 100 millions de dollars par an pendant la majeure partie de cette période. Ces fonds ont contribué à élargir l’ampleur du conflit et à le prolonger, entraînant la mort de plus de 250 000 personnes et la destruction économique du pays. On peut également citer les exemples de la République démocratique du Congo, de l’Armée de résistance du Seigneur (LRA, originaire d’Ouganda), mais aussi des milices Janjawid au Soudan et des Forces démocratiques de libération du Rwanda (FDLR), directement impliquées dans le trafic d’ivoire, de bois, de charbon de bois, d’or et de minerais. En ce qui concerne le vol de pétrole, il est très prisé, notamment au Nigeria. La Nigerian National Petroleum Corporation (NNPC) a ainsi révélé en 2017 que le pays perdait 40 millions de dollars par jour en raison du vol de pétrole. Les organisations terroristes, notamment Daesh, Boko Haram, al-Qaida, Aqmi, shebabs, etc., sont également souvent impliquées dans ce type de criminalité environnementale 60 . Contrefaçon et mondialisation marchande Les filières criminelles mondialisées se professionnalisent dans tous les domaines, et celui de la contrefaçon, que la globalisation, les migrations et le tourisme ont boostée, est particulièrement prisé. Les industriels évaluent le chiffre d’affaires annuel mondial de cette activité entre 500 (OCDE) et 1 000 milliards de dollars, soit 3 % du commerce mondial. Les principaux produits contrefaits sont les équipements électroniques (121 milliards de dollars), suivis de la bijouterie (41 milliards), des dispositifs médicaux (29 milliards). Les industries pharmaceutiques chiffrent à 60 milliards les pertes rien que pour les laboratoires européens quand le secteur textile déplore une « évaporation » de 28 milliards. La situation est très préoccupante non seulement d’un point de vue économique mais aussi sécuritaire et sanitaire. Ainsi, « en 2012, dans plus de la moitié des 23 réacteurs nucléaires sud-coréens des composants contrefaits avaient été acquis à partir de certificats de conformité falsifiés 61 ». De plus, 20 % du marché pharmaceutique serait aujourd’hui composé de faux médicaments. Ils rapporteraient aux organisations criminelles jusqu’à 500 fois leur mise initiale, un trafic plus rentable que la drogue ! Selon l’IRACM (Institut de recherche anticontrefaçon de médicaments), pour 1 000 dollars investis, le gain serait de 200 000 à 450 000 dollars (contre 20 000 pour la drogue 62 ). Ce genre de trafic est d’autant plus inquiétant dans le contexte de pandémie qui sévit depuis novembre 2019 et qui conduit à une explosion de la demande de vaccins. Il est donc inévitable, vu l’enjeu financier considérable, que de faux médicaments anti-Covid, de faux vaccins et même de faux tests négatifs sont apparus, principalement dans les pays en développement. Trafics d’armes Selon le Small Arms Survey 63 , un milliard d’armes légères circulent dans le monde aujourd’hui, mais seules 16 % d’entre elles sont détenues par les forces de l’ordre et l’armée. Sachant que la valeur des transferts légaux d’armes légères est estimée à 5,7 milliards de dollars par an, celle des armes illicites serait comprise entre 57 et 456 millions de dollars. On estime par ailleurs qu’au moins 75 millions de fusils d’assaut de type kalachnikov ont été produits depuis sa création. Le trafic d’armes sert en fait un double objectif : tout d’abord, une fin purement économique, et ensuite répondre à la demande d’armes indispensables au trafic de drogue et au contrôle des territoires par des organisations criminelles. En Afrique subsaharienne et de l’Ouest également, le trafic d’armes se développe fortement, rendant ces régions particulièrement vulnérables. Entre novembre 2018 et mars 2019, on a enregistré 150 000 morts violentes dont 40 000 au moyen d’une arme à feu. Au Brésil, les guerres des gangs et assassinats par balles coûtent chaque année la vie à près de 60 000 personnes. Les armes issues du trafic illégal proviennent souvent des stocks nationaux détournés à la suite de vols ou de corruption. On trouve aussi celles fabriquées artisanalement qui n’ont donc jamais été enregistrées et autorisées, ainsi que celles provenant des guerres (notamment des Balkans) qui alimentent aujourd’hui le marché européen, et celui des banlieues françaises en particulier. L’arrivée sur le marché des armes 3D... La 5G sera un casse-tête sécuritaire Autre face noire de la mondialisation et des NTIC, les armes 3D sont maintenant parfaitement accessibles et utilisables par les acteurs criminels et terroristes. Tout a commencé en 2012, lorsque Cody Wilson, patron de la firme Defense Distributed, qui proposait des armes grâce à la plate-forme en ligne Defcad, révéla son projet de conception d’armes à feu afin que « chacun puisse avoir une arme à la maison »... Wilson qualifiait son action de « Netflix des armes 64 » et la concevait comme une sorte de lutte contre la censure gouvernementale. Le premier fichier pour obtenir les modèles d’armes a été disponible en 2013 et le succès a été immédiat : le fichier a été téléchargé plus de 100 000 fois en seulement deux jours avant que le gouvernement américain ne le fasse supprimer. Les armes à feu imprimées en 3D – ou « pistolet fantôme » – ne possèdent pas de numéro de série commercial ni de marque, et elles sont donc totalement anonymes, ce qui est un véritable casse-tête pour les polices. Le pistolet 3D le plus connu est le Liberator. L’imprimante 3D peut également permettre de fabriquer des armes en métal (même si elles doivent être assemblées à la main avec un coût bien plus élevé). Aujourd’hui, le risque réside surtout dans l’apparition de réseaux de partage de modèles d’armes basés sur la blockchain pour échanger en toute discrétion. Ainsi, plus de 100 personnes aux États-Unis seraient déjà capables de développer des technologies d’impression 3D d’armes à feu. Et des milliers participeraient dans le monde au réseau de diffusion. Ainsi, « fabriquer un fusil à pompe est 100 fois plus simple, 100 fois plus rapide et près de 100 fois moins cher que d’imprimer un pistolet. Pour 8 dollars, on peut faire un tour à Home Dépot et fabriquer un fusil à pompe 65 ». En France, récemment, des journalistes ont testé s’il était possible de se procurer ce genre d’armes, et ils ont bien réussi à télécharger le modèle gratuitement sur Internet, à imprimer les composants de l’arme chez un fabricant, à la monter, puis à tirer avec, et tout cela pour 200 euros seulement. La situation actuelle ne permet certes pas si facilement de produire des armes de qualité chez soi, car il faut déjà trouver une imprimante 3D, et ces arseneaux peuvent exploser dans les mains du tireur apprenti armurier. Mais grâce aux progrès de la technologie, à la qualité des matériaux pouvant être utilisés, mais aussi à la vitesse de production et à la simplicité de la conception, ces armes vont constituer un danger croissant dès que la technologie permettra à des organisations terroristes ou criminelles de les fabriquer à grande échelle. Cybercriminalité et Darknet D’après Éric Denécé, directeur et fondateur du Centre français de recherche sur le renseignement, ancien analyste au secrétariat général de la Défense nationale, « parmi les six menaces majeures auxquelles les pays occidentaux sont confrontés » arrivent, juste derrière le terrorisme et la subversion islamiste, « les cybermenaces (cybercriminalité, cyberespionnage, hacktivisme) et l’espionnage politique et technologique, en plein développement, et qui proviennent à la fois d’acteurs étatiques et non étatiques 66 ». Dans un monde toujours plus connecté et dépendant des réseaux informatiques, en effet, de plus en plus d’États sont confrontés à la cybercriminalité, qui coûte aux consommateurs des milliards de dollars par an. Un rapport 67 de l’entreprise McAfee (éditeur de logiciels et d’antivirus) a estimé le coût de la cybercriminalité en 2020 à 1 000 milliards de dollars (soit 50 % de plus qu’en 2018 68 ), dont 145 milliards dépensés pour la lutte contre les attaques. « Devenue la première fraude auprès des entreprises, la cybercriminalité ne cesse de repousser les limites de l’innovation technologique. Fruit de criminels ou d’États, les cyberattaques ont littéralement explosé en France. La valeur économique pillée en 2016 est estimée à plus de 600 milliards de dollars dans le monde 69 », écrit Éric Vernier. La cybercriminalité menace les réseaux informatiques sensibles des entreprises et des gouvernements, les systèmes financiers, les banques, les marchés boursiers. Par sa maîtrise croissante, les organisations terroristes et criminelles rendent de plus en plus vulnérable le système financier international, visant les services de valeur et de cartes, et, plus récemment, la monnaie électronique et de crédit dont dépend l’économie mondiale. Selon les services secrets américains, les crimes financiers facilités par des forums criminels en ligne anonymes entraîneraient des milliards de dollars de pertes pour l’infrastructure financière. Les ordinateurs et Internet jouent aujourd’hui un rôle dans la plupart des crimes transnationaux, soit en tant que cibles, soit en tant qu’armes utilisées dans le crime. Les enquêtes pour démanteler les réseaux de cybercriminalité et hackers nécessitent souvent un personnel hautement qualifié car les problèmes sont d’une extrême complexité. Éric Vernier rappelle ainsi qu’« une attaque massive, le 21 octobre 2016, a mis hors service les plus gros sites au monde : Twitter, Netflix, Airbnb, Spotify, Sony, Amazon... En 2015, des hackers russes ont détourné un milliard de dollars en passant par une centaine de banques par petits virements continus pendant plusieurs mois ». Ainsi, des réseaux sociaux apparemment anodins, comme WhatsApp et Snapchat, permettent la vente de drogues – douces ou dures. Éphémères ou chiffrées, ces applications facilitent le trafic et compliquent le travail des enquêteurs pour démanteler ces réseaux. Le Darknet, dit « réseau noir » ou « superposé », est une collection de pages non indexées, c’est-à-dire introuvables par les moteurs de recherche classiques, et donc inaccessibles avec un navigateur web normal. On y accède via des logiciels particuliers, comme Tor. Utilisé par des journalistes ou des opposants politiques, le Darknet n’est pas interdit en soi. C’est le détournement de son usage à des fins criminelles qui est répréhensible. Sur le Darknet, on peut trouver en vente des comptes PayPal, des cartes de crédit, des comptes en banques, toute sorte d’armes en pièces détachées, de la drogue, des réseaux de trafics d’esclaves, de prostitution infantile, de pédopornographie, ou même des réseaux de trafics d’organes ou de plasmas de bébés... Par exemple, mi-2017, les services de détection et de répression ont démantelé AlphaBay, l’un des plus gros marchés mondiaux de la drogue opérant sur le Darknet. Ils ont également infiltré un autre marché important, la plate-forme Hansa, et l’ont laissé poursuivre ses activités afin de recueillir des données avant de procéder à sa fermeture. Plus récemment, en avril 2019, de vastes opérations d’infiltration ont permis de démanteler Wall Street Market, alors le deuxième plus grand marché du Darknet au monde après Dream Market. Quant aux hackers ou pirates privés ou liés à des services de renseignements étrangers, notamment chinois, vénézuéliens, nord-coréens, iraniens et russes, ils utilisent les réseaux sociaux pour le scamming (arnaques, fraudes en tout genre), le phishing (le vol de données personnelles allant jusqu’à l’usurpation d’identité), et surtout le spear phishing (visant une personne en particulier, sur les réseaux sociaux). Cette criminalité peut naître dans n’importe quel pays, avec la moindre connexion et très peu de matériel. Les réseaux organisés les plus virulents sont situés en Afrique de l’Ouest (Nigéria), en Roumanie (dans la région de Constanța), en Russie et en Chine. Le réseau le plus utilisé est sans surprise Facebook : le contact y est facile, beaucoup d’informations sont disponibles, et il est aisé d’y créer un faux profil suffisamment fourni pour se fondre dans la foule et se faire passer pour une vraie personne. Les criminels profitent de la crise sanitaire ! Avec la crise de la pandémie, les risques liés à aux actions et à l’influence du crime organisé ainsi qu’au blanchiment d’argent ont fortement augmenté, comme l’exprime Éric Vernier : « Au cœur d’une crise, le phénomène s’amplifie car les urgences inhérentes à la situation entraînent précipitation des acteurs économiques et laxisme des autorités de contrôle 70 . » Les organisations criminelles essaient de profiter des diverses crises afin de s’insérer toujours plus dans le système. Tracfin rappelle ce risque : « En raison du contexte économique dégradé par la crise sanitaire liée à la pandémie de Covid-19, des sociétés présentant des difficultés de trésorerie pourraient être amenées à ouvrir plus facilement leur capital à des investisseurs étrangers afin de garantir la pérennité de leur activité. » Les banques voient dans l’argent de ces organisations des mannes énormes, et donc un moyen de tenir bon. De nombreuses banques ont d’ailleurs probablement déjà été sauvées d’une crise grâce à l’argent de la drogue (2007-2008, notamment). Les criminels peuvent également se positionner comme des banques qui accordent des « crédits » à des entreprises ou à des particuliers. Les sociétés au bord de la faillite sont de ce fait plus enclines à accepter ce genre d’arrangement. À l’instar des organisations terroristes qui utilisent la pauvreté pour rallier les plus indigents à leur cause, les organisations criminelles distribuent régulièrement – et a fortiori en période de crise – des produits de première nécessité, comme cela a été observé au Mexique auprès des narcos ou en Italie avec la Camorra. Elles prêtent parfois même gratuitement de l’argent pour attirer les plus démunis et sembler être plus proches des populations que l’État. Dans une chronique du journal italien La Repubblica, Roberto Saviano alerte sur l’activité mafieuse au cœur de cette épidémie : « La pandémie est le moment idéal pour les mafias : si vous avez faim, vous cherchez du pain, peu importe de quel four il provient et qui le distribue ; si vous avez besoin d’un médicament, vous payez, vous ne vous demandez pas qui vous le vend 71 . » Ainsi, lors de l’opération d’Interpol baptisée « Pangée », menée du 3 au 10 mars 2020 dans plus de 90 pays, 121 personnes ont été arrêtées avec une saisie de 14 millions de masques, produits pharmaceutiques et gels hydroalcooliques contrefaits. « Les collectivités elles-mêmes ont parfois été victimes d’escroqueries avec l’achat de masques de contrefaçon. » « Si le trafic de drogue a plutôt eu tendance à baisser avec la pandémie, d’autres activités se sont intensifiées et de nouvelles sont apparues » : vente de faux médicaments, de masques et de solutions hydroalcooliques conformes ou non ; cybercriminalité ; blanchiment via les mesures de relance économique en faveur des entreprises ; détournement et pénurie par rétention de produits sanitaires et revente au plus offrant ; contrebande de produits sous quotas ; investissements dans les usines de fabrication. 1. Jean de Maillard et Pierre-Xavier Grézaud, Un monde sans loi, Paris, Stock, 2001. 2. Éric Vernier, Technique de blanchiment et moyens de lutte, Paris, Dunod, 2017. 3. Christine Lagarde, « S’attaquer à la corruption avec clarté », FMI, 18 septembre 2017. 4. « Comment l’Insee va intégrer le trafic de drogue dans le calcul du PIB », Le Monde, 2 février 2018. 5. Hayat Gazzane, « Trois chiffres édifiants démontrent que la corruption gangrène le monde », Le Figaro, 9 décembre 2017. 6. Jean-Victor Semeraro, « Prestations sociales : au moins 2,5 millions de bénéficiaires fantômes », Capital, 8 septembre 2020. 7. Voir Rhoda Weeks-Brown, « Halte au blanchiment », Finance & Développement, FMI, décembre 2018. 8. Office des Nations unies contre les drogues et le crime (UNODC) : organe du Secrétariat des Nations unies spécialisé dans la lutte contre le crime et le trafic de drogue. 9. UNODC, World Drug Report 2019, 2019. 10. Europol, EU Drug Markets Report 2019. Téléchargeable sur le site d’Europol : www.emcdda.europa.eu. 11. ONUDC, World Drug Report 2019, op. cit. 12. Jean Rivelois, « Géopolitique mondiale de la criminalité », Diplomatie, Les grands dossiers n o 52, septembre 2019. 13. « À Doha, les négociateurs afghans accusent les talibans de vouloir retarder les pourparlers », L’Orient-Le Jour, 5 janvier 2021. 14. Quatre cent mille personnes vivraient des cultures illicites en Colombie, et un million au Maroc. 15. « Trois tonnes de cocaïne saisies dans un sous-marin au large de l’Espagne », Le Monde, 27 novembre 2019. 16. Anac, La corruzione in Italia (2016-2019). Numeri, luoghi e contropartite del malaffare, rapport, 17 octobre 2019. 17. Alfredo De Girolamo, « Mafia e rifiuti : la DIA indica i 4 problemi chiave », Il Sole 24 Ore, 4 février 2020. 18. Voir « Corruption Perceptions Index », www.transparency.org. 19. Leur professionnalisme dans les braquages a été constaté en avril 2019, lorsque les malfaiteurs ont dérobé un avion à main armée sur le tarmac de l’aéroport de Tirana, s’emparant de plusieurs millions d’euros. 20. « Plusieurs milliards de dollars de chiffre d’affaires », Le Monde, 17 juin 2002. 21. EU Drug Markets Report 2019, op. cit, Europol. 22. Marija Ristic, « The Troubled Trial of Kosovo’s “Drenica Group” », Balkan Transitional Justice, 27 mai 2015. 23. « L’UCK, un groupe militaire et mafieux », Le Monde, 17 juin 2002. 24. Y compris le carburant pour les véhicules et la construction. Voir « Il rapporto di Dick Marty approvato dal Consiglio d’Europa », SWI swissinfo.ch, 25 janvier 2011. 25. Europol, EU Drug Markets Report 2019, op. cit. 26. Communiqué de presse d’Europol : « Plus de 60 personnes arrêtées dans une série d’actions policières contre la mafia albanaise », 5 avril 2019. 27. Anne Vidalie, « Criminalité : les Albanais, une mafia multicarte », L’Express, 2 mars 2017. 28. « Une série d’assassinats entre deux clans touche la Suisse et le Kosovo », RTS, 2 mai 2021. 29. Cartel de Sinaloa, du Golfe, de Tijuana, de Juárez et Nouvelle Génération de Jalisco. 30. Bertrand Monnet, « Les montagnes du Sinaloa, royaume des “narcos” mexicains et siège d’une multinationale du trafic », Le Monde, 3 décembre 2020. 31. Jean Rivelois, « Géopolitique mondiale de la criminalité », art. cit. 32. Éric Vernier, Technique de blanchiment et moyens de lutte, op. cit. 33. Carlos Malamud, Historia de América, Alianza Editorial, 2010. 34. Jean Rivelois, « Géopolitique mondiale de la criminalité », art. cit. 35. « Les autorités mexicaines publient la vidéo de la brève arrestation du fils d’El Chapo », Le Monde, 31 octobre 2019. 36. Frédéric Saliba, « Au Mexique, un cartel de la drogue déclare la guerre à l’État », Le Monde, 28 juin 2020. 37. Mark Galeotti, « Crimintern: How the Kremlin Uses Russia’s Criminal Networks in Europe », European Council of Foreign Relation, 18 avril 2017. 38. Alain Rodier, « Réseaux mafieux russes défaits en Espagne après sept ans d’enquête », Raids, 4 janvier 2021. 39. Mark Galeotti, The Vory. Russia’s Super Mafia, Yale University Press, 2018. 40. Voir rapport d’Europol sur la drogue et financement du crime, EU Drug Markets Report 2019, op. cit. 41. Joël Chatreau, « Énorme saisie d’amphétamines en Italie : 84 millions de cachets de captagon, la “drogue du Djihad” », Euronews, 1 er juillet 2020. 42. Patricia Khoder, « Le trafic de Captagon, un marché de plusieurs dizaines de milliards de dollars par an », L’Orient-Le Jour, 18 janvier 2016. 43. Jean Rivelois, « Géopolitique mondiale de la criminalité », art. cit. 44. Éric Vernier, Technique de blanchiment et moyens de lutte, op. cit. 45. Jean Rivelois, « Géopolitique mondiale de la criminalité », art. cit. 46. Éric Vernier, Technique de blanchiment et moyens de lutte, op. cit. 47. Voir Yves Bordenave, « Un réseau de trafic de nourrissons d’origine bulgare démantelé en France », Le Monde, 19 octobre 2005. 48. CNDH, Niñas, niños y adolescentes víctimas del crimen organizado en México, rapport, 2019. 49. Jean Rivelois, « Géopolitique mondiale de la criminalité », art. cit. 50. Houda Ibrahim, « Le Libyen Abdelhakim Belhaj : jihadiste, “terroriste” et milliardaire », RFI Afrique, 10 juin 2017. 51. Étude « Surf and Sound », le rôle d’Internet dans les migrations (laboratoire eCrime du Pr Andrea Di Nicola financé par la Commission européenne). 52. Ministero dell’economia e delle finanze, Documento Programmatico di Bilancio 2017, www.mef.gov.it. 53. Alfonso Langastro, Mariasole Lisciandro, « Migranti : ecco le cifre dell’accoglienza in Italia », Il Sole 24 Ore, 10 février 2019. 54. « Erdogan menace l’Europe d’un flux de migrants en réponse aux critiques », La Presse, 10 octobre 2019. 55. Pierre Haski, « Sida : les contaminés de la misère en Chine », Libération, 13 juin 2001. 56. « Kosovo : cinq condamnations pour trafic d’organes », Euronews, 29 avril 2013. Dans la clinique Medicus, à Pristina, plaque tournante du trafic, les donateurs touchaient 15 000 euros par organe et les receveurs déboursaient jusqu’à 100 000 euros. 57. Eulex Kosovo, mission civile de l’UE, vise à promouvoir l’État de droit. Elle s’occupe de justice, de police et de douane. 58. Voir site d’Interpol : www.interpol.int/fr. 59. Interpol, The Environmental Crime Crisis ; voir site d’Interpol : www.interpol.int/fr. 60. Les ressources forestières ont permis de financer les Khmers rouges au Cambodge et ont joué un rôle dans les conflits en Birmanie, en Côte d’Ivoire et en République démocratique du Congo. 61. Jean Rivelois, « Géopolitique mondiale de la criminalité », art. cit. 62. IRACM, Contrefaçon de médicaments et organisations criminelles, rapport 25 septembre 2020. 63. Voir site internet du Small Arms Survey, www.smallarmssurvey.org. 64. « États-Unis : Un site Internet remet en ligne des plans d’impression 3D d’armes à feu », 20 Minutes, 2 avril 2020. 65. Gauthier Virol, « Ces réseaux décentralisés qui relancent l’impression 3D d’armes à feu », L’Usine nouvelle, 30 mai 2019. 66. Alexandre Del Valle, « Nouvelles menaces, nouveaux risques, nouveaux défis, la France est-elle préparée ? », entretien avec Éric Denécé, Atlantico, 28 janvier 2020. 67. McAfee, The Hidden Costs of Cybercrime, décembre 2020. 68. Rapport McAfee-Center for Strategic and International Studies, 2020. 69. Éric Vernier, Technique de blanchiment et moyens de lutte, op. cit. 70. Ibid. 71. Roberto Saviano, « La mafia del coronavirus. Dalla droga alla sanità, la pandemia aiuta l’economia criminale », La Repubblica, 23 mars 2020. CHAPITRE X Géopolitique écoénergétique, guerres du gaz et guerres de l’eau... « Celui qui déplace une montagne commence par déplacer des petites pierres. » Confucius La mondialisation, à certains égards positive, puisqu’elle a permis, grâce aux échanges et aux délocalisations, à de nombreuses contrées du monde de connaître un développement industriel et économique, a dévoilé à l’occasion de la crise sanitaire, comme plus de dix ans plus tôt lors de la crise financière de 2008, sa face « malheureuse » : ce processus d’intensification des échanges marchands, humains et financiers a en fin de compte été retourné contre l’Europe et les États-Unis par les anciennes puissances pauvres d’Asie envers lesquelles l’Occident dans son ensemble est durablement et dangereusement dépendant. La désindustrialisation due à cette mondialisation dangereuse est telle que les nations d’Europe, qui ont par ailleurs réduit considérablement la part de leurs budgets nationaux consacrés à la R&D, risquent de connaître à terme le « syndrome argentin », c’est-à-dire un processus d’involution et de déclassement. Par ailleurs, la forte dépendance énergétique des pays de l’UE rend la zone plus sensible aux aléas géopolitiques. Les approvisionnements énergétiques restent en effet très liés aux relations internationales (exemple du conflit russo-ukrainien, voir carte n o 14). Au-delà de l’« anecdote », l’Europe, pour qui le gaz naturel représente le quart de sa consommation brute d’énergie, se retrouve souvent otage des relations complexes entre l’Amérique et la Russie, Washington ne voulant surtout pas que cette dernière renforce son statut de fournisseur principal de l’UE en gaz. La menace du réchauffement climatique et de ses conséquences L’ouverture du commerce mondial intensifiant les échanges et donc les activités de transport, elle incite à consommer toujours plus des produits venant des quatre coins du monde. La mondialisation marchande est de ce fait une des causes objectives du réchauffement climatique avec la démographie incontrôlée et l’industrialisation des pays en développement. L’urgence est donc de permettre les relocalisations et la consommation locale, afin de réduire les temps et les coûts de transport, donc de favoriser les circuits courts, voie privilégiée pour diminuer les émissions de gaz à effet de serre (GES) et les impacts dus aux transports transcontinentaux, notamment. On assiste depuis quelques années à une prise de conscience brutale et planétaire du problème de l’effet de serre, et plus généralement des enjeux liés au réchauffement climatique – devenu depuis changement, urgence ou encore choc climatique. En 2005, le film du sénateur démocrate américain, ex-candidat à la présidence, Al Gore, Une vérité qui dérange, a vulgarisé les travaux de Giec (Groupe d’experts intergouvernemental sur l’évolution du climat 1 ), créé en 1988 et dépendant de l’Organisation météorologique mondiale et du Programme des Nations unies pour l’environnement. Bien qu’ayant été jugé excessif et unilatéral par la justice britannique, le documentaire présente la question du réchauffement global de la Terre et les conséquences du changement climatique qui en découlent, si la quantité d’émissions de CO 2 en forte augmentation depuis le début de l’ère industrielle n’est pas significativement freinée. Le monde découvre alors le rôle de l’excès des gaz à effet de serre dans le réchauffement climatique. Le plus abondant des GES 2 est la vapeur d’eau qui remplit notre atmosphère, mais le plus connu est le dioxyde de carbone ou CO 2 . Ils représentent à eux deux 77 % des émissions d’origine humaine et jouent un rôle fondamental dans la régulation de la température moyenne sur notre planète. Sans eux, la température moyenne de la terre serait de –18 °C au lieu de +14 °C, et les propres conditions rendant possible la vie sur Terre seraient remises en question... Or depuis le XIX e siècle, avec la révolution industrielle et la mondialisation, le recours massif aux énergies fossiles – pour le transport (marchandises, tourisme), l’industrie, l’éclairage, l’habitat – a considérablement accru le volume des GES présents dans l’atmosphère, rompant cet équilibrage naturel. En 2020, ce niveau de concentration a atteint des quantités records. Ce changement, consubstantiel d’une mondialisation, est tenu pour responsable de la hausse des températures, qui ont augmenté de 0,74 °C entre 1906 et 2010, selon les experts du Giec. Ce n’est peut-être qu’un début, car les températures pourraient augmenter de 2 à 6 °C avant la fin du XXI e siècle, si aucune mesure n’est prise, menaçant ainsi d’extinction la biodiversité et la vie sur la Terre. Le sujet semble aujourd’hui médiatiquement et politiquement clair et prouvé... Le débat scientifique ne fait pourtant pas complètement consensus et trouve ses opposants. Les climatosceptiques en question Les « climatosceptiques » remettent en cause les fondements scientifiques non pas tant du réchauffement climatique, qui est une évidence en tant que tel, mais plutôt la causalité entre émissions de CO 2 , changement climatique et responsabilité humaine dans ce phénomène. Ils jugent qu’il y a un manque de preuves scientifiques établissant les liens de cause à effet, et arguent notamment du fait que la planète a toujours connu des phases de réchauffement et des accélérations, comme celles constatées ces dernières années. L’administration Bush – proche de l’industrie pétrolière –, qui gagna les élections face au démocrate Al Gore, n’hésita pas à mobiliser ainsi Fred Singer, un physicien reconnu qui parcourait les plateaux de télévision en expliquant qu’« aucune preuve ne permet d’attribuer le réchauffement climatique à des causes humaines, et même que le monde pourrait bénéficier de quelques degrés de plus ». C’est aussi le cas du scientifique incontesté de l’atmosphère, Richard Lindzen, professeur au MIT, qui ne nie pas le changement climatique mais estime que le rôle du CO 2 est minime. Certains scientifiques, y compris des membres du Giec, notamment Richard Courtney, consultant en science du climat et de l’atmosphère, affirment donc qu’aucune preuve d’un réchauffement climatique causé par l’homme n’aurait été apportée. D’autres font entendre leurs voix au travers d’organisations telles que le NIPCC (Nongovernmental International Panel on Climate Change) qui, par opposition au IPCC – Giec –, défend la thèse d’un réchauffement non anthropique. En 2015, CO 2 Coalition a soutenu le retrait des États-Unis de l’accord de Paris (voir plus loin), et, en septembre 2019, Clintel, une alliance de 500 scientifiques et professionnels en science climatique, a adressé une lettre aux Nations unies (« Déclaration européenne sur le climat ») débutant par ces mots : « Il n’y a pas d’urgence climatique. » Parmi ces derniers figurent plusieurs Prix Nobel et scientifiques célèbres tels que Freeman Dyson 3 . Les éléments de préoccupation s’accumulent Même si les travaux de recherche continuent, pour analyser plus finement la corrélation entre les activités humaines et le changement climatique, une grande majorité de scientifiques affirment tout de même être à 90 % certains de cette responsabilité et soutiennent qu’il faut largement promouvoir la lutte contre le changement climatique. Les analyses de long terme réalisées par les experts du Giec montrent qu’entre 1880 – date du début de l’ère industrielle et donc de la mondialisation moderne – et 2012, la température moyenne globale a augmenté de 1 °C (+0,85 °C). Ce lissage ne reflète pas vraiment l’aggravation du phénomène, car la période 1981-2010 a été la plus chaude depuis mille quatre cents ans. Il ne se passe d’ailleurs pas une semaine sans que des épisodes climatiques extrêmes (inondations, sécheresses, fonte des glaces, incendies, ouragans, records de températures...) ne viennent illustrer ce changement devenu urgence climatique. La seule année 2020 s’est imposée comme une « annus horribilis » tant sur le plan climatique que sanitaire (avec la Covid-19), l’une des trois années les plus chaudes jamais enregistrées avec une température moyenne mondiale, entre janvier et octobre, supérieure d’environ 1,2 °C à celles relevées sur la période de référence 1850-1900. Selon l’ONU, cet état de fait accroît le risque de voir dépassé le niveau de 1,5 °C, prévu d’ici à 2024 par l’accord de Paris. Dès fin 2019 démarraient d’ailleurs de terribles feux de brousse en Australie, poursuivis de nombreuses semaines avec un bilan catastrophique 4 et un impact majeur sur la biodiversité. De la même manière, la Sibérie a déploré plus de 11 millions d’hectares (soit plus de la superficie du Portugal) également partis en fumée depuis début 2020. Le phénomène est doublement inquiétant car la Sibérie (notamment l’Est) connaît un réchauffement deux fois supérieur à celui du reste de la planète (5 °C de plus que les moyennes saisonnières), ce qui favorise la perte rapide de la couverture de glace. Les États-Unis n’ont pas non plus échappé aux flammes, notamment en Californie. Après plus de cent jours sans une goutte de pluie se déclarait à la mi-août 2020 un « giga-incendie » (August Complex) qui allait battre le record des plus grands feux californiens et détruire plus de 1,6 million d’hectares de végétation (soit le double des records historiques équivalent à la superficie de la région Île-de-France). La saison des typhons et des supertyphons a franchi un cran en 2020 : après Bavi (Chine, Corée du Nord) et Maysak (Micronésie), le typhon Haishen (Japon, Corée du Nord), dans le Pacifique nord-ouest, et juste après le passage de Molave aux Philippines, celui de Goni a littéralement balayé l’archipel, avant l’arrivée d’Atsani. Goni a été le plus intense de l’année 2020 et a été le plus violent jamais survenu sur terre, avec des rafales de vent à plus de 300 km/h, des précipitations sur les zones côtières et sur les reliefs atteignant en vingt-quatre heures l’équivalent de deux à trois mois de pluie. Conséquence du changement climatique, selon le Giec, le nombre d’ouragans a doublé en cent ans pour atteindre 85 par an et il devrait continuer à s’accroître. Le réchauffement des océans bat des records, et il entraîne des conséquences sérieuses sur les écosystèmes marins déjà affectés par l’acidification des eaux due au CO 2 , dont une majeure partie provenant des navires de marchandises, outil principal de la mondialisation. Les records de chaleur et les sécheresses se multiplient, l’eau se raréfie, provoquant des situations de stress hydrique par endroits et des inondations ailleurs, ce qui entraîne une baisse des rendements agricoles. La biodiversité, désormais reconnue comme un des enjeux majeurs climato-environnementaux, y est menacée, risquant d’ailleurs de provoquer l’accélération des pandémies. Encore une fois, tout est lié. En effet, des liens de plus en plus évidents apparaissent entre la biodiversité et la santé. Cette approche semblerait d’ailleurs être le meilleur bouclier contre les zoonoses, ces maladies qui passent des animaux aux êtres humains, et dont ferait d’ailleurs partie la Covid-19, d’après les informations disponibles à date. La situation est d’autant plus grave que le changement climatique que l’on vit actuellement a lieu à un rythme accéléré jamais connu dans l’histoire du monde... même si apparemment, à la fin du Pliocène, il y a trois millions d’années, on a déjà eu une concentration en CO 2 dépassant pour la dernière fois les 400 ppm au niveau actuel. Toutefois, l’accumulation de CO 2 s’était réalisée sur plusieurs millions d’années. Dans le cas actuel, en revanche, les émissions de dioxyde de carbone ont augmenté de plus de 40 % dans l’atmosphère en à peine cent cinquante ans. Sans action massive pour décarboner, on pourrait atteindre une concentration équivalente à un taux de 2 000 ppm au milieu du XXIII e siècle, voire avant, ce qui entraînerait un réchauffement de la planète de 3 ou 4 °C, avec des conséquences irréversibles dont, selon les glaciologues, une augmentation du niveau des océans entre 50 cm et 1 m d’ici à la fin du XXI e siècle. L’accord de Paris, enjeux de rivalités de leadership entre nations Dans le cadre de la COP 21 a été signé, après un marathon diplomatique, l’accord de Paris. Cent quatre-vingt- seize pays engageaient (sans contraintes) leurs gouvernements à limiter le réchauffement climatique à moins de 2 °C à travers différentes mesures à mettre en œuvre dans les années à venir afin de réorienter leurs économies vers des modèles bas carbone fondés sur un abandon progressif des énergies fossiles. Ces dernières constituent tout de même encore 70 % du mix énergétique mondial. Pour ce faire, les pays doivent faire cause commune et développer des stratégies de développement à faibles émissions à long terme. Dans la pratique, cela suppose de mettre en œuvre des plans quinquennaux de plus en plus exigeants pour atteindre au plus vite le pic mondial des émissions de GES et, ensuite, parvenir enfin à la neutralité carbone à l’horizon 2050. Ces objectifs – appelés « contributions déterminées nationalement » (Nationally Determined Contributions, NDC) – expliquent les mesures destinées à réduire les niveaux d’émissions de GES et à améliorer leur résilience à une élévation des températures. Lors de la COP 22, à Marrakech, un an plus tard, on disposait d’un document ratifié par 103 États qui représentaient 73 % des GES. L’Australie, fort dépendante du charbon, et figurant parmi les pires émetteurs par habitant de gaz à effet de serre, avait ratifié l’accord quelques jours plus tôt et confirmait l’objectif de réduire ses émissions de 26 à 28 % de leur niveau de 2005 à l’horizon 2030. Rappelons que l’entrée en vigueur de cet accord était conditionnée à la ratification par au moins 55 pays qui totalisent 55 % des émissions mondiales. Ceci était alors déjà le cas, bien que de nombreux pays ne l’eussent pas encore ratifié : Turquie, Russie, Japon, Espagne en pleine crise électorale... ou ceux, comme les États-Unis qui, sous la nouvelle ère Trump, menaçaient déjà de traîner des pieds... L’accord de Paris est entré en vigueur le 4 novembre 2016. Un an plus tard, en novembre 2017 (la Syrie avait également signé et les États-Unis ne s’étaient pas encore retirés), 195 pays sur les 197 reconnus par l’ONU s’étaient engagés. En fait, les objectifs sont volontaires et la seule obligation est que, cinq ans plus tard, l’objectif doit être plus grand, mais sans aucune précision. De plus, les États en développement n’ont aucune obligation sérieuse ou dissuasive... Transition énergétique et croissance économique : l’ultrapolarisation du débat aux États-Unis L’exemple américain illustre le problème de la polarisation idéologique en matière de politique énergétique et de décisions impliquant le respect de l’environnement, encore trop souvent vu comme l’apanage de la gauche, même si les positions évoluent. Aux États-Unis, la question est d’autant plus sensible que le pays paie cher son indépendance énergétique gagnée à grand renfort de pétrole et de gaz de schiste. Ainsi, il semble difficile de trouver des positions plus tranchées en matière d’ambitions et de politiques climatiques que celles tenues par Donald Trump et Joe Biden. Obama avait signé l’accord de Paris. Trump en est sorti et Biden, qui avait promis de réintégrer l’accord 5 , l’a fait le premier jour de son investiture. Les propos de campagne de deux candidats sur la question du changement climatique ont permis de mieux cerner les motivations et analyses respectives. D’après Trump, pour qui les principaux responsables de la pollution sont la Chine, l’Inde et la Russie, il n’est pas concevable de sacrifier des industries et des emplois sur l’autel du changement climatique et de transférer de l’argent des contribuables américains à la Chine à ce titre. Un propos sans surprise de la part d’un Président qui avait pris la décision de sortir des accords de Paris jugés « horribles, coûteux, unilatéraux », tout en se targuant que son pays avait gagné la « guerre du beau charbon propre ». On observera en passant que ce sont la Chine et le Japon, et non pas les États- Unis, qui sont les plus grands vendeurs de centrales électriques au charbon modernes et efficaces. À l’inverse, Joe Biden, dans la droite ligne de la pensée démocrate, fort de l’appui de Barack Obama et d’Al Gore, particulièrement engagés en matière de lutte contre le changement climatique, reconnaissait dans le réchauffement climatique le « danger le plus essentiel pour l’humanité » et voyait comme un « impératif moral de s’y attaquer » dans les plus brefs délais. Pour Trump, on pouvait souhaiter avoir « l’eau la plus buvable, l’air le plus pur, et le moins d’émissions de carbone » tout en dénonçant « les éoliennes, très intermittentes, qui tuent les oiseaux, et le solaire trop cher et pas assez puissant pour faire tourner les belles industries américaines ». Biden, quant à lui, défendait les « emplois bien payés dans le solaire et l’éolien » (25 à 30 dollars de l’heure selon lui) et accusait Trump d’avoir éliminé toute la réglementation en matière d’environnement. Il affirmait vouloir équiper le réseau routier américain avec « 50 000 bornes électriques », pour ne pas perdre le leadership de l’industrie automobile en pleine mutation au profit de la Chine, avec nombre d’autres propositions et objectifs 6 . Enfin, Trump considérait avoir rendu le pays indépendant des importations pétrolières, évitant ainsi de nombreuses guerres dans le monde souvent liées à la géopolitique du pétrole. Toutefois, la position proclimat de Biden reste néanmoins ambiguë – comme celle de Barack Obama – sur la fracturation hydraulique qui permet la production de pétrole et de gaz de schiste. Rappelons qu’Obama, malgré sa volonté de verdir l’économie, a largement contribué à développer cette pratique. De même, Biden, qui promet des investissements massifs vers la transition énergétique, déclare en même temps devoir gérer une « transition pétrolière » qui doit s’inscrire dans la durée nécessaire pour permettre d’investir massivement dans les énergies renouvelables. Autre paradoxe, on rappellera que dans la pratique, le retrait de l’accord de Paris voulu par Donald Trump était prévu pour ne prendre effet, coïncidence des calendriers... qu’au lendemain du scrutin, c’est-à-dire le 4 novembre 2020, et l’ex-Président climatosceptique n’a jamais totalement gelé les discussions techniques qui ont continué en coulisse : une délégation américaine était notamment présente à Madrid lors de la COP 25, pour préparer, le cas échéant, un retour éventuel. Joe Biden devra ainsi flécher les aides massives décidées pour défendre l’économie américaine face à la Covid vers cette nouvelle économie dite « régénérative », en réconciliant l’économie, l’écologie et l’investissement. Par ailleurs, les positions anticlimatiques de Donald Trump ont, paradoxalement, contribué à mobiliser les acteurs américains non fédéraux qui se positionnent aux avant-postes de la lutte contre le réchauffement climatique : les tribunaux ont été interpellés par vingt-deux États et sept grandes villes qui ont décidé de porter plainte contre la politique environnementale du gouvernement Trump. Ainsi des États, des villes et donc bien sûr des citoyens, mais aussi des entreprises, pesant pour plus de la moitié de l’économie et de la population, se sont engagés à tenir les objectifs de l’accord de Paris malgré le manque de soutien politique fédéral. En ce qui concerne les entreprises, en Californie ou à New York, le poids des multinationales aidant, Tesla, totalement acquise à la cause du monde postcarbone, devenue un énorme succès boursier, avec près de 400 milliards de dollars de capitalisation (soit 2 fois plus que Toyota et plus de 10 fois celle de Ford), en est un exemple emblématique. À l’inverse, la sortie récente d’ExxonMobil, l’empereur du pétrole, de l’indice du Dow Jones (après plusieurs décennies) est le signe d’un réveil de certains investisseurs sur le risque climatique qui est aussi un risque financier pour les entreprises des secteurs carbonés et les institutions financières. Le président Biden devra inciter les régulateurs financiers pour que ce risque soit intégré dans les réglementations et donc pris en compte dans les stratégies d’investissement des institutions financières. Vers une « civilisation écologique », le nouveau leitmotiv de Xi Jinping Quant à la Chine, rivale économique des États-Unis, première exportatrice mondiale et grosse consommatrice d’énergie, qui détient désormais le triste record de pays le plus émetteur au monde avec 20 % des émissions mondiales, elle annonce construire plus de 250 GW de nouvelles centrales au charbon alors que toutes celles de l’UE s’élèvent à 150 GW. Pékin a paradoxalement apporté son soutien, dès le début, à l’accord de Paris. Il faut dire qu’après la COP 21, l’occasion était trop belle pour les Chinois de reprendre le flambeau de la lutte contre le changement climatique abandonné par Donald Trump... Scrutée par la communauté internationale, Pékin avait décidé de déployer un plan d’action à la hauteur de ses nouvelles ambitions, affichées haut et fort, de rendre la « Chine plus belle » et d’accélérer son projet d’« éco-civilisation 7 » (EC). Ce projet a été réaffirmé le 18 octobre 2020 lors du XIX e congrès du Parti communiste chinois : Xi Jinping a notamment annoncé de « promouvoir l’édification d’une civilisation écologique à l’échelle mondiale » en continuant à déployer de grands efforts (développement massif des énergies vertes, diminution des consommations, investissements...), et il a de plus affirmé, à la surprise générale, à l’occasion d’un discours prononcé à l’Assemblée générale de l’ONU, avoir commencé « à faire baisser les émissions de CO 2 avant 2030, et d’atteindre la neutralité carbone d’ici 2060 ». De ce fait, la Chine s’impose aujourd’hui comme moteur et leader de l’écologie et des énergies renouvelables. Cette évolution n’est qu’une des illustrations d’une ambition politique chinoise beaucoup plus large qui vise à se lancer à la conquête de marchés internationaux avec des gigantesques projets de développement en perspective, avec, à la clé, le risque d’un autre grand déclassement des démocraties occidentales, ainsi « doublées » sur leur propre créneau moralisateur climatique et écologique tant à la mode, mais qu’elles sont incapables d’appliquer concrètement de façon rapide et à grande échelle comme le système autoritaire chinois le permet... Pour Xi Jinping, l’idée d’éco-civilisation s’appuie sur l’innovation technologique et la croissance qui l’accompagne. À l’opposé de celle des écolos rouges-verts occidentaux, cette stratégie n’est pas conçue par Pékin, dans le cadre d’un mondialisme utopique et antifrontiériste justifiant la fin des Nations, mais au contraire comme un autre instrument de puissance nationale et une « synthèse à la chinoise », c’est-à-dire à marche forcée pour édifier la future hyperpuissance phare de la « belle Chine » et de son idéologie confucéo-maoïste capitaliste. Lors du dernier Eco Forum Global Annual Conference de Guiyang, organisé en 2018, le sujet de la « nouvelle ère de l’éco-civilisation » a ainsi lancé la campagne chinoise mondiale en faveur d’un « développement vert avec une haute priorité pour l’Écologie ». Cette conférence annuelle, qui fêtait sa 10 e édition, avait lieu à Guiyang, métropole-vitrine du modèle qui concilie écologie, innovation et croissance. Le projet chinois de « croissance verte », aux antipodes de la décroissance des écolos européens : un autre grand déclassement en cours... De fait, Pékin affiche des résultats à faire pâlir d’envie de nombreux pays en matière de développement des énergies renouvelables, même si le pays reste très dépendant du charbon. La Chine, vu sa taille gigantesque, s’illustre par de véritables records en matière d’investissements verts porteurs de croissance économique durable : elle est désormais la première puissance mondiale en matière de production d’énergie renouvelable, et ce n’est pas fini ! Elle a doublé ses capacités en matière de solaire photovoltaïque entre 2015 et 2020, et elle s’est distinguée comme le pays ayant installé deux fois plus de capacités de production que la plupart des pays réunis sur la seule année 2016. Son parc solaire étant devenu cinq fois plus important que celui des États-Unis. En ce qui concerne l’éolien, elle a déjà déclassé la totalité de la capacité de l’Europe dans ce secteur. En matière de mobilité propre, Pékin est en pointe, avec des décisions claires, dans la production de véhicules thermiques. Lors du salon de l’automobile de Pékin d’avril 2020, les experts prévisionnistes ont même émis la crainte que la Chine devienne bientôt le leader absolu des véhicules électriques, une concurrence terrible pour les constructeurs européens moins compétitifs qui risquent là aussi le déclassement industriel. Il faut dire que le pays a tout pour réussir ce virage et développer la totalité de la filière : un gigantesque marché intérieur de près de 1,4 milliard d’habitants, des métaux rares (voir infra) indispensables au fonctionnement de ces nouveaux moteurs, des capacités industrielles dont celles nécessaires à la fabrication de batteries électriques, et un vivier de mains-d’œuvre et de compétences impressionnants. Bref, les Chinois semblent avoir compris qu’ils pourraient parfaitement revendiquer l’industrie automobile du futur. Le président Xi Jinping a d’ailleurs imposé à tous les constructeurs de réaliser, dès 2019, 10 % de leurs ventes avec des voitures hybrides ou électriques tout en exigeant des quotas plus restrictifs que partout ailleurs dans le monde, pour les véhicules trop énergétivores. Ceci est une véritable leçon en matière de capacité de faire d’une pierre trois coups : un énorme marché à la clé pour les entreprises nationales, une solution concrète pour réduire la pollution et rendre le ciel des villes encombrées plus bleu, et une position de filière industrielle prédominante. Rappelons que la Chine a investi 360 milliards de dollars pour construire le premier réseau de lignes à grande vitesse dans le monde. Avec plus de 22 000 km de lignes, celui-ci permet de desservir la plupart de grandes villes chinoises autour de huit grands axes. Un chiffre supérieur à la somme de tous les réseaux du reste du monde et qui laisse rêveurs bon nombre de pays occidentaux ! Bref, le gouvernement chinois semble bien décidé à promouvoir un environnementalisme politique, avec des moyens de mise en œuvre dépassant de loin le cadre de l’action possible des gouvernements occidentaux. À n’en pas douter, la guerre économique sans merci à laquelle se livrent désormais la superpuissance américaine et la Chine se traduira par une accélération des investissements verts dans une recherche de leadership en matière de neutralité carbone. Joe Biden a quant à lui annoncé être prêt à faire ce qu’il fallait pour atteindre la neutralité carbone du secteur électrique d’ici 2035, un objectif problématique du fait que les énergies fossiles représentent 65 % de la génération de l’électricité. En clair, une très forte accélération, en matière d’investissements, notamment dans le secteur des énergies renouvelables, sous réserve de se désempêtrer d’un secteur pétrolier qui, on l’a vu, pèse encore fortement dans la logique économique américaine. En matière d’infrastructures, on sait que l’Amérique peut aller vite, et si Biden réalise son plan, comme l’affirme le spécialiste Robert Bell, elle pourrait « devenir le leader incontesté dans le domaine des énergies renouvelables, comme elle l’a fait avec le numérique il y a trente ans 8 ». Vers un nouveau paradigme écoénergétique En 2018, la production d’électricité – dite « thermique », c’est-à-dire à partir d’énergies fossiles – qui représentait 19 % de la production mondiale d’énergie provenait pour 64 % des énergies fossiles. Le reste de la production électrique au niveau mondial (estimée globalement entre 20 000 et 25 000 TWh) est assuré par l’énergie nucléaire (10 % du total), et les énergies renouvelables (un quart du total, dont celle hydroélectrique de loin la principale). Avec près de 45 % de la production mondiale, la Chine et les États-Unis représentent les deux principaux pays producteurs d’électricité au monde. La part de l’électricité dans la consommation finale d’énergie a plus que doublé en quarante-quatre ans, depuis 1973 9 . Dans le même intervalle, la consommation finale d’énergie – toutes utilisations confondues – dans le monde s’est accrue de 109 %, pour s’élever, en 2018, à 9 983 millions de tonnes équivalent pétrole (Mtep), dont 19 % sous forme d’électricité. Les conséquences de ces hausses sont bien connues aujourd’hui avec la pollution et le réchauffement climatique, autre revers de la mondialisation marchande. L’objectif de construire un monde neutre en carbone est donc très ambitieux... Aussi, une transformation économique et sociale semble aujourd’hui nécessaire dans les pays occidentaux, déjà en retard par rapport à la Chine, pour faire émerger un nouveau paradigme écoénergétique dans le cadre d’une vision de long terme susceptible à la fois de viser une croissance verte, voire « régénératrice » pour le bien-être des générations futures. Pour contenir ce réchauffement climatique, les solutions sont connues : accroître la part des énergies renouvelables, capture et stockage du CO 2 , réductions des consommations et déchets, modification des habitudes et transports, recours au nucléaire, etc. Cette nouvelle dynamique, poussée par les objectifs de développement durable (ODD) onusiens, sera l’occasion de faire également émerger de nouvelles formes de leadership à la conquête d’un monde capable de se développer sur la base de règles et contraintes novatrices privilégiant les solutions à faible intensité carbone. Elle impose également de mobiliser des financements (initialement chiffrés à 100 milliards de dollars par an) auprès des nations industrialisées en faveur des pays du Sud, plus vulnérables au changement climatique... Dans de nombreux pays, les énergies renouvelables sont désormais clairement reconnues comme compétitives face aux fossiles. Toutefois, des voix s’élèvent pour attirer l’attention sur leur face cachée. La compétitivité est observable aux bornes de la machine qui les produit, mais du fait de leur forte intermittence et de leur très faible taux de charges – elles ne produisent qu’un cinquième du temps –, la facture d’électricité dans tous les pays qui poussent cette production ne cesse de croître. Le système électrique est un vaste réseau complexe et ne l’examiner que par la réduction du coût des installations éoliennes ou solaires conduit à penser erronément que ces énergies sont bon marché. C’est exactement le contraire, raison pour laquelle si on veut les produire, il faut le faire sous la contrainte du législateur. Pour le solaire, le secteur prévoit que le photovoltaïque mondial continuera à se développer de façon exponentielle. Il a déjà dépassé 600 GW de puissance solaire totale installée à ce jour (au-delà des estimations les plus optimistes) contre 178 GW à fin 2014. Et la course aux infrastructures vertes est loin d’être terminée... En 2024, la capacité solaire mondiale pourrait atteindre 1 448 GW. L’effet d’échelle se traduit par une baisse des coûts 10 qui contribuera à améliorer encore davantage la compétitivité de la production de cette énergie. La même observation vaut également pour l’hydrogène produit de façon écologique par la technique de l’électrolyse de l’eau, l’une des grandes solutions de l’avenir, véritable alternative aux hydrocarbures classiques et non conventionnels. C’est ainsi que les Aéroports de Paris (aujourd’hui Groupe ADP) envisagent d’installer des réservoirs d’hydrogène en vue de la réception d’une nouvelle génération d’avions « verts » qui pourraient décoller vers 2030 au plus tôt. D’une manière générale, les constructeurs automobiles se préparent également au changement de motorisation, qu’il s’agisse de l’électrique ou de l’hydrogène, laquelle impliquera pendant de nombreuses années une diminution de la production et des prix de vente beaucoup plus élevés. Depuis la COP 21, les tentatives de résurgence de l’Ancien Monde paraissent peu à peu s’éloigner... De nombreux freins contribuent à rendre le passage de l’Ancien Monde vers le Nouveau Monde extrêmement délicat. Aujourd’hui, les entreprises se doivent de faire du profit tout en veillant aux enjeux environnementaux et sociétaux, et nombre de firmes historiques du secteur de l’énergie éprouvent d’énormes réticences et/ou difficultés à se transformer. En matière de transition énergétique, ce paradoxe se traduit toujours par une prédominance des énergies fossiles (pétrole, gaz, charbon) dont la part se réduit encore trop lentement. Le pétrole, à lui seul, représente 30 % du mix en 2020 (vs 37 % en 1990)... La crise de la Covid a provoqué un double choc de l’offre et de la demande qui s’est traduit par un tel effondrement des prix (30 dollars le baril) que cela remet en question les conditions de survie même du pétrole de schiste américain, rentable au-dessus de 50 dollars le baril. Selon certains, l’urgence de la transition énergétique est d’autant plus nécessaire que les coûts de « ne rien faire » deviendraient aujourd’hui supérieurs aux coûts d’agir. Plus de 200 des plus grandes entreprises cotées du monde prévoient que le changement climatique pourrait leur coûter près de 1 000 milliards de dollars au total dans les cinq prochaines années, un montant pourtant encore largement sous-estimé selon un rapport de l’organisation CDP (Carbon Disclosure Project 11 ). Les assureurs paient des notes de plus en plus salées du fait d’épisodes climatiques extrêmes (inondations à répétition, incendies, tempêtes plus fréquentes et plus violentes, ouragans, vagues de chaleur, canicules...), mais aussi parce que la démographie et la mondialisation poussent des populations urbaines à se concentrer dans des zones à risques météorologiques. Pour l’horizon 2030, les grands objectifs, arrêtés par le Conseil européen dès octobre 2014, envisagent comme priorité la réduction des émissions d’au moins 40 % en 2030 par rapport à 1990. Cet objectif est d’ores et déjà considéré comme une étape de la feuille de route de la Commission européenne qui parie sur une économie sobre en carbone à l’horizon 2050. Elle propose ainsi des scénarios pour atteindre de manière optimale l’objectif que s’est fixé l’UE de réduire de 80 à 95 % ses émissions de gaz à effet de serre d’ici à 2050, par rapport à leur niveau de 1990. La France soutient cette approche, également appelée ZEN 2050 (Zéro émission nette). La crise du coronavirus va probablement relancer et accélérer cette réflexion de fond. Pétrole et gaz de schiste et filières nucléaires, les énergies renouvelables n’ont pas encore gagné la partie... En dépit des nombreux projets ambitieux visant à bâtir une économie entièrement décarbonée, et outre les contradictions et effets pervers, en matière d’émissions de CO 2 , de l’économie ubérisée et des nouvelles technologies consommatrices de terres rares hautement polluantes et émettrices de CO 2 (voir infra), le débat sur les énergies fossiles elles-mêmes est loin d’être définitivement clos, eu égard aux succès de deux énergies non renouvelables : les hydrocarbures de schistes et les filières nucléaires, tant classiques que de nouvelle génération. Commençons par les énergies fossiles et notamment le gaz, bien moins polluant et bien plus prisé que le pétrole. Il convient de rappeler que nos économies industrialisées en sont encore très fortement dépendantes, surtout des différents gaz. Certains annoncent pour bientôt une économie mondiale débarrassée des hydrocarbures, mais il s’agit là d’un vœu pieux, car si la part de consommation mondiale de pétrole diminue et aura vocation à être remplacée en partie par les énergies renouvelables, il n’en va pas de même du gaz, qui sera l’une des énergies du XXI e siècle, aux côtés des renouvelables, du nucléaire et de l’hydrogène. Démarrée il y a une dizaine d’années seulement, donc sous l’ère du pourtant réputé écologique Barack Obama, la révolution du gaz de schiste a complètement changé la donne énergétique américaine et mondiale, faisant du pays une superpuissance pétrolière et gazière et bousculant ainsi les équilibres géopolitiques mondiaux. Depuis les années 2000, les réserves américaines commençaient à s’épuiser. L’arrivée du gaz de schiste à la fin des années 2000 a « réglé » le problème. Les compagnies pétrolières ont alors commencé à creuser plus profondément pour avoir accès aux réserves. Pour l’extraire, le procédé choisi est la fracturation hydraulique, consommatrice de produits chimiques et d’eau. Paradoxalement, l’exploitation de pétrole et de gaz de schiste, contrairement aux hydrocarbures conventionnels, est rapide à réaliser avec des puits moins coûteux que ceux nécessaires pour l’extraction du pétrole conventionnel (avec les fameuses pompes : pump jacks). Chaque gisement contient toutefois une quantité limitée d’hydrocarbures, ce qui nécessite la construction de dizaines de nouvelles installations chaque semaine 12 . Le pétrole de schiste a connu lui aussi une renaissance depuis les années 2000, en même temps que progressait la « conscience climatique »... Totalement marginale en 2007, la production de pétrole de schiste représentait en 2018 plus de la moitié de la production de pétrole aux États-Unis. Ainsi, l’Agence internationale de l’énergie (AIE), pourtant partisane de la décarbonation et des énergies renouvelables, prévoit que la production de pétrole de schiste atteindra 11 millions de barils par jour d’ici à 2035, soit 66 % de la production totale aux États-Unis. Longtemps premiers importateurs mondiaux de pétrole, les États-Unis sont devenus exportateurs nets de brut et de produits pétroliers en 2020 13 . Avec une production qui a atteint près de 12 millions de barils par jour, en 2019, les exportations de pétrole, de gaz et de charbon combinées ont été supérieures aux importations, pour la première fois depuis 1953... et les États-Unis, qui ont ainsi gagné leur indépendance énergétique, ne prévoient pas de redevenir importateurs nets de pétrole avant 2050... Cette croissance prend en compte la relance de l’exploitation de pétrole off-shore, décidée par l’administration Trump. Dans ce domaine, il est vrai que les États-Unis ont été bien moins scrupuleux que l’Union européenne eu égard aux conséquences écologiques délétères des systèmes de fracturation hydraulique propres à la production des gaz et pétroles de schiste. Officiellement très fortement mobilisées par la lutte contre le changement climatique, les industries privées du pays ont été autorisées à investir largement dans des gazoducs pour exporter vers le Mexique, le Canada, l’Europe – comme on vient de le voir – ou l’Asie. Cela ne veut pas dire que les États-Unis n’importent pas. En effet, le pays continue à s’approvisionner en pétrole canadien, saoudien, mexicain, vénézuélien et irakien, à hauteur de 6 millions de barils par jour, pour des raisons essentiellement techniques, liées à la capacité des raffineries américaines réglées pour traiter des bruts plutôt lourds (le pétrole de schiste étant un peu plus léger, ce qui explique qu’on privilégie son exportation). Bien entendu, l’échiquier politico-énergétique mondial a changé en fonction de cette nouvelle donne. Ainsi, le blocus et le régime de sanctions américains contre l’Iran ou la Russie – en réalité pas uniquement motivés par la « morale » mais aussi et surtout par la concurrence énergétique – ont ouvert de nouveaux débouchés au pétrole et au gaz américains, qui se sont ainsi substitués en partie au brut iranien exporté vers l’Europe et l’Asie et qui a vocation à concurrencer le gaz russe... Et selon la Commission européenne, les exportations de gaz naturel liquide américain vers l’Europe ont augmenté de 272 % depuis juillet 2018... Les gazoducs russo-européens, des épines dans le pied pour l’hégémon américain... Le gazoduc South Stream a fait les frais de ce que nous avons baptisé la « néo-guerre froide » États-Unis- Russie (voir carte n o 13). Ce pipeline, long de 3 600 km, destiné à exporter le gaz sibérien en contournant l’Ukraine, devait fournir jusqu’à 63 milliards de mètres cubes par an aux pays européens grâce à deux branches, l’une vers l’Autriche, l’autre vers les Balkans et l’Italie. Lancé en 2007, ce projet, appuyé notamment par l’Italie et d’autres pays d’Europe du Sud et balkanique, a été abandonné, en décembre 2014, en raison des pressions des États-Unis et des pays les plus antirusses de l’UE. Ces derniers souhaitaient voir leur allié ukrainien demeurer dans le jeu gazier et surtout ne pas dépendre directement de Moscou. Ce choix russosceptique allait favoriser en réaction un rapprochement géoénergétique entre Russes et Turcs : ces derniers sont traditionnellement impliqués dans la réduction de la dépendance européenne vis-à-vis de la Russie, mais ils ont décidé d’offrir leur voie de transit au plus offrant et ont eux-mêmes fort besoin des hydrocarbures de Russie et des Républiques turcophones ex-soviétiques prorusses membres de la Communauté des États indépendants (CEI). Cela étant, d’autres infrastructures (Nord Stream, voir carte n o 13) permettent d’acheminer du gaz de Russie, notamment vers l’Allemagne, pays figurant parmi les plus dépendants de l’UE envers la Russie pour sa demande en gaz naturel (63,5 %). Ce gazoduc, qui passe sous la Baltique et débouche dans le nord de l’Allemagne, a été mis en service en 2012. Nord Stream 2 visait à doubler la capacité de livraisons directes de gaz russes du réseau Nord Stream 1, pour parvenir à 110 milliards de mètres cubes par an. Avec des investissements estimés à 11 milliards d’euros, financés pour moitié par la compagnie russe Gazprom (et le solde par les sociétés européennes OMV, Wintershall Dea, Engie, Uniper et Shell), le projet s’est attiré les foudres du Congrès bipartisan des États-Unis, qui accusait publiquement l’Allemagne d’être « prisonnière » de la Russie et exigeait son abandon 14 ... Nord Stream 2 devait être mis en service début 2020 mais a été brutalement interrompu pendant près d’un an, sous les intenses pressions de l’administration Trump, avant de reprendre en décembre 2020, ceci malgré les sanctions « extraterritoriales » adoptées par les États-Unis en décembre 2019 contre les entreprises allemandes et russes collaborant au projet 15 . En juin 2021, alors que ses 1 230 km étaient quasiment terminés (il manquait en juin 2021 6 % du gazoduc à achever, 74 km), l’administration de Joe Biden a continué à multiplier les pressions pour retarder ou compromettre la mise en route du gazoduc, voyant dans l’Europe un parfait débouché pour son abondant gaz naturel de schiste. C’est dans ce contexte que, le 11 juin 2021, Joe Biden a invité la chancelière allemande Angela Merkel à Washington afin, notamment, de tenter de la convaincre de renoncer au gazoduc atlantistement incorrect... Joe Biden a toutefois renoncé à poursuivre les sanctions, jugées contre-productives, afin de préserver la relation germano-américaine, essentielle pour pérenniser l’hégémonie américaine et atlantiste sur le Vieux Continent. Toujours est-il que cette affaire a confirmé une fois de plus comment la puissance unilatérale étatsunienne instrumentalise des conflits comme l’Ukraine (qu’elle a d’ailleurs contribué à faire exploser 16 ), et des arguments moralistes, pour pérenniser l’aberration internationale que constituent les lois extraterritoriales américaines. Celles-ci permettent en effet au Trésor américain de geler des avoirs de n’importe quels État et compagnie au monde (avec à la clé des « amendes » se chiffrant parfois en milliards de dollars, voir affaire BNP Paribas, Total ou Société générale) accusés de faire du commerce avec des « États voyous » (Rogue States) sous sanctions, ou dont les intérêts énergétiques (Iran, Russie, etc.) dérangent ceux des compagnies étatsuniennes et les stratégies d’endiguement du Deep State américain... Au-delà du gaz russe, les Européens se fournissent également, bien sûr, en Norvège, en Algérie et au Qatar, ce qui explique aussi la permissivité de l’UE vis-à-vis des Frères musulmans en Europe, parrainés et financés justement par Doha... Tout est lié. Et grâce à la diabolisation-éviction du concurrent géoénergétique russe par les États-Unis au nom des dossiers ukrainien et syrien ou de la question des droits de l’homme – très hypocritement orientée en exonérant les pétromonarchies du Golfe bien plus dictatoriales que Moscou – l’Union européenne n’est plus le seul maître de sa destinée énergétique. On est loin de la solidarité russo-européenne et de l’axe géoénergétique Paris- Berlin-Moscou désirée par le général de Gaulle dans le cadre de son plan Fouchet pour une Europe des nations indépendantes des États-Unis et donc « recontinentalisée »... À cet effet, l’ancien secrétaire d’État américain à l’Énergie, Rick Perry, n’avait pas hésité à vanter les mérites du gaz américain – pourtant bien que plus cher que le gaz russe – présenté comme « fiable » et synonyme de « liberté » pour les Européens ! En 2019, les importations de gaz naturel liquéfié (GNL) avaient ainsi bondi de 87 %, et 15 % du total provenaient des États-Unis. Le nucléaire : énergie de tous les dangers pour certains, solution de décarbonation pour d’autres... Abordons maintenant la question du nucléaire civil. Symbole de la puissance technologique et atout majeur des pays le maîtrisant, le nucléaire est aujourd’hui au cœur des débats et enjeux énergétiques car il permet en fait de produire local. Ses partisans rappellent que la fission de l’uranium n’émet pas de gaz à effet de serre et que le cycle carbone de la filière (de l’extraction de minerai à la gestion des déchets radioactifs) est très bas, et même, selon le Giec, encore plus bas que l’énergie éolienne. De plus, si le nucléaire est décrié pour des raisons de sécurité, d’autres y voient une solution bas carbone, d’autant que les réserves prouvées d’uranium sont évaluées à plus de cent ans avec des centrales de plus en plus économes en termes de combustibles. Là encore, les situations diffèrent en fonction des pays, de leur histoire et de leur sensibilité. Ainsi, avec ses 58 réacteurs nucléaires – devenus 56 depuis l’arrêt de Fessenheim en 2020 – la France, pays le plus nucléarisé au monde en proportion, produit 70 % de son électricité dans ses 18 centrales nucléaires, créant ainsi une situation inédite en termes de manque de diversité des sources d’approvisionnement. Cette situation est souvent analysée comme un obstacle à la production électrique renouvelable. Comparé au plus grand parc nucléaire au monde, américain (95 réacteurs opérationnels dans 65 centrales nucléaires, plus 2 en construction et 38 mis à l’arrêt définitif), la France est certes loin des États-Unis, avec une production de 395,91 TWh, contre 808 TWh. Par soucis de compétitivité, le programme nucléaire civil étatsunien, un temps freiné, a en fait été relancé depuis 2010 17 . Le budget consacré par le Department of Energy (DoE) à la filière nucléaire est ainsi passé de 986 millions de dollars, en 2016, à 1,493 milliard en 2020. Les États- Unis semblent de la sorte déterminés à faire renaître la filière énergétique nucléaire, notamment afin d’éviter un déclassement définitif en faveur de la Chine et de la Russie, ceci au moment où l’Europe se dénucléarise sans réussir la transition vers les renouvelables, comme on l’a vu en Allemagne qui ne réduit ses émissions qu’à la marge. La Chine une fois de plus leader dans le domaine La Chine est toutefois le pays dans lequel l’énergie nucléaire a le plus progressé et à une vitesse record. Pour réduire sa dépendance au charbon, le gouvernement de Pékin a en effet multiplié par dix le nombre de centrales nucléaires en fonctionnement en 2000, avec un objectif de capacité de 120-150 GW pour 2030, contre 63 GW aujourd’hui en France... En 2019, la Chine disposait de 47 réacteurs en fonctionnement (contre 38 en 2018). En plein été 2020, l’Association chinoise d’énergie nucléaire annonçait, malgré la pandémie de la Covid, la construction de 6 à 8 réacteurs par an d’ici à 2025, soit le double du rythme actuel, ceci en évitant les retards et les surcoûts qui ont largement handicapé le nucléaire français. Les catastrophes nucléaires successives 18 , qui ont quelque peu refroidi les ardeurs, expliquent notamment les technologies innovantes du secteur, par hybridation du réacteur américain et de l’EPR français, dont une version chinoise a permis de faire émerger le réacteur phare Hualong-1 19 . Ce réacteur, installé dans la centrale de Fuqing, au sud-est du pays, est le premier-né du modèle à eau pressurisée, conçu et construit 100 % made in China. Ses promoteurs rêvent de conquérir les marchés extérieurs. La Chine a ainsi vendu 2 réacteurs au Pakistan (et 3 supplémentaires en cours), et elle négocie des contrats avec le Royaume-Uni, l’Argentine, l’Iran, la Turquie, l’Afrique du Sud, le Kenya, l’Égypte, le Soudan, l’Arménie et le Kazakhstan. Pékin coopère également avec la Russie – entreprise Rosatom – pour enrichir l’uranium et développer des projets de centrales équipées des réacteurs russes VVER. La Chine est ainsi devenue un acteur majeur de la filière nucléaire à l’échelle internationale sur la totalité de la chaîne de conception, de construction et d’exploitation. Elle se distingue par ses innovations et notamment par un programme basé sur des démonstrateurs appelé le « Dragon Rising 2020 ». Pékin investit en plus fortement dans l’innovation et effectue des recherches intenses sur la fusion thermonucléaire. Depuis 2003, le pays est ainsi partenaire du grand projet international Iter de réacteur thermonucléaire (qu’on appelle également un tokamak). Le réacteur, situé à Cadarache en France, devrait générer son premier plasma en 2035. Mais la Chine possède aussi ses propres réacteurs et a battu, le 28 mai 2021, un record de température de fusion dans le troisième tokamak qu’elle vient de construire : l’Experimental Advanced Superconducting Tokamak (East) a atteint 160 millions de degrés Celsius et il a surtout réussi à maintenir son plasma à une température de plus de 120 millions de degrés Celsius pendant cent une secondes. D’évidence, même dans ces domaines, l’empire du Milieu promet de ne plus se contenter d’imiter, mais de déclasser l’Europe, et, à terme, les États-Unis... L’enjeu géoéconomique majeur des terres rares, la Chine toujours n o 1 La Chine a pour objectif non dissimulé de concurrencer les pays occidentaux dans tous les domaines stratégiques, économiques et industriels, puis de remporter les plus grands marchés dans le domaine de la transition énergétique. Dans cette entreprise pour le leadership global qui passe par le déclassement de l’Occident, elle a déjà inondé le monde entier en panneaux solaires made in China, bien moins chers que ceux des pays occidentaux, et cette victoire a été en partie facilitée par le fait qu’elle contrôle 90 % des matières premières nécessaires à leur fabrication comme les terres rares. Le résultat a été de littéralement détruire l’industrie européenne solaire, la quasi- totalité des entreprises spécialisées dans la technologie photovoltaïque étant d’ores et déjà chinoises. De ce point de vue, la suprématie chinoise en matière d’exploitation des terres rares condamne les pays occidentaux à une dépendance extrêmement problématique dans l’avenir. Les terres rares désignent une catégorie de métaux rares aux fabuleuses propriétés physico-chimiques. Leur nom (en anglais Rare Earth Elements ou REE) vient de leur difficulté d’extraction : elles sont présentes en abondance, mais avec des concentrations très faibles. Elles sont à la base des technologies NTIC et informatiques, notamment pour les batteries, et au cœur même des industries liées à la transition énergétique et aux énergies renouvelables : dans le futur, nous sommes censés produire le plus possible d’électricité à l’aide des énergies renouvelables (solaire photovoltaïque, éolien), ce qui signifie qu’il sera presque impossible de s’éclairer, de se chauffer, voire de travailler sans ces précieux métaux. Les terres rares sont utilisées dans le domaine des énergies renouvelables, dans la fabrication de véhicules électriques, des batteries, des panneaux solaires, des éoliennes, etc., mais aussi dans le domaine du numérique (écrans, puces, composants des smartphones, fibre optique), notamment les réseaux digitaux. Elles sont, bien sûr, également nécessaires à la technologie 5G, dominée par la Chine, sans oublier les secteurs médical (radiologie), militaire (lasers, composants des drones, des missiles), et plus globalement à tout équipement connecté. Aujourd’hui, dans un contexte de transition énergétique et de réduction des gaz à effet de serre, la majeure partie des gouvernements se tourne vers les énergies renouvelables, or les voitures électriques nécessitent d’investir massivement dans des technologies très utilisatrices de métaux rares. Les enjeux industriels et politiques sont par ailleurs colossaux : les pays producteurs ont gros à y gagner, et la recherche, l’appropriation et l’exploitation de ces ressources peuvent conduire à des tensions géopolitiques et commerciales, la transition écologique étant aussi et avant tout une transition économique. Selon un rapport de la Banque mondiale 20 , la demande en métaux rares va croître énormément dans les prochaines années : le néodyme, par exemple, utilisé dans la fabrication d’aimants et fondamental pour l’industrie éolienne et les véhicules électriques, devrait voir sa demande augmenter de 150 à 250 %. Celle de métaux comme l’aluminium, le cobalt, le fer, le plomb, le lithium, le manganèse et le nickel pourrait être multipliée par plus de 10 d’ici 2030. Quant à la demande d’indium, utilisé massivement dans le solaire, elle pourrait exploser de 250 à 300 %. Ces ressources viennent de différentes zones : le cobalt provient principalement de la République démocratique du Congo, le lithium surtout d’Australie et d’Amérique du Sud (Bolivie, Chili, Argentine). Ces métaux rares peuvent être produits un peu partout dans le monde, mais la Chine, qui détient des réserves colossales, est le premier producteur mondial. Elle produit notamment les deux tiers du graphite et surtout 88 % des terres rares 21 ! Certes, elle ne dispose « que » de 37 % des réserves de terres rares dans le monde, soit 44 millions de tonnes, mais c’est elle qui investit, extrait et produit le plus, disposant à la fois des ressources, de la main-d’œuvre, et des contraintes environnementales faibles qui permettent leur exploitation. Après le pétrole, les métaux rares sont devenus notre nouvelle dépendance majeure, or leur production est concentrée en Chine. Un véritable problème de sécurité nationale pour les autres pays qui doivent rattraper le retard. L’industrie américaine des métaux rares s’est quant à elle écroulée, en partie en raison des polémiques environnementales. Déjà, en 1992, le Président chinois, Deng Xiaoping, déclarait : « Le Moyen-Orient a du pétrole, la Chine a des terres rares », preuve que Pékin avait compris très tôt la nature stratégique de ces métaux. Et la Chine est bien plus ambitieuse que les pétromonarchies du Golfe : elle ne se contente pas du quasi-monopole des mines, mais veut aussi détenir celui des usines. L’empire du Milieu n’est en effet pas uniquement « l’usine du monde » qui fournit des produits bas de gamme et bon marché, mais elle s’impose aujourd’hui également comme un des principaux fournisseurs de haute technologie. La stratégie chinoise d’innovation vise en fait à faire de ce pays la plus grande puissance technologique et innovante d’ici à 2050 en complétant le plan « made in Chine 2025 22 ». La Chine concurrence donc les pays occidentaux dans des domaines qu’ils contrôlaient depuis longtemps, comme l’automobile. Elle est aujourd’hui le premier producteur mondial de batteries au lithium, utilisées dans les voitures électriques. Dans un contexte de conflit commercial avec les États-Unis, cela rend ces domaines très dépendants des terres rares pour les industries. Il s’agit là d’un sujet de tensions, surtout depuis l’attaque commerciale des États-Unis sur la compagnie chinoise Huawei. En effet, dans l’hypothèse d’un blocage de l’exportation des terres rares par la Chine vers les États-Unis 23 , les difficultés d’acheminement pour ces derniers seraient très importantes. Cette tactique a d’ailleurs déjà été utilisée par la Chine contre le Japon en 2010, lorsque Pékin a interrompu l’approvisionnement en matériaux à la suite d’un différend territorial en mer de Chine. Nombre d’entreprises japonaises, notamment celles spécialisées en robotique ou automobile, comme Toyota, dont la gamme de véhicules hybrides nécessite beaucoup de terres rares, ont été ainsi en rupture d’approvisionnement. Plus récemment, Pékin a menacé de restreindre ces exportations de terres rares vers les États-Unis, qui en dépendent à 80 %. Le risque de rupture d’approvisionnement de ces matériaux vitaux pour son économie est un véritable cauchemar pour Washington. Le pays de Xi Jinping, maître du marché, peut donc aujourd’hui augmenter ou baisser à sa guise les prix. Les États-Unis tentent certes de contrer cette domination chinoise problématique, comme on l’a vu en 2019, avec la proposition de Donald Trump de racheter le Groenland au Danemark, le Groenland regorgeant de ressources (hydrocarbures, métaux rares) dont d’importants gisements de terres rares. Mais cette proposition est restée purement théorique et l’Amérique est loin d’avoir trouvé la parade à cette dangereuse dépendance vis-à-vis de la Chine. On est d’ailleurs en droit de se demander quelle sera la stratégie de Joe Biden qui ne s’est pas trop exprimé sur ce défi, sachant que les États-Unis n’ont rien entrepris de concret pour rattraper substantiellement leur retard et qu’ils n’ont étonnement pas investi les sommes nécessaires dans des plans de long terme visant à produire des terres rares ou à acheter des mines dans le monde dans le même but. Autre sujet lié aux terres rares, la production de semi-conducteurs fait débat. L’Europe fabrique aujourd’hui un peu moins de 10 % des semi-conducteurs, et elle en reste très dépendante, à tel point que sa production automobile a été ralentie en raison de la pénurie mondiale de semi-conducteurs. De plus, rappelons que la firme taiwanaise TSMC, leader mondial, produit 70 % des composants électroniques destinés à l’automobile, or Taiwan pourrait redevenir chinoise sous peu... Par conséquent, la Chine hériterait une fois de plus du monopole d’un élément stratégique. Conscients de leur grave dépendance vis-à-vis de la Chine, les États-Unis souhaitent investir 37 milliards de dollars pour soutenir GlobalFoundries, Micron Technology et Intel afin d’approvisionner les constructeurs automobiles. Intel s’est d’ailleurs dit prêt à construire une usine en Europe et également deux autres en Arizona. Mais la Chine, qui a toujours un coup d’avance sur les autres, grâce à sa capacité à élaborer des plans de long terme, a débloqué 88 milliards de dollars pour arriver à 70 % d’autosuffisance d’ici 2025. Bien que leader de la production des métaux rares, la Chine en est également un très gros consommateur en raison de ses ambitieux plans industriels et elle en est devenue, en 2018, le plus gros importateur. Elle devrait avoir des difficultés d’approvisionnement dès 2025. Dans ce contexte, pour ne pas perdre une arme industrielle, Pékin cherche ces métaux ailleurs, le long des « nouvelles routes de la soie » (BRI). Même si leur objectif n’est pas tourné vers les terres rares, ces nouvelles routes pourraient favoriser la mise en place de partenariats pour l’exploitation des ressources. Ce phénomène est déjà observé en Afrique, continent qui détient d’importantes réserves de métaux, et où la Chine augmente petit à petit son influence, bien qu’encore minoritaire par rapport aux entreprises occidentales. L’investissement chinois dans l’exploitation minière en Afrique progresse très rapidement 24 . Pour l’instant, les minerais concernés ne sont pas principalement les terres rares, mais d’autres métaux tout autant stratégiques comme le cuivre, le fer, le cobalt, le zinc ou le nickel. La valeur de la production minière contrôlée par des investisseurs chinois à l’extérieur de la Chine était de 21,5 milliards de dollars en 2018 25 . Toujours en 2018, les entreprises chinoises contrôlaient moins de 12 % de la valeur totale des minéraux et des métaux produits en Zambie, 24 % en République démocratique du Congo (notamment pour le cobalt) et 37 % en Guinée. En Érythrée, où aucune autre société minière n’est active, les sociétés chinoises partagent le contrôle avec le gouvernement érythréen, avec 60 % pour la Chine. Entre 2005 et 2013, Pékin a investi 108 milliards de dollars en Afrique, dont 16,3 dans le secteur minier 26 . Les investissements miniers chinois globaux sont estimés autour de 125 milliards pour la même période. La Chine a donc rapidement développé son influence dans les pays concernés par les routes de la soie, d’où, par exemple, la prise de contrôle du port sri lankais de Hambantota par la Chine 27 . Il ne sera pas impossible à l’avenir de voir des pays financièrement faibles tomber dans le piège de la dette, et de devoir de ce fait « rembourser » la Chine avec leurs ressources naturelles. Ainsi, une dizaine de pays (Djibouti, Kirghizstan, Laos, Maldives, Mongolie, Monténégro, Pakistan, Tadjikistan, Éthiopie, Kenya) ne seraient pas en mesure de rembourser leurs dettes à la Chine. Récemment, le Monténégro qui s’est retrouvé dans l’incapacité de rembourser un crédit de 1 milliard de dollars (944 millions) et, après avoir appelé en vain l’UE à l’aide pour un soutien financier, a été touché par la stratégie chinoise. Depuis quelques années, le gouvernement chinois investit massivement dans les Balkans, car cette zone stratégique est l’aboutissement des routes de la soie, Pékin exploitant les divisions et rivalités intereuropéennes pour renforcer son emprise géoéconomique sur le Vieux Continent. Par ce « piège » de la dette, la Chine pourrait être en mesure non seulement de construire les routes et lignes ferroviaires nécessaires pour le projet de routes de la soie, mais aussi de prendre littéralement le contrôle d’infrastructures nationales entières, dans une sorte de néocolonialisme géoéconomique à la chinoise à l’assaut de la souveraineté des États les plus vulnérables. Les terres rares, clé des énergies renouvelables, mais désastre pour l’environnement... La surexploitation et la surconsommation de matières premières poussées par la mondialisation marchande a des effets dévastateurs, car pour l’exploitation des métaux, la Chine n’a pas hésité à détruire des écosystèmes, à assécher des nappes phréatiques et à polluer massivement. Pour ce faire, de nombreux produits chimiques sont utilisés, dont l’acide fluorhydrique, sous forme de poussière, que respirent les mineurs et qui est particulièrement nocif. Les produits nocifs utilisés se répandent à des kilomètres aux alentours des mines vers les zones agricoles, ce qui rend les terres de moins en moins fertiles et contamine les récoltes. Des villages entiers ont également été abandonnés. Mais les vies humaines ont peu de valeur aux yeux des autorités chinoises, comparées à l’intérêt économique de la production et son enjeu géoéconomique. Le pays compte des milliers de mines et de raffineries de métaux rares : la ville de Baotou, en Mongolie intérieure, est zone d’exploitation contrôlée par Pékin la plus connue, avec des infrastructures impressionnantes (dédiées au raffinage des terres rares). C’est aussi une des zones les plus polluées du monde avec des eaux surchargées de métaux lourds et même parfois radioactifs, relâchés par les raffineries qui vont ensuite s’infiltrer dans le sol et les nappes phréatiques, ce qui implique de sérieux problèmes de santé et entraîne le déplacement de populations entières. Les habitants de la région continuent malgré tout à vivre autour de ces mines dans des villages que l’on appelle aujourd’hui « villages du cancer » en raison de l’augmentation impressionnante des tumeurs 28 . C’est au prix de cette pollution que nos voitures électriques, panneaux solaires et éoliennes viennent diminuer les émissions de CO 2 chez nous. En réalité, les émissions sont tout simplement délocalisées, car la Chine en émet beaucoup pour assurer la production, et c’est aussi pour éviter les catastrophes écologiques que les Occidentaux ont délocalisé massivement ces industries en Chine ou ailleurs, ce qui souligne l’extrême hypocrisie des moralisateurs qui veulent bénéficier des avantages de la nouvelle économie consommatrice de terres rares et productrices de CO 2 mais sans en subir les conséquences sur leur sol... Stress hydrique et barrages : les guerres de l’eau en question L’eau, élément vital, est encore plus essentielle à l’humanité que les énergies étudiées plus haut. Elle est essentielle au développement socio-économique, à la production d’énergie et d’aliments, à la santé des écosystèmes et à la survie de l’humanité elle-même. Et elle est plus que jamais un enjeu de rivalités entre les nations. L’eau est également au cœur de l’adaptation aux changements climatiques, lien crucial entre la société et l’environnement. Les villes ayant toujours été construites en priorité près des points d’eau, l’abondance d’eau dans une région est souvent synonyme de richesse. À l’inverse, là où l’eau n’est pas présente ou presque, la pauvreté y est plus fréquente et les conditions de vie plus précaires. Même riches, les pays enclavés n’ayant pas d’accès aux grands fleuves et à la mer sont en situation de vulnérabilité. Et ceux qui sont situés dans des zones équatoriales et désertiques ont un vrai défi à relever face à la nature et à leurs voisins pas forcément coopératifs. Indépendamment des rivalités entre nations, autour de l’accès aux mers et aux fleuves, avoir une bonne gestion de l’eau est un vecteur essentiel de l’amélioration des conditions de vie et de la cohésion de la société tout entière. Quelques chiffres 2,2 milliards de personnes dans le monde n’ont pas accès à des services d’eau potable gérés de manière sûre. 4,2 autres milliards d’êtres humains manquent de services d’assainissement gérés de manière satisfaisante et sûre. 297 000 enfants de moins de 5 ans meurent chaque année de maladies diarrhéiques à cause d’eau de mauvaise qualité. Surtout, près de 700 millions de personnes n’ont toujours pas accès à une eau propre et salubre et deux autres milliards auraient besoin d’accéder à un assainissement amélioré. Environ 80 % des eaux usées dans le monde sont rejetées dans l’environnement sans traitement. L’agriculture représente près de 70 % des prélèvements d’eau 29 . L’eau devient une ressource de plus en plus rare et précieuse, notamment dans certaines zones mal dotées, et l’on estime que les besoins en eau devraient augmenter de 40 à 50 % d’ici une trentaine d’années. Par ailleurs, les États peu développés ou ayant une économie faible ont les plus grandes difficultés à relever le défi de la pénurie, car ils n’ont pas les moyens budgétaires et technologiques pour réaliser les investissements nécessaires permettant de traiter les eaux usées ou de dessaler l’eau de mer. Et du fait de l’augmentation de la demande (qui a plus que triplé en un demi-siècle), les pays les moins avancés et en pleine explosion démographique et économique auront à l’avenir de plus en plus de difficultés pour se procurer de l’eau potable. C’est là que le cercle vicieux du développement et de la mondialisation apparaît : avec les taux de natalité incontrôlés, le fait de manquer de ressources hydrauliques freine à son tour le développement économique, agricole et énergétique. La consommation en eau d’un pays est par conséquent un indicateur de développement économique et un motif possible de conflits entre pays qui se partagent les eaux. D’après les estimations, la consommation d’eau douce mondiale a augmenté d’environ 1 % par an entre 1987 et 2018. Beaucoup de régions ont ainsi atteint les limites de leur approvisionnement tandis que les échanges, l’urbanisation et la population mondiale ont augmenté. Il faut aussi savoir que la population s’accroît en majorité dans les pays en développement, avec en tête l’Inde et le Nigeria, qui sont déjà tous deux en situation de stress hydrique grave. Il y a un siècle, 15 000 m 3 d’eau étaient annuellement disponibles par habitant de la planète. En 2030, il ne devrait en rester que 3 000, le minimum vital étant de 1 800 m³. Les causes majeures de cette baisse sont la croissance démographique, l’évolution des modes de consommation alimentaire (hausse du niveau de vie) et les besoins accrus en énergie liés à la mondialisation marchande et au développement. À l’avenir, notre alimentation risque donc d’être par ailleurs profondément perturbée, quand on sait qu’il faut environ 15 000 litres d’eau pour produire 1 kg de viande de bœuf, alors que la demande s’accroît dans les pays en développement (Inde, continent africain et d’autres comme des pays comme les États-Unis, l’Argentine ou le Brésil) en raison de la consommation démesurée. En France et dans l’ensemble des pays européens du Sud, les épisodes de sécheresse chaque été, les restrictions d’usage associées et le contexte de crise ont donné un intérêt nouveau au débat sur la gestion de la demande en eau, en particulier sur les instruments économiques, financiers et fiscaux, tels que les prix et taxes sur les prélèvements et rejets. On observe aussi en Italie ou en Espagne des mesures de coupure d’eau pendant les périodes de sécheresse en vue d’économies. Le réchauffement climatique et la surconsommation de l’eau vident de plus en plus les nappes souterraines et les rivières à mesure que les besoins augmentent. Ceci fera fortement augmenter le prix de l’eau à l’avenir, les plus pauvres ne pouvant plus, à terme, satisfaire leurs besoins les plus élémentaires. De plus, les conséquences du réchauffement climatique obligent chaque année toujours plus de personnes à quitter des zones arides devenues invivables et en voie de désertification. Ces migrations et mouvements de populations sont naturellement un puissant vecteur d’instabilité et de conflits entre nations ou tribus, souvent d’ailleurs sur fond de tensions ethnoreligieuses (Burkina Faso, Mali, Niger, Nigeria, etc.). Il faut savoir que rien qu’en 2019, selon l’IDMC (Observatoire de déplacement interne 30 ), 8 millions de personnes ont été poussées à l’exode à cause de catastrophes naturelles, dont environ 800 000 liées aux sécheresses. En moyenne, plus de 17 millions de personnes risquent d’être déplacées par les inondations chaque année, et ces chiffres ne peuvent malheureusement qu’augmenter à l’avenir. En Afrique également, les fleuves Congo, Niger et le Nil Bleu constituent des théâtres d’investissements autour de l’énergie hydroélectrique. Les compagnies chinoises rivalisent en lobbying avec les multinationales occidentales et israéliennes pour y remporter les marchés. Dans le même temps, les projets de barrages hydrauliques ambitieux comme ceux d’Éthiopie peuvent être de graves sources de tensions, voire de guerre, entre pays voisins, en l’occurrence entre l’Éthiopie, le Soudan et l’Égypte. Le contrôle des rivières, mers et océans, source de conflits L’essor de la mondialisation économique a créé de nouveaux enjeux géoéconomiques dans lesquels l’eau détient une place fondamentale, que ce soit pour la vie des populations, l’agriculture, ou le contrôle des routes commerciales ou des réserves énergétiques s’y trouvant. La question de potentialité des conflits autour de l’eau est en tout cas de taille, lorsqu’on sait que plus de 40 % de la population mondiale est répartie autour de 250 bassins transfrontaliers. Cela implique pour les populations de devoir partager leurs ressources avec leurs voisins, les risques de tensions étant très importants lorsque les pays où se trouvent les sources sont tentés de profiter de leur position avantageuse. Les tensions au sujet de l’eau peuvent venir de plusieurs causes : sécheresse, barrages ou autres aménagements hydrauliques et détournements des flux qui diminuent les ressources d’un pays aux dépens d’un autre ; répartitions des zones d’exploitation des fleuves imprécises ; pollution ; usages abusifs. Depuis une dizaine d’années, les tensions et contentieux interétatiques liés à l’eau sont en nette augmentation, et les « guerres de l’eau », spectre régulièrement agité depuis des décennies, mais heureusement jamais concrétisé dans ses modalités les plus pessimistes, deviennent de plus en plus probables. D’autant qu’au-delà de la simple nécessité d’avoir de l’eau pour s’alimenter et pour l’agriculture, les mers et les océans regorgent de matières premières et d’hydrocarbures. En témoignent les récentes disputes autour des réserves de gaz et de pétrole off-shore en mer de Chine (opposant Chine, pays d’Asie du Sud-Est et Japon) et en Méditerranée orientale (entre la Turquie et la quasi-totalité des pays riverains voisins). Désertification, ressources hydriques, disputes autour des ZEE et des barrages vont de plus en plus devenir des sources de déstabilisation, voire de guerres, sachant que les grandes routes commerciales de la mondialisation sont essentiellement maritimes. Le contrôle de ces mêmes routes est un enjeu vital pour les nations exportatrices. Les pays privés d’accès à la mer, et donc aux énergies qui s’y trouvent, ou dont les eaux fluviales sont diminuées à cause des barrages effectués en amont par des pays disposant des sources et peu soucieux de rechercher un consensus, peuvent être tentés d’instaurer leur propre ordre régional unilatéral. Surtout s’ils ont l’avantage militaire, comme la Chine, l’Égypte ou la Turquie, par rapport à leurs voisins. Par ailleurs, les normes, accords ou réglementations internationales autour de la gestion et des partages des eaux manquent cruellement ou sont bafoués au nom des intérêts nationaux. Ici encore, l’échec du multilatéralisme est patent et les traités de coopération acceptés – donc fonctionnels sur ces matières – ne couvrent aujourd’hui que 60 des 250 bassins fluviaux précédemment évoqués. Certains experts n’hésitent plus à pronostiquer qu’au XXI e siècle, l’« or bleu » prendra la place de l’« or noir » dans les conflits entre États. Avoir accès à l’eau est un enjeu économique majeur qui pourrait devenir, dans le siècle à venir, l’une des premières causes de tensions internationales pour les raisons exprimées précédemment. Depuis plusieurs décennies, le programme des Nations unies pour le développement (Pnud 31 ) a recensé une quarantaine de situations conflictuelles entre des États au motif de l’accessibilité aux ressources hydriques. Elles concernent pour l’essentiel les pays moyen-orientaux et africains, même si, pour le moment, aucune de ces crises ne s’est transformée en un conflit durable. En Asie, par exemple, les litiges autour de l’eau des fleuves ne manquent pas : les grands travaux chinois destinés à détourner les eaux du Mékong, notamment pour les canaliser vers d’autres cours d’eau, ou même du Brahmapoutre, du Gange, de l’Indus, de Syr-Daria ou de l’Amou-Daria, inquiètent le Laos, le Cambodge, le Viêtnam, et d’autres pays d’Asie. Les réserves d’eau potable peuvent également être les cibles d’offensives militaires ou terroristes pouvant causer des catastrophes humanitaires 32 . Il peut s’agir d’attaques sur des digues, les barrages (dont la destruction éventuelle rend les villes aux alentours extrêmement vulnérables), ou les centrales hydroélectriques, qui viseraient à toucher directement les populations civiles et à créer des situations de troubles internes et de chaos. On peut citer ici l’exemple de la destruction, en juin 1938, de la digue de Huayuankow sur le fleuve Jaune, lors de la guerre Chine- Japon, qui provoqua des inondations de milliers d’hectares et fit entre 500 000 et 900 000 victimes et plus de 5 à 10 millions de réfugiés. Il s’agit de l’un des plus grands désastres écologiques militaires de l’histoire. Il en est allé de même durant la guerre du Viêtnam, avec le déversement, par les forces américaines, de produits chimiques et défoliants (agent orange chargé de dioxine et d’arsenic) qui ont entraîné une pollution destructrice des sols sur les populations dont les effets sont encore visibles aujourd’hui. Guerres de l’eau entre la Turquie et ses voisins La Turquie est un pays très avantagé pour ses ressources en eau en comparaison de ses voisins syrien et irakien. Elle s’est donc vue attribuer le nom de « château d’eau de la région », grâce au fait que le Tigre et l’Euphrate prennent leurs sources en Anatolie avant de se diriger vers la Syrie et l’Irak. Ankara a ainsi construit nombre de barrages hydroélectriques, notamment en Anatolie orientale, ce qui lui confère des moyens de pression considérables sur ses voisins, puisqu’elle peut jouer sur les variations de débit du fleuve. Les problèmes opposant la Turquie à ses voisins irakien et syrien sont certes anciens, mais après avoir été mis au second plan dans les années 2000, Recep Tayyip Erdoğan les a ressuscités en même temps que son projet irrédentiste néo-ottoman (voir carte n o 9) voué à dominer les pays arabes voisins. Ankara refuse de reconnaître que les fleuves Tigre et Euphrate (dont les sources se trouvent en Turquie anatolienne) sont internationaux, ceci afin de ne pas se voir imposer des contraintes. Le pouvoir turc poursuit donc sa politique de grands barrages au détriment de ses voisins situés en aval qui voient de ce fait leur débit diminuer : l’Euphrate draine à lui seul un bassin-versant de 440 000 km² réparti à 35 % en Syrie et 45 % en Irak, et le Tigre draine 258 000 km², avec 53 % en Irak et 33 % en Iran principalement 33 . Depuis les années 1970, le projet GAP (Great Anatolian Project) tient une place stratégique majeure dans la politique énergétique d’Ankara, et il devrait lui permettre à terme de contrôler près de 90 % du débit de l’Euphrate et plus de 50 % de celui du Tigre, avec au total 22 barrages. Les baisses de débit des fleuves subies par les pays voisins ont déjà atteint un niveau insupportable : l’Euphrate a perdu 40 % du débit arrivant en Syrie, et le Tigre 24 % de celui débouchant sur l’Irak. Les conséquences pour la Syrie et l’Irak sont dramatiques, notamment à cause du barrage d’Illisu (frontière turco-irakienne), qui pompe l’eau du Tigre. Ces diminutions de son débit côté irakien ont notamment débouché sur les émeutes de la soif de Bassora, survenues en 2018 après les fortes pénuries d’eau et la pollution des rivières qui ont entraîné l’hospitalisation d’au moins 118 000 personnes. La Turquie à l’assaut des réserves de gaz et de pétrole de Méditerranée orientale La politique géoénergétique de la Turquie en mer Méditerranée orientale ressemble à celle de Pékin en mer de Chine méridionale. Sa consommation de gaz augmentant considérablement depuis dix ans en raison de la rapide croissance économique turque et de l’augmentation de sa population, Ankara a récemment réactivé son vieil irrédentisme ottomaniste visant à justifier une mainmise sur les énergies de cette mer stratégique et ses ZEE. Le territoire turc est certes une voie de transit majeure pour le gaz et le pétrole arabes et perses du Golfe, puis turcophones et russes de la zone Caucase-mer Caspienne 34 , d’où l’inauguration du gazoduc russo-turc Turkish Stream, le 8 janvier 2020 35 (voir carte n o 13). Toutefois, c’est dans la mer que se trouvent les énergies qui manquent au territoire turc, peu producteur d’hydrocarbures, et dont le pouvoir d’Ankara veut s’emparer au détriment de ses voisins. Les énormes réserves de gaz off-shore découvertes et prouvées dans les années 1990-2000 en Méditerranée orientale (Chypre, mer Égée, Égypte, Palestine-Gaza, Israël, Liban, Syrie), évaluées à 50 milliards de mètres cubes, constituent un enjeu quasiment vital pour Ankara, d’où le contentieux croissant avec les États riverains partageant ces eaux. Les deux pays les plus directement visés par les appétits géoénergétiques turcs sont la Grèce et Chypre. Anticipant les revendications d’Ankara, la république de Chypre – dont 37 % du nord est occupé illégalement depuis 1974 par l’armée turque – avait certes délimité sa frontière maritime avec l’Égypte dès 2004, avec le Liban en 2007, avec Israël en 2010, et elle signa plusieurs accords avec des sociétés pétrolières internationales comme l’italienne Eni, la française Total, les américaines Noble Energy ou ExxonMobil et la britannique BP (voir carte n o 7). Mais le problème n’a pas pu être résolu sur la base des accords internationaux et les principes du droit de la mer : la Turquie ne reconnaît pas la convention de Montego Bay sur le droit de la mer, pourtant reconnue par tous les pays de l’Union européenne, car elle accorderait, selon Ankara, beaucoup trop peu de souveraineté sur les eaux et îles avoisinantes à la Turquie. Le gouvernement turc prétend ainsi avoir été injustement « exclu » des marchés des forages qui impliquent Israël, où les champs gaziers Leviathan et Tamar ont été découverts. Il conteste de ce fait toutes les frontières maritimes et délimitations entre Chypre, la Grèce et les pays arabes ou Israël, et il affirme en particulier que ni la république de Chypre (non reconnue par Ankara, voir carte n o 12), ni les îles grecques de Crète et de mer Égée n’ont droit à des ZEE larges comme celles définies jusqu’alors (voir carte n o 7). Comme le pouvoir de Pékin en mer de Chine méridionale, le régime d’Ankara conteste donc les frontières maritimes établies et revendique un redécoupage des ZEE, de gré ou de force, comme on l’a vu depuis 2018. La narration turque permet de revendiquer la moitié des eaux et réserves de gaz off-shore de Méditerranée orientale au détriment des autres pays riverains et elle sert à légitimer ses forages illégaux et ses actions visant à empêcher, manu militari, les forages légalement entrepris par les pays riverains... Conflit avec Chypre et la Grèce Pour la Turquie, les accords d’exploitations légaux signés par Chypre avec ses voisins ne « représenteraient » que la partie non turque de Chypre, une accusation rejetée par Nicosie qui déplore que la présence turque dans le nord est le fruit d’une invasion (opération Attila, 1974, voir carte n o 12) et d’une occupation illégale 36 . Le 22 février 2018, la marine turque a ainsi envoyé quatre navires protégés par son aviation militaire dans le périmètre de l’île d’Aphrodite pour prospecter et extraire illégalement du gaz, et elle en a même chassé manu militari un navire de forage du pétrolier italien Eni qui se rendait au champ gazier égyptien de Zohr. Les navires turcs ont empêché la plate-forme navale de l’Eni (Saipem 12000) de forer dans le sud de Chypre, zone off-shore qui avait déjà été mise « sous embargo » par la Turquie le 9 février 2018 avec l’envoi de cinq navires de guerre turcs. Début octobre 2019, Ankara a envoyé à nouveau son navire de forage Yavuz, opéré par la compagnie étatique turque TPAO, sur le bloc de forage off-shore n o 7, pourtant octroyé initialement à l’italienne Eni et à la française Total par la république de Chypre (voir carte n o 7). La Turquie a donc ainsi violé la légalité et la souveraineté chypriote. La France a été alors le seul pays de l’UE (hors Grèce) à se montrer diplomatiquement, politiquement et militairement solidaire de Chypre qui dénonce les forages illégaux turcs au sud de l’île (zones 7 et 8) en violation totale du droit international maritime. La Grèce est également contestée dans ses frontières maritimes mêmes : Ankara remet régulièrement en question le traité de Lausanne, fondateur de la Turquie post-ottomane, qui accordait à la Grèce 43 % des espaces marins en mer Égée. Cette dénonciation des frontières internationalement reconnues fait de plus en plus planer sur la Grèce, le pire scénario : celui de l’invasion d’îles grecques égéennes survolées illégalement chaque jour par l’aviation turque. Ankara menace en effet régulièrement d’envahir des îles grecques si un nouveau partage des eaux territoriales à son avantage n’est pas mis en œuvre. Cette revendication remet dangereusement en cause le droit de la mer et les frontières internationalement reconnues entre la Turquie et ses voisins. Athènes dénonce également le récent accord turco-libyen controversé, signé en 2019, relatif au partage des espaces maritimes entre Ankara et le gouvernement de Tripoli et qui vise en fait à accroître considérablement la souveraineté maritime de la Turquie en Méditerranée dans une large zone située entre la Crète et Chypre qui regorge de gaz et où Ankara a effectué des forages exploratoires. (Voir carte n o 5). Ces forages illégaux ont été dénoncés par l’Union européenne, qui a menacé en vain Ankara de sanctions. À ce propos, il est instructif de visionner l’audition, le 1 er juillet 2020, de l’ambassadeur de Turquie, Ismaïl Hakki Musa, à la commission des Affaires étrangères du Sénat 37 . Le diplomate y reconnaît que son pays revendique officiellement un plus grand domaine maritime (zones économiques exclusives) au détriment de deux pays membres de l’UE – Chypre et la Grèce – et qu’il conteste carrément le tracé des frontières issues du traité de 1923. L’ambassadeur expose ainsi courtoisement la vision turque irrédentiste officielle décomplexée et justifie les repérages et forages illégaux des navires pétroliers et gaziers turcs dans les eaux souveraines de Chypre et des îles grecques égéennes. Le 21 juillet 2020, la marine turque a d’ailleurs dépêché dix- huit navires de guerre dans les eaux territoriales grecques chargés « d’escorter » un pavillon de recherche d’hydrocarbures sous-marin prospectant illégalement les réserves de gaz autour de l’île grecque de Kastellorizo. Affaire à suivre... Conflit avec l’Égypte autour de la Méditerranée et de la Libye Sachant que Chypre et l’Égypte ont conclu un important accord portant sur la construction du premier pipeline sous-marin transportant du gaz naturel chypriote depuis le gisement off-shore « Aphrodite » jusqu’en Égypte, qui le transformera en gaz naturel liquéfié, l’Égypte a dû envoyer en février 2018 son porte-hélicoptères Mistral Anouar el Sadate et des sous-marins pour défendre le champ gazier égyptien de Zohr revendiqué par la Turquie. Les deux pays s’opposent aussi – et même surtout – au sujet de la Libye, tant pour le pétrole terrestre que pour le gaz off-shore, l’enjeu étant gigantesque et la mer entrant en scène sur deux plans complémentaires. Outre le fait que, depuis le printemps 2020, la Turquie d’Erdoğan a pris fait et cause pour les milices des Frères musulmans de Misrata et pour le régime ouest-libyen de Fayez al-Sarraj – en soi un casus belli pour Le Caire qui mène une guerre interne totale contre les partisans de l’ancien Président frériste déchu et défunt, Mohamed Morsi –, la défense par la Turquie du régime de Tripoli a une dimension bien plus concrète et géoénergétique : le 27 novembre 2019, Ankara et Tripoli ont signé un accord turco-libyen de (re)délimitation des eaux de mer Méditerranée orientale qui attribue illégalement près de 40 % de cette mer à la Turquie, au détriment des ZEE de la Grèce, de la république de Chypre, et de l’Égypte (voir carte n o 7). Face à l’activisme turc grandissant en Méditerranée orientale, Nicosie, Athènes et Le Caire tentent de constituer un front commun, tandis que la France, très isolée au sein des pays de l’UE et de l’Otan, y a renforcé momentanément sa présence militaire mi-août 2020 avec le déploiement de deux chasseurs Rafale en Crète et de deux navires de guerre (frégate La Fayette et porte-hélicoptères Tonnerre, en route vers Beyrouth), en soutien à la Grèce et à Chypre, qui ont des accords de défense avec Paris. Ankara et Le Caire s’opposent également autour du territoire palestinien de Gaza (contrôlé par le groupe frère musulman terroriste Hamas), dont la mer alentour dispose aussi d’une importante réserve de gaz. La Turquie y soutient opportunément ce mouvement islamiste radical, fortement combattu en revanche par l’Égypte, qui considère Gaza comme une chasse gardée, tout comme le considère la Turquie d’Erdoğan, ennemi personnel du président égyptien al-Sissi... Tout est lié, et les velléités propalestiniennes et antisionistes du néosultan Erdoğan à Gaza, présentées comme une « défense des musulmans opprimés », ne sont pas étrangères aux ambitions à la fois néo-impériales ottomanistes du reis turc et aux appétits géoéconomiques d’Ankara... De l’Asie centrale au Golfe arabo-persique On peut également citer l’exemple de la mer d’Aral, située en Asie centrale, plus précisément entre le Kazakhstan et l’Ouzbékistan, qui a bien failli disparaître durant l’ère soviétique. Motivé par la culture du coton destinée à l’industrie textile, le détournement, par les pays riverains, des fleuves Amou-Daria et Syr-Daria – qui alimentent normalement la mer d’Aral – a entraîné une privation par cette dernière de ses sources vitales. Au Yémen, les enjeux autour de l’eau sont dramatiques et la situation est empirée par le conflit qui oppose, au niveau régional, l’Iran à l’Arabie saoudite, puis, au niveau local, les forces chiites séparatistes houthies au pouvoir sunnite élu – sans oublier les groupes djihadistes liés à Aqpa (al-Qaida au Yémen) et Daesh. Différentes forces combattantes terroristes et criminelles utilisent en fait une grande partie des ressources du pays en eau pour produire une drogue, « le qat », qui consommerait entre 40 et 50 % de l’eau liée à l’agriculture. En conséquence de la guerre civile endémique et de cette narco-industrie, les nappes phréatiques sont extrêmement polluées, ce qui entraîne un grave manque d’eau potable : sur les 24 millions d’habitants au Yémen, 13 millions n’y ont pas accès pas plus qu’à un assainissement correct de l’eau, maintes maladies se répandent ainsi, de sorte que chaque année, 3 000 personnes meurent de diarrhée et de famine, ceci dans la quasi-indifférence générale des politiques et médias occidentaux qui sont les obligés des monarchies islamistes sunnites du Golfe et dont le sort des civils chiites accusés de connivence avec l’Iran ne suscite pas outre mesure la compassion... De gros contentieux sont également observés autour de la répartition des débits du Nil. Ce dernier, avant d’alimenter l’Égypte et le Soudan, traverse et irrigue une dizaine de pays (Soudan du Sud, Érythrée, Éthiopie, Kenya, Ouganda, République démocratique du Congo, et même Rwanda, Burundi et Tanzanie). Et la plupart d’entre eux sont soumis, comme l’Égypte, à un rude climat et à une démographie explosive, par conséquent à une augmentation exponentielle des besoins en eau. Le barrage d’Assouan a ainsi provoqué un grave litige ainsi que des tensions croissantes entre l’Égypte et le Soudan, notamment à propos de la répartition de l’eau, car il a en effet conduit à la création du lac Nasser, situé en grande majorité en Égypte avec une petite partie au Soudan (500 km de long dont 150 au Soudan). La majeure partie de l’eau est donc à disposition et sous contrôle de l’Égypte. Quant à l’Éthiopie, son contentieux fluvial avec l’Égypte risque de façon récurrente de déboucher sur une guerre : la goutte qui a fait déborder le vase a été, en 2011 (pendant le printemps arabe égyptien), la construction d’un énorme barrage hydroélectrique nommé « barrage de la Renaissance » sur sa branche du Nil, probablement le plus grand d’Afrique et qui devait devenir opérationnel en 2022. Pour l’Égypte, ce projet a comme conséquence inacceptable de provoquer la baisse de son propre débit et donc de lui faire perdre des ressources en eau pendant la durée du remplissage du réservoir du barrage, ce qui ne peut être en fin de compte que néfaste pour son agriculture. Par ailleurs, l’Éthiopie refuse toute implication de l’Égypte dans le chantier. Le ton est de nouveau monté en 2019, lorsque le Premier ministre éthiopien, Abiy Ahmed, a déclaré, lors d’une séance de questions-réponses au Parlement : « Aucune force ne pourrait empêcher l’Éthiopie de construire le barrage... Un quart de la population est pauvre et jeune, donc nous pourrions en mobiliser des millions s’il le faut 38 . » Le président égyptien Abdel Fattah al- Sissi a rétorqué aux Nations unies : « l’Égypte ne laissera jamais Addis-Abeba imposer une situation de fait », et il a même menacé l’Éthiopie d’une réplique militaire... Plus récemment, en mai 2021, l’Égypte a reçu le soutien inconditionnel du Soudan pour faire face à l’Éthiopie au cas où cette dernière ne mettrait pas un terme au remplissage du grand barrage de la Renaissance après l’expiration de l’ultimatum égyptien (juin 2021). Si l’Éthiopie persiste, une guerre ouverte peut être déclenchée par l’Égypte, pour qui la privation d’une partie du débit du Nil est une question existentielle. Les conséquences humanitaires et géopolitiques pour toute l’Afrique de l’Est et du Nord, et même au niveau mondial, seraient dramatiques en raison des interdépendances entre les risques stratégiques, migratoires, énergétiques, terroristes et de la centralité du Nil, du canal de Suez, de la mer Rouge et du détroit de Bab el-Mandeb dans le commerce mondial et les approvisionnements énergétiques. La Chine à la conquête de la puissance maritime et des ressources subaquatiques Les guerres de l’eau ne se limitent pas, loin s’en faut, à la nécessité vitale de l’approvisionnement aquatique pour survivre, se nourrir, se laver, ou pour entretenir l’agriculture et l’industrie, car les océans et les mers regorgent de métaux précieux et de réserves d’hydrocarbures. Le spectaculaire développement économique de la Chine ces dernières années l’a poussé à développer sa puissance diplomatique et bien évidemment militaire dans le monde et plus particulièrement en mer de Chine du Sud, comme déjà évoqué au début de cet ouvrage. Cette zone est très stratégique pour la Chine, comme pour d’autres pays, car un tiers des transports maritimes mondiaux transite par la mer de Chine méridionale. La nation qui aura la mainmise sur cette zone contrôlera donc l’une des routes commerciales les plus importantes. Ceci est fondamental pour l’objectif de la Chine (parallèlement aux routes de la soie) de disposer de toutes les ressources que ces eaux recèlent. La mer de Chine abriterait en effet de réserves d’hydrocarbures équivalentes à 5 380 milliards de mètres cubes de gaz et 11 milliards de barils de pétrole 39 . Toute la zone est par conséquent devenue un théâtre de rivalité, principalement entre, d’une part, les États-Unis et leurs alliés du Sud-Est asiatique et, de l’autre, le pouvoir chinois qui y voit une zone stratégique qui lui appartiendrait de droit : l’empire du Milieu y revendique 90 % des eaux potentiellement riches en hydrocarbures et traversées par des voies maritimes de première importance, et Washington y perçoit un danger pour ses alliés dans la région ainsi qu’une menace directe contre sa flotte navale présente. La Chine y a donc déployé ses troupes, elle y patrouille et y réalise régulièrement des exercices militaires croissants en vue d’intimider ses rivaux. Sa stratégie consiste à s’approprier progressivement des îlots, archipels ou espaces maritimes stratégiques afin d’asseoir ses revendications territoriales. Le gouvernement de Pékin a réussi depuis quelques années à s’y implanter physiquement avec la construction d’îles artificielles appelées la « grande muraille de sable 40 ». Dans l’archipel des Spratleys, la Chine a ainsi construit 7 îles artificielles abritant des canons antiaériens, des missiles et des drones et capables d’accueillir 24 avions de chasse par île, soit 72 avions. Ceci semble assez éloigné de l’usage civil que Pékin affiche pour ces îles... Dans les Paracels, la Chine a également construit, en 2014, une base avec une piste d’atterrissage et un port, autre pierre d’achoppement majeure avec le Viêtnam, notamment 41 ... En fait, le gouvernement chinois a profité de la pandémie mondiale et de l’attention généralisée des États-Unis et autres pays sur le virus pour renforcer ses positions en mer de Chine du Sud. Le 3 mars 2020, un bâtiment des garde-côtes chinois a ainsi éperonné et coulé un navire de pêcheurs vietnamien dans le secteur des îles Paracels. Une semaine plus tard, le porte-avions chinois Liaoning a traversé deux fois le détroit de Miyako, situé dans ZEE du Japon. Le pouvoir de Pékin a également installé dans la même période deux centres de recherche dans les îles Spratleys (voir carte n o 6). L’édification d’îles artificielles a été clairement une stratégie payante pour la Chine qui subvertit ce qu’on appelle le « droit de la mer » en revendiquant une souveraineté sur ce qu’elle considère comme étant sa mer territoriale, soit 12 milles et une ZEE s’étendant jusqu’à 200 milles autour de chaque récif aménagé. Ceci donne à Pékin un libre accès aux ressources halieutiques et à l’exploitation du sol et du sous-sol. Dans le cadre d’une tension ascendante, début août 2020, les États-Unis et la Chine ont successivement effectué des exercices militaires en tirant plusieurs missiles balistiques. Le risque à l’avenir pourrait même être une escalade militaire entre les deux superpuissances, voire un conflit armé qui, en plus d’impliquer la Chine et les États-Unis, associerait également leurs alliés respectifs, notamment le Japon, l’Indonésie, les Philippines, Taiwan, la Thaïlande ou le Viêtnam. 1. En anglais, IPCC : Intergovernmental Panel on Climate Change. 2. Quarante gaz à effet de serre sont recensés par le Giec : vapeur d’eau (H 2 O) ; dioxyde de carbone (CO 2 ) ; méthane (CH 4 ) ; ozone (O 3 ) ; protoxyde d’azote (N 2 O) ; hydrofluorocarbure (HFC) ; perfluorocarbures (PFC) ; hexafluorure de soufre (SF 6 ). 3. Morgan Freeman (1923-2020), scientifique ayant reçu vingt et un titres de docteur honoris causa, ex-membre de la Royal Society et de l’Académie nationale des sciences américaine, critique l’alarmisme sur le climat, lié selon lui à un manque de validité des modèles informatiques utilisés et fondé sur des prévisions non vérifiées. 4. Trois cents millions de tonnes de CO 2 émises ; 18,6 millions d’hectares brûlés (15 fois l’Île-de-France), 5 900 bâtiments détruits, 100 000 évacués, 500 morts, 4 000 hospitalisés. Trois milliards d’animaux tués/impactés (rapport WWF de juillet 2020). 5. Revenir dans l’accord suppose de réduire de 26 à 28 % les émissions de GES du pays d’ici à 2025. Un défi pour ce deuxième plus gros émetteur de GES responsable de 17 % de la pollution mondiale (après la Chine, 20 %). 6. Il souhaitait lancer les travaux de rénovation énergétique pour des millions de bâtiments afin d’épargner des dizaines de millions de barils de pétrole, créant des millions d’emplois, améliorant la santé des citoyens et nettoyant l’environnement. 7. Le terme « éco-civilisation » (« EC ») vient d’ailleurs d’être inscrit dans la Constitution chinoise dans le cadre d’une révision constitutionnelle approuvée, en mars 2018, par l’Assemblée populaire nationale. 8. « Les 100 jours de Joe Biden : “De quelle ampleur sera la politique de transformation énergétique ?” », Le Monde, 26 mars 2021. 9. Elle représentait alors 9,4 % du total de la consommation mondiale. En 2018, elle est passée à 19,3 %. 10. Le coût du solaire photovoltaïque a baissé de 50 % entre 2020 et 2015 et une autre diminution de 60 % est à prévoir d’ici 2025, d’après l’Irena – Agence internationale de l’énergie renouvelable. 11. Rapport du CDP (Carbon Disclosure Project) : Climate Change Report. Major Risk or Rosy Opportunity, 2019. 12. Source : Statistiques de la compagnie parapétrolière Baker Hughes (Houston). 13. Annonce du 10 décembre 2019, source : Agence américaine d’information sur l’énergie (EIA). 14. Dans les années 2000, l’UE et les EU appuyaient le projet de gazoduc Nabucco devant alimenter l’Europe avec du gaz de la mer Caspienne et d’Asie centrale afin de réduire la dépendance de l’UE vis-à-vis de la Russie. 15. Le groupe suisse Allseas, impliqué dans les travaux, a ainsi suspendu son activité par crainte de sanctions, voire d’une saisie des avoirs américains de la compagnie. 16. Voir Alexandre Del Valle, Les Vrais Ennemis de l’Occident, op. cit. 17. Construction des nouveaux réacteurs AP1000 de Vogtle en 2013, et Watts Bar, dans le Tennessee, en 2016. 18. Fukushima (2011), vingt-cinq ans après celle de Tchernobyl (1986) et trente-deux ans après l’accident de Three Miles Island aux EU (1979). 19. « Premier dragon » en mandarin. 20. Daniele La Porta Arrobas et Kirsten Lori Hund (coll.), The Growing Role of Minerals and Metals for a Low Carbon Future, World Bank Group, juin 2017. 21. Guillaume Pitron, La Guerre des métaux rares. La face cachée de la transition énergétique et numérique, Les Liens qui libèrent, 10 janvier 2018. 22. Programme stratégique chinois visant à faire de la Chine un leader industriel haut de gamme en développement les technologies axées sur l’innovation tout en réduisant certaines dépendances vis-à-vis des puissances étrangères. 23. Louis Torres Tailfer, « Les terres rares, un enjeu géopolitique sino-américain », La Tribune, 25 août 2019. 24. En 2018, il y avait 10 mines de fer, 20 mines de cuivre (dont certaines produisaient également du cobalt) et 14 mines d’or exploitées et totalement ou partiellement contrôlées par des investisseurs chinois. 25. Magnus Ericsson, Olof Löfet Anton Löf, « Chinese Control over African and Global Mining–Past, Present and Future », Mineral Economics, vol. 33, 22 juillet 2020. 26. Henri-Louis Vedie, « Les investissements miniers chinois en Afrique », OCP Policy Center, avril 2017. 27. Après une demande d’aide financière chinoise, le Sri Lanka n’a pas pu rembourser ses dettes envers la Chine et a dû céder le port d’Hambantota aux Chinois pour quatre-vingt-dix-neuf ans avec 6 000 ha de terrains autour. 28. Guillaume Pitron, La Guerre des métaux rares, op. cit. 29. Données des Nations unies, voir site officiel : www.un.org/fr. 30. IDMC, Rapport mondial sur le déplacement interne 2019, PDF téléchargeable sur le site de l’IDMC : www.internal-displacement.org. 31. Le Pnud, programme et fonds de l’ONU, est l’un des principaux organismes multilatéraux de développement contribuant à éradiquer la pauvreté et réduire les inégalités et l’exclusion. 32. Et les deux protocoles d’accords internationaux de l’ONU qui les interdisent n’ont pas été ratifiés par nombre de pays et n’ont aucune valeur dissuasive pour les pays souverains qui préfèrent rectifier des délimitations de ZEE par la force que de se soumettre à une quelconque juridiction ou entente internationale de toute façon non contraignante. 33. Pascal Le Pautremat, Géopolitique de l’eau, L’Esprit du temps, 2020. 34. Le territoire turc reçoit du gaz iranien, azerbaïdjanais, turkmène et russe, et la Turquie couvre 60 % de sa consommation par du gaz russe. Ankara a tenté de persuader Tel-Aviv de faire passer le gaz israélien et chypriote par la Turquie, en échange d’eau turque passant par Chypre à destination d’Israël. 35. Le gazoduc pourra acheminer chaque année 31,5 milliards de mètres cubes de gaz. 36. Les 37 % du nord de Chypre (« prétendue République turque du nord de Chypre », nom que l’ONU emploie officiellement) n’ont en effet jamais été reconnus par l’ONU, le Conseil de l’Europe et l’UE. 37. « L’ambassadeur de Turquie s’explique face aux sénateurs : une audition sous haute tension », 1 er juillet 2020, site du Sénat français : www.publicsenat.fr/article/politique/l-ambassadeur-de-turquie-s-explique-face-aux-senateurs-une-audition-sous-haute. 38. « Tension élevée entre l’Égypte et l’Éthiopie autour du projet de méga-barrage sur le Nil », Le Monde, 24 octobre 2019. 39. Hortense Goulard, « Les tensions sino-américaines en mer de Chine en cinq questions », Les Échos, 1 er septembre 2020. 40. Patrick Saint-Paul, « Pékin construit une “grande muraille de sable” en Mer de Chine », Le Figaro, 13 avril 2015. 41. Julien Licourt, « La Chine construit des îles artificielles pour revendiquer des zones maritimes », Le Figaro, 10 février 2015. PARTIE III NOUVEAUX DÉFIS CHAPITRE XI Les défis démographiques « L’inflation démographique a pour corollaire la guerre totale. » Gaston Bouthoul « Si fondamentaux sont les problèmes de population qu’ils prennent de terribles revanches sur ceux qui les ignorent. » Alfred Sauvy 1/ L’explosion démographique. De quelques chiffres édifiants D’après les estimations les plus fréquemment évoquées, la population mondiale s’élevait à 300 millions d’êtres au début de l’ère chrétienne, 700 millions en 1750, 1,4 milliard en 1850, 2 milliards en 1930, 5 milliards en 1990, 6 milliards en 2000, 7 milliards en 2010, et le cap des 7,55 milliards d’âmes a été franchi en 2019. La population devrait augmenter de quelque 90 millions de personnes par an ou, plus symboliquement encore, de quelque 250 000 individus par jour. Cet essor démographique totalement hors contrôle et exponentiel est sans précédent. Rappelons que cette progression est restée relativement lente jusqu’au milieu du XV e siècle et à la grande Révolution industrielle qu’a connue l’Europe de l’Ouest. Ensuite, les choses se sont accélérées sous l’effet de la colonisation puis du développement sous influence occidentale qui a apporté d’importants progrès médicaux dont les effets immédiats ont été de diminuer la mortalité infantile, sans toutefois que l’évolution des mœurs ne suive et n’implique un contrôle des naissances, principalement en terres africaine et musulmane où cette politique s’est toujours heurtée aux mentalités fortement natalistes. De ce fait, la mondialisation et les échanges entre le Nord et le Sud, à la suite de la colonisation, n’ont fait qu’accentuer l’énorme décalage, potentiellement explosif, entre, d’une part, une dénatalité quasi suicidaire de la civilisation occidentale – surtout de la vieille Europe, dévitalisée par son hédonisme inhérent à la « mcworldisation » et son individualisme anomique – et, de l’autre, une surnatalité du monde islamique, africain (sahelo-saharien) et, dans une certaine mesure, indien. Cette surnatalité hors contrôle alimente inévitablement à son tour des migrations massives de peuplement, elles-mêmes favorisées par les instances mondiales onusiennes, européennes et par la doxa droits-de-l’hommiste des élites occidentales mondialisées. Le contrôle des naissances n’a donc pas suivi la baisse desdits taux de mortalité et l’accroissement naturel a amorcé une expansion de plus en plus spectaculaire. Ceci dit, depuis un tiers de siècle, les spécialistes de la démographie – science ô combien complexe et parfois paradoxale – constatent que l’accroissement annuel s’est également en partie ralenti : 10 % en 1970, 9 % en 1980, 8 % en 1995, 7 % en 2000, 6,5 % en 2010 et 6 % en 2015 ; à moyen terme, la population du globe (hypothèse basse, voir infra) pourrait se stabiliser. Cependant, le phénomène de déclin relatif est à mettre exclusivement au crédit (ou au débit, si l’on préfère) des pays développés. Certaines nations « en voie de développement » ont vu récemment (voir supra) leur taux de fécondité diminuer légèrement mais cette transition démographique reste encore modeste, eu égard à la chute brutale de leurs taux de mortalité, et elle concerne bien plus l’Asie et l’Amérique latine que l’Afrique et le monde islamique... D’une manière générale, l’évolution démographique résulte arithmétiquement du solde entre accroissement naturel et migrations. Les chiffres liés à ces dernières (voir infra) incitent à la prudence quant aux appréciations des projections de la population mondiale proposées par les experts. Cependant, au-delà d’imprécisions incontournables, les données proposées notamment par l’ONU sont tout à fait parlantes 1 . Explosion de la population mondiale D’après les prévisions des statistiques démographiques des Nations unies 2 comme d’après celles de l’Institut national d’études démographiques 3 , la population mondiale devrait augmenter de 2 milliards de personnes au cours des trente prochaines années, passant de 7,7 milliards actuellement à 8,5 milliards en 2040, à 9,7 milliards entre 2050 et 2075, et elle pourrait atteindre un nombre proche de 11,2 milliards d’individus vers l’an 2100. Au cours de ce siècle, avec 2 milliards de personnes supplémentaires sur la planète en 40 ans, le monde sera confronté aux effets de la plus grande explosion démographique de l’histoire de l’humanité. Des milliards d’êtres humains dans le monde feront de plus en plus face à la soif, à la faim, et aux conflits qui en découlent. Le ministre indien de la Santé, Ghulam Nabi Azad, déclarait de ce fait en 2011 qu’une population mondiale de 7 milliards d’êtres humains « ne doit pas nous réjouir mais nous inquiéter ». Il est clair que pour nombre d’analystes, si nous ne parvenons pas à désamorcer la bombe démographique, nous ferons face à un avenir de pauvreté croissante, de pénuries alimentaires, de conflits et de dégradation de l’environnement. Une véritable bombe à retardement. Plus de bouches à nourrir et les changements alimentaires impliqueront : un doublement de la production agricole en quatre décennies, une augmentation de 30 % de la consommation d’eau d’ici 2030, et au milieu du siècle, des logements urbains pour 3 autres milliards de personnes. À cela s’ajoute le besoin d’énergie pour soutenir la croissance économique dans les pays post-industriels, industriels et nouvellement industrialisés, en tenant compte d’une demande qui doublera d’ici 2050. Part dans la population mondiale (%) et par zone géographique 19501970199020102017 Europe21,717,813,510,69,8 Asie55,357,760,460,259,6 Amériques13,514,113,713,613,5 Afrique9,09,911,915,116,6 Océanie0,50,50,50,50,5 Le déséquilibre démographique international Face à l’hiver démographique européen, le monde doit faire face à l’explosion démographique africaine. Pas de juste milieu. D’un point de vue géopolitique, la démographie peut avoir des effets déstabilisateurs ou engendrer des changements de rapport de force entre les États. La taille démographique peut donc avoir un impact direct sur le poids politique des États et parfois en termes de violences et même de guerre. « La grande majorité des guerres civiles depuis les années 1970 sont intervenues dans les pays connaissant des croissances démographiques importantes. Les cas de l’Irlande du Nord, du Sri Lanka, du Liban, de l’Algérie, de la Tchétchénie, du Kosovo, du Rwanda, du Congo, pour citer quelques exemples. Plusieurs des révoltes arabes (Tunisie, Yémen, Maroc, Libye, Syrie, Égypte) sont intervenues dans des pays connaissant la même situation 4 . » Dans les années 1970, la forte croissance de la population musulmane au Liban avait conduit l’élite maronite à adopter des réactions défensives, tandis que l’afflux massif de réfugiés palestiniens (à la surnatalité islamique) contribua à la déstabilisation du pays. Par ailleurs, lorsqu’une très grande partie de la population est jeune, surtout en pays pauvres, cela crée une opportunité pour des groupes terroristes, des milices ou des organisations criminelles qui disposent ainsi d’une importante ressource humaine facile à soudoyer et susceptible d’accroître leurs activités. Les disparités de l’accroissement naturel sont, par définition, le reflet de celles que l’on peut noter au chapitre des taux de natalité et à celui des taux de mortalité. Là encore, les chiffres publiés par l’ONU s’avèrent tout à fait édifiants. Les taux de natalité varient en effet (chiffres de 2018) de 49,6 ‰ au Niger à 8,10 ‰ au Japon, donc d’un rapport de quasiment 1 à 6 ! La Iiste des dix premiers États du globe souligne de manière criante le rôle du natalisme et de ses causes sociétales dans des pays pauvres où, c’est le moins que l’on puisse dire, la contraception est loin d’être entrée dans les mœurs. Ainsi, plus de la moitié de la croissance démographique dans le monde d’ici à 2050 aura lieu sur le continent africain avec la population d’Afrique subsaharienne, qui devrait doubler d’ici là. On y constate ainsi des taux de natalité par femme extrêmement élevés, le record étant détenu par le Niger, avec 7,4 entre 2010 et 2015, suivi par la Somalie (6,6), la RDC (6,4), l’Angola et le Burundi (6,0), l’Ouganda (5,9) et le Nigeria (5,7). L’Afrique devrait capter 52 % de la croissance démographique mondiale d’ici 2050 (soit 1,05 milliard d’habitants supplémentaires 5 ). L’Inde devrait dépasser la Chine et devenir le pays le plus peuplé du monde en 2022. Le Nigeria devrait voir sa population doubler par rapport à aujourd’hui pour atteindre environ 410 millions d’habitants en 2050 et devenir le 3 e pays le plus peuplé du monde 6 . Cela créera une pression considérable pour l’augmentation de la production alimentaire nationale, ainsi que pour l’eau et pour les sources d’énergie. Combinées aux tensions sociales et politiques résultant d’une urbanisation incontrôlée et d’une expansion dramatique des bidonvilles de banlieue, cela pourrait donner lieu à des conflits internes et frontaliers, déstabilisant de ce fait les routes du commerce international et conduisant à des migrations massives de zones de conflits vers des régions plus stables, comme l’Europe, avec les problèmes socio-économiques et civilisationnels que l’on imagine. L’hiver démographique des Occidentaux et d’une partie de l’Asie ? « L’hiver démographique » est un terme certes fort, mais loin d’être irréaliste. Il a été introduit par Michel Schooyans, professeur à l’Université catholique de Louvain, pour décrire le vieillissement ou l’augmentation de l’âge moyen de la population, principalement en Europe et au Japon. Michel Rocard, à l’issue de la conférence dite « famille », du 20 janvier 1989, a quant à lui déclaré : « La plupart des États d’Europe occidentale sont prédisposés à se suicider, un suicide démographique 7 . » On sait qu’un pays doit théoriquement maintenir un taux de natalité de 2,1 enfants par femme pour remplacer sa population actuelle. Cependant, en Europe, le taux de natalité est en moyenne de 1,3 et l’on estime que d’ici 2030, l’Europe aura un déficit de 20 millions d’habitants. Dans le même temps, la Russie devrait perdre un tiers de sa population actuelle d’ici 2050. De nombreux pays n’ont pas assez de jeunes pour renouveler leur population et ainsi faire face au fardeau économique du vieillissement. En Italie par exemple, de 2008 à 2019, les naissances sont passées de 576 000 à 420 084 8 par an. Depuis 2007, le bilan naturel est négatif : la moitié des femmes en âge de procréer n’a même pas d’enfants. Certaines des régions les plus riches de la planète – notamment le Japon, la Corée, l’Espagne, l’Italie et une grande partie de l’Europe de l’Est – perdent des habitants chaque année. « Nous sommes un pays mourant », déclarait ainsi en 2015 Beatrice Lorenzin, ministre italienne de la Santé. Les États européens, qui combinent à la fois la faiblesse quantitative de tels flux et un comportement démographique national malthusien, ont ainsi contribué à l’apparition concrète d’une quasi-« révolution » en se dotant désormais du statut de pays à « décroissance démographique absolue » : il s’agit notamment de l’Ukraine, de la Hongrie, de la Roumanie, ( – 0,4 %), de la Croatie, de la Biélorussie ( – 0,2 %), de la Lettonie, de la Serbie et de la Bulgarie ( – 0,1 %), toutes anciennes démocraties populaires, auxquelles il faut ajouter, mais ce n’est plus guère une surprise, l’Allemagne et le Japon ( – 0,2 %). Ce phénomène – gravissime à moyen et long termes – ne semble pas préoccuper outre mesure les élites dirigeantes occidentales, excepté quelques populistes honnis, car elles comptent depuis des décennies sur l’immigration de peuplement de masse – malgré les problèmes socioculturels et sécuritaires associés – plutôt que d’adopter des politiques natalistes, considérées comme réactionnaires ou attentatoires aux acquis des femmes et des individus, cela alors même que tous les experts savent que l’immigration ne règle pas le problème du vieillissement, mais prive le Sud de ses élites, cadres, et ouvriers qualifiés, ainsi que nous le verrons plus bas. Russie, trop grande trop vide... La Russie est de loin le plus grand pays du monde, mais sa population est en déclin potentiel, à peine freinée par la politique démographique très généreuse mise en œuvre il y a dix ans et par une forte immigration issue des anciennes républiques soviétiques. Avec une superficie de dix-sept millions de kilomètres carrés, la Russie couvre 11,4 % des terres émergées de la planète, mais les 147 millions de personnes qui y habitent représentent moins de 2 % de la population mondiale. Son immensité signifie une abondance de ressources naturelles, mais la population clairsemée et inégale est aussi son talon d’Achille géopolitique, aggravée par le choc démographique causé par la chute du régime soviétique et par le détachement des nouvelles républiques de la Baltique, de l’Europe de l’Est et de l’Asie. Si l’on examine les indicateurs démographiques de la Russie, de 1950 à aujourd’hui, on observe que la population est passée de 103 millions en 1950 à 148 au début des années 1990, ralentissant progressivement ; elle est ensuite passée à 143 millions (avec une reprise ultérieure jusqu’à 147 millions aujourd’hui, notamment due à l’arrivée de migrants d’Asie centrale et de l’annexion de la Crimée en 2014). Depuis la chute de l’URSS, la baisse dramatique de la natalité s’est aggravée d’une augmentation de la mortalité due à la crise sociale et sanitaire, partiellement compensée par une immigration nette soutenue. L’indicateur conjoncturel de fécondité (ICF) russe, qui est à peine de 1,2 ou 1,3 enfant par femme au tournant du siècle – soit bien inférieur au minimum vital de 2,1 –, a été considéré par le gouvernement de Vladimir Poutine depuis les années 2000 comme un des pires dangers pour le pays sur les moyen et long termes. Le Président russe est conscient qu’une nation dotée du plus grand territoire au monde ne pourra pas longtemps le sécuriser et le contrôler sans un repeuplement nataliste face à des empires rivaux et des voisins revanchards comme la Chine ou les puissances islamiques. Il déclare ainsi régulièrement dans des discours : « un pays aussi vaste [que la Russie] devrait avoir au moins 500 millions d’habitants », et il a tenté avec des succès mitigés, depuis 2007, de lancer une politique nataliste. Celle-ci s’est traduite par une reprise (avec un pic de 1,7 en 2015) que beaucoup considèrent toutefois comme transitoire. Et l’immigration en provenance de Chine, vue comme une menace à long terme pour la Sibérie russe – jadis chinoise – encore modeste pour le moment, se fait sentir sur un territoire qui a besoin de main-d’œuvre, de technologie, de populations et d’investissements. La démographie, un facteur critique pour l’alimentation La préoccupation primordiale concernant l’avenir de l’alimentation et de l’agriculture est de savoir si les systèmes mondiaux seront en mesure de nourrir durablement l’humanité jusqu’à 2050 et au-delà. En effet, nourrir toute la population en 2050 représente un des défis majeurs futurs sachant que, selon l’OMS, 690 millions de personnes ont souffert de la faim en 2019 9 . Poussée par une mondialisation excessive, la demande mondiale de produits agricoles continue de croître sous l’effet des changements alimentaires, de la croissance démographique, de la hausse des revenus et de l’urbanisation accrue. L’amélioration des conditions de vie entraîne une consommation supplémentaire, voire une surconsommation et du gaspillage 10 , ce qui demande une hausse de la production, provoquant des dégâts collatéraux considérables, comme la dégradation des terres, la déforestation, la surexploitation des eaux souterraines, les émissions de gaz à effet de serre, l’utilisation excessive de pesticides ayant un impact non négligeable sur la population (comme la culture du soja au Brésil ou en Argentine), la perte de la biodiversité et la pollution des masses d’eau. Non seulement l’agriculture affecte l’environnement et contribue aux changements climatiques, mais c’est aussi l’un des secteurs les plus touchés... Comme expliqué par l’Organisation des Nations unies pour l’alimentation et l’agriculture (FAO 11 ), la croissance de la production agricole est freinée par la rareté accrue et la diminution de la qualité des terres et des ressources en eau, car évidemment, ce qui peut être produit dépendra de la disponibilité et de la productivité des ressources, et notamment de la terre et de l’eau. Ces ressources sont déjà sous pression et, bien que les progrès techniques aient permis d’accroître la productivité, ou du moins la croissance des rendements des cultures, ralentit. De plus, la perte et le gaspillage exercent une pression inutile sur les ressources en terres, en eau et en énergie le long de la chaîne de valeur alimentaire. Taux de natalité en naissance pour 1 000 habitants 12 Pays (plus haut)TauxPays (plus bas)Taux Niger46,1Monaco5,9 Tchad42,2Corée du Sud6,4 Somalie41,8Porto Rico6,7 Mali41,5Italie7,3 Congo (RDC)41,2Japon7,4 Angola40,7Espagne7,9 Burundi39,0Grèce8,1 Gambie38,5Bosnie-Herzégovine8,1 Ouganda38,1Portugal8,5 Burkina Faso et Nigeria37,9Finlande8,6 À l’exception de l’Afghanistan (et de son contexte géopolitique particulièrement spécifique), le « Top ten » des pays à très fort taux de natalité est monopolisé par l’Afrique subsaharienne. A contrario, la liste des dix derniers États du globe révèle l’omniprésence du monde occidental d’économie libérale et des anciennes démocraties populaires. On peut évoquer trois catégories de pays concernant la situation démographique : Les économies postindustrielles matures, à l’opposé des pays africains étudiés plus haut et de l’Inde, sont largement caractérisées par des populations stables ou en déclin. Par exemple, le nombre d’habitants de l’Union européenne devrait diminuer de 20 % d’ici 2100. Ce pourcentage pourrait être revu à la baisse si l’immigration augmente ou si l’on prend en compte la présence d’immigrés non naturalisés ou clandestins installés durablement et prévus dans l’UE d’ici à 2100. La proportion des 60 ans ou plus atteint aujourd’hui 13 %. Les populations d’une cinquantaine de pays vont décliner dans les années qui viennent, notamment en Europe orientale et en Asie de l’Est 13 . La réduction conséquente des jeunes générations aura diverses implications sur des aspects tels que l’assistance sociale, les soins de santé et la composition de la main-d’œuvre. Un cauchemar pour les systèmes de retraite et plus généralement pour le dynamisme économique et la croissance, qui est ralentie ou en récession si le taux est trop faible. Les économies en développement au dernier stade, actuellement caractérisées par des niveaux élevés d’industrialisation, connaîtront un ralentissement de la croissance démographique parallèlement à la croissance de la richesse nationale. Par exemple, en Asie, où vit déjà la moitié de la population mondiale, la croissance démographique n’augmentera que de 25 %, pour atteindre son apogée en 2065, avant de reculer de la même manière que certaines économies postindustrielles. Bien que modeste, la croissance démographique continue de cette région au cours des cinq prochaines décennies, associée aux niveaux élevés de revenu personnel et de croissance de la richesse, entraînera probablement des tensions géopolitiques entre certains pays sur les ressources naturelles, telles que les sources d’eau et les matières premières communes d’abord pour l’industrie. Les pays récemment en développement et les économies les moins avancées sur le point d’entrer dans la phase d’industrialisation. Une croissance démographique plus rapide, responsable de la majeure partie de l’augmentation mondiale jusqu’en 2075, sera la caractéristique clé de ces nations. L’Afrique est la principale région concernée, de nombreux pays de ce continent pouvant doubler ou tripler leur population d’ici 2050. Relativisons les chiffres catastrophiques Inutile de préciser que ces données (surtout les dernières) doivent être appréhendées avec beaucoup de prudence. « Le pire n’est jamais certain », et les défis attendus pourraient être relevés avec des techniques déjà connues et des solutions durables : l’application de méthodes d’ingénierie telles que la biotechnologie ; la mécanisation et l’automatisation accrues ; la réduction des déchets ; un système de stockage et de distribution amélioré puis une meilleure gestion de l’eau ; des ressources alimentaires suffisantes. De même, la consommation future peut être couverte par des améliorations dans la gestion des eaux souterraines, la collecte et le stockage des eaux pluviales, la réutilisation de l’eau et le dessalement. Par ailleurs, les chiffres alarmistes ne mettent pas en évidence les tendances démographiques régionales importantes et donc les disparités. Démographie et Inégalités Espérance de vie à la naissance (source : Banque mondiale, 2018) Pays Espérance de vie Pays Espérance de vie 1) Hong Kong84,9245) République centrafricaine 52,8 2) Japon84,2244) Lesotho53,7 3) Région de Macao (Chine) 84,1243) Tchad54,0 4) Suisse83,8242) Sierra Leone54,3 5) Espagne83,4241) Nigeria54,3 6) Italie83,3240) Somalie57,1 7) Singapour83,1239) Côte d’Ivoire57,4 8) Liechtenstein83,0238) Soudan du Sud57,6 9) Îles anglo-normandes82,9237) Guinée-Bissau58,0 10) Islande82,9236) Guinée équatoriale58,4 Quatre-vingt-cinq ans pour le Japon, 48 pour la Sierra Leone ou la Centre-Afrique ! Voilà sans doute la plus scandaleuse des inégalités dans le monde contemporain, en dépit des progrès de la médecine et de leur exportation à l’échelle de l’ensemble des pays dits « en voie de développement ». La mondialisation n’est pas la même pour tout le monde... Cette inégalité devant la mort apparaît aussi au plan qualitatif des causes principales de mortalité à l’échelle du globe, tel que le montrent des chiffres de l’OMS de 2015. 1) Maladies infectieuses : 29,7 % dont voies respiratoires 6,8 %, sida : 3,1 %, tuberculose : 2,4 %. 2) Cancers : 13 %. 3) Cardiopathies : 12,8 %. 4) Accidents cardio-vasculaires (AVC) : 10,8 %. 5) Sous-nutrition : 5,9 %. 6) Suicides : 1,6 %. Ce classement masque toutefois des différences flagrantes en changeant d’échelle : dans les pays du Nord, les cardiopathies apparaissent au premier rang (18,2, %) devant les AVC (12,8 %), les cancers (9,1 %), le diabète (4,2 %), les maladies neurologiques (4,1 %) et les accidents de la route (2,3 %). En revanche, pour l’ensemble des États du Sud, ce sont les maladies infectieuses (17,2 %) qui tiennent le haut du pavé, devant les maladies respiratoires stricto sensu (9,2 %), le sida (4,4 %), la tuberculose (3,2 %) ou le paludisme (2,6 %). Ces inégalités face aux causes de mortalité sont de toute évidence directement liées au contexte sociétal et à un encadrement médical plus ou moins dense. Songeons qu’en 2013 (source : OMS), on recensait 1 médecin pour 300 habitants pour l’ensemble des pays développés et 1 pour plus de 20 000 au sein du monde non développé... Dans ce contexte, il n’est guère surprenant que des maladies endémiques comme la fièvre jaune, la lèpre, la bilharziose, le paludisme perdurent, mais que réapparaissent des fléaux que l’on croyait définitivement éradiqués, comme la tuberculose. Au- delà de sa valeur symbolique et, à juste titre, très fortement médiatisée, le sida continue de faire des ravages, en particulier dans la zone intertropicale. Alors que le virus avait été repéré dans un premier temps dans les quartiers gays de San Francisco, cette infection s’est très vite répandue dans le monde. Certes, aujourd’hui, la situation s’est stabilisée au sein des pays « nantis ». En revanche, le fléau n’a pas été éradiqué, loin de là, dans les contrées défavorisées, et particulièrement sur le continent africain. Lors de la première grande conférence mondiale sur le sida, on a appris que sur 40 millions de personnes porteuses du VIH, 28 millions vivaient sur ce continent ! Et, en 2010 encore, d’après le rapport annuel de la Commission ONUSIDA, l’Afrique subsaharienne comptait plus des trois quarts des personnes contaminées. En 2017, la même commission citait le chiffre de 70 % ! Un fléau qui n’est toujours pas combattu de manière responsable ! 2/ Les migrations internationales « Si la démographie dicte le destin de l’histoire, les mouvements de population en sont le moteur. » Samuel Huntington L’évocation des « défis démographiques » ne peut, in fine, faire l’impasse sur un phénomène complémentaire : l’évolution des migrations internationales et leur ampleur récente. La surnatalité dans plusieurs régions du monde ne va cesser de favoriser toujours plus de migrations, dans le cadre d’une mondialisation des échanges et de la doxa sans-frontiériste des États providences occidentaux qui créent ainsi des appels d’air. Cela aura des conséquences majeures sur le volume des populations concentrées dans les villes et posera aussi des gros problèmes de gestion, de contrôle et d’intégration aux pays d’accueil des migrants, sans oublier les pays touchés par une hausse massive des flux de réfugiés de guerre (Liban, Jordanie, Turquie, notamment). Cet essor démographique est un sérieux défi, dont la nécessité d’intégrer ces populations dans le marché du travail et de leur fournir une éducation de qualité et des services de santé dont elles auront besoin pour être productives, mais que la crise et le chômage en Europe rendent de plus en plus difficiles. Les pays d’accueil sont d’ailleurs appelés de façon récurrente par les instances onusiennes et européennes (Pacte mondial sur les migrations des Nations unies – PMM – dit « pacte Marrakech » de décembre 2018 ; dépénalisation des migrations clandestines voulue par l’ONU et l’UE, etc.) à créer les infrastructures nécessaires pour soutenir l’emploi, le logement et la sécurité sociale des immigrés désirés ou non (illégaux, faux et vrais demandeurs d’asile, vrais ou faux mineurs non accompagnés, réfugiés économiques, migrants légaux, etc.). Or cet appel d’air, difficilement supportable pour les pays européens en crise économique et frappés par le chômage, ne peut pas ne pas créer des tensions sociales et politiques que la montée des populismes rend manifestes. Face aux répercussions négatives de la baisse de la natalité, qui frappe surtout l’Occident, le Japon, la Russie et la Chine, certains réclament des politiques publiques natalistes, mais les dirigeants et les élites d’Occident, inhibés par un vrai tabou démographique et culpabilisés par les groupes de pression malthusiens, woke et féministes radicaux, les présentent comme impossibles, inutiles ou inacceptables, en raison de l’obsession connue des totalitaires (notamment nazi-fascistes ou islamistes) de procréer en masse. Pour beaucoup, la solution au problème du déclin démographique serait donc d’importer massivement des populations étrangères pour combler le manque de jeunesse et payer les futures retraites. Cette idée, chère au Premier ministre canadien diversitaire, Justin Trudeau, implique l’acceptation du multiculturalisme, lequel peut poser des problèmes de compatibilité et donc d’antagonismes communautaires dès lors que, par principe, les élites multiculturalistes d’Occident se refusent de conduire une politique d’immigration culturellement compatible. La question de l’islamisation radicale des métropoles industrielles occidentales est à cet égard le révélateur le plus flagrant de cette bombe géocivilisationnelle à retardement. En 2018, les Nations unies estimaient qu’il y avait quelque 260 millions de migrants internationaux à travers le globe, soit 3,5 % de la population mondiale (une augmentation de plus de 40 % depuis le début de ce nouveau siècle). Bien sûr, il y a migrants et migrants, et si les médias font prioritairement allusion aux « réfugiés politiques » (et à leur sort généralement peu enviable), leur poids dans les données statistiques est faible : moins de 20 millions de réfugiés dans le monde, dont 15 millions en situation de guerre (voir supra). Les plus gros contingents d’immigrés concernent en réalité essentiellement les migrants économiques qui alimentent les flux du « sud vers le nord » (près de 120 millions) et du « sud vers le sud », moins souvent évoqués, bien que quantitativement comparables (110 millions). Toutefois, les États providences d’Europe de l’Ouest ont créé un tel appel d’air que nombre d’immigrés extra-européens choisissent le Vieux Continent en raison des droits et avantages accordés par principe aux non-citoyens, même illégaux, et que leurs propres pays d’origine n’offriront jamais, pas plus que les richissimes monarchies islamiques du Golfe. Ces dernières, bien que de même religion que nombre d’immigrés, ne connaissent pas la culpabilisation postcoloniale de l’Europe de l’Ouest et ne se sentent pas solidaires des masses afro-musulmanes, pas plus d’ailleurs que des démocraties non européennes comme le Japon ou la Corée du Sud, ou encore les pays ex-communistes d’Europe orientale. En 2018, la moitié des migrants internationaux à l’échelle mondiale est née en Asie, notamment dans le sous-continent indien, mais c’est l’Afrique qui présente les chiffres les plus élevés, avec 85 % de personnes originaires d’un autre État africain et, tout étant relatif, moins de 15 % pour ceux qui tentent, de manière parfois dramatique, d’atteindre l’Eldorado européen. Encore faut-il aussi distinguer, parmi les migrants économiques, deux grands types de profils : la masse des braceros dépourvus de toute qualification, les déshérités venant, dans un premier temps, se réfugier dans les banlieues de métropoles, puis tentant l’aventure vers les pays riches ; et les personnels qualifiés nourrissant le flux du célèbre « brain drain », un « exode des cerveaux » qui contribue au dynamisme des nations développées du Nord. Cette perte de compétences locales contribue en fait au non-développement des pays quittés par leurs propres forces vives. Cela a été notamment fortement dénoncé par le cardinal guinéen Robert Sarah, en Afrique ou par le dalaï-lama au niveau mondial. En septembre 2018, le prélat tubétain déclarait à Malmö, en Suède, que « l’Europe appartient aux Européens » et qu’à terme il était souhaitable que les réfugiés « retournent chez eux pour reconstruire leur propre pays 14 ». Quant au cardinal Sarah, il fustigeait en novembre 2019 une Europe qui prétendait pouvoir faire face au tsunami migratoire, refusant de voir que le bateau était déjà prêt à couler : « Ceci est irresponsable sur le plan économique : accueillir, ce n’est pas seulement laisser entrer les gens, c’est leur donner du travail, or comment offrir un travail aux nouveaux arrivants, alors qu’en 2020, 16 millions d’Européens sont au chômage ? Si finalement, les migrants obtiennent un travail, ce pourrait être au détriment des Européens eux-mêmes ; ou bien, au prix de conditions de travail déplorables. » Ainsi, cette migration massive pourrait même bien aboutir à l’établissement d’un « nouvel esclavage 15 », conclut-il. En investissant des sommes astronomiques dans l’accueil des migrants, y compris illégaux ou hostiles aux valeurs occidentales pluralistes, l’Europe crée donc un appel d’air, et se donne à voir comme un Eldorado qu’elle n’est plus, au lieu de régler les problèmes de pauvreté et de conflits en Afrique en aidant à son développement. L’idée de « plan Marshall pour l’Afrique 16 », notamment développée par l’expert international Me Jean-Michel Nogueroles, permettrait à sa population de ne pas avoir à émigrer. Tout l’argent dépensé dans les prestations sociales accordées aux migrants, notamment clandestins, en Europe pourrait en effet, s’il était investi dans une optique de développement durable, permettre à de nombreux habitants africains d’avoir, par exemple, accès à l’électricité ou à des services d’hygiène décents. L’autre problème, rarement évoqué, est que les pays d’origine supportent les dépenses considérables liées à l’éducation du futur migrant et n’en tirent aucun bénéfice, au contraire du pays d’accueil. Songeons, par exemple, que deux Prix Nobel américains sur cinq sont nés hors des États-Unis ! Mais si le phénomène du brain drain n’ignore pas les pays membres de l’Union européenne, ces derniers doivent surtout faire face aujourd’hui à l’accélération brutale des flux migratoires, notamment clandestins, en provenance du continent africain, via la mer Méditerranée. Près de 3,5 millions de personnes venues des pays pauvres ont immigré au sein de pays membres de l’UE en 2018, et 2 millions ont quitté l’un de ses États membres. En 2018, selon la Commission européenne, c’est l’Allemagne qui comptait le plus grand nombre de non-nationaux (8,8 millions) devant le Royaume-Uni (5,7), l’Italie (5,2), I’Espagne (4,6) et la France (4,2). « Préparez Venus viendra Mars... » On doit cette formule à Gaston Bouthoul, qui consacra dans son traité majeur un long chapitre aux dimensions démographiques des guerres. Selon lui, les États disposent en permanence de jeunes hommes dont l’économie peut se passer, et lorsque la natalité est incontrôlée et le surplus de jeunes trop important, la situation « démo- économique » devient « une structure explosive », la guerre nécessitant toujours la « consommation » ou le « sacrifice » de ce surplus d’hommes. Ils forment alors ce que Bouthoul appelle une « force perturbatrice 17 » utilisable pour la guerre ou les conquêtes. Certes, le raisonnement de Bouthoul, alors banal, choquerait les esprits politiquement corrects d’aujourd’hui, le thème de l’immigration ayant été accaparé par les mouvements populistes antimigrants et par l’extrême gauche immigrationniste, de sorte qu’aborder en sortant de cette polarisation manichéenne est peu aisé. Il est en effet devenu de bon ton de n’appréhender les phénomènes de l’immigration que de manière positive et victimaire. La polémologie, l’histoire des civilisations et la stratégie sont bien plus neutres et réalistes de ce point de vue, car tout comme la mondialisation, désoccultée dans ce livre, l’immigration peut être analysée comme un phénomène neutre qui peut tout autant apporter des richesses à un État et enrichir une société que créer des difficultés de coexistence et de cohérence civilisationnelle. Selon Bouthoul, la guerre revêtant un caractère pulsionnel de conquête et les pertes qu’elle engendre entraînant la mort d’individus jeunes, les flux de migrants (a fortiori issus de pays anciennement colonisés et travaillés par des visions revanchardes postcoloniales ou et antioccidentales, en l’occurrence islamistes) « peuvent être utilisés à l’expansion brusque, dont les deux formes classiques sont la migration en groupe et l’expédition guerrière 18 ». Certes, Bouthoul précise que la natalité ne constitue pas le facteur unique dans la genèse des guerres et que la guerre est le fruit de déséquilibres socio- économiques, mais il souligne que l’élément démographique s’ajoute de façon déterminante aux autres causes qu’est le rôle des « mentalités », des idéologies, de l’environnement culturel et, bien sûr, de l’intention des dirigeants d’exploiter les « structures explosives ». On songe, bien sûr, à l’islamisme radical. Le lien entre immigration, sécurité, démographie et géopolitique est donc évident. De ce point de vue, la combinaison du fait que l’Union européenne est entrée en phase de dépopulation depuis les années 2010 (sa population n’augmente que du fait de l’immigration extra-européenne) et que l’immigration familiale, illégale et d’asile est devenue difficilement contrôlable, aura des conséquences sociopolitiques et civilisationnelles sur les pays d’Europe les plus concernés. L’« Europe élargie » (donc en incluant les ex-républiques soviétiques hors Asie centrale) est dans le monde le seul ensemble géocivilisationnel qui va décliner d’ici à 2030-2040. À ce double phénomène d’immigration de peuplement (regroupement familial) et de dénatalité s’ajoutent les phénomènes de la hausse de la mortalité (alcoolisme, déclin des systèmes de santé, en Russie, en Europe orientale et méditerranéenne...) puis des difficultés d’intégration des communautés musulmanes subsahariennes, turques et maghrébines. Le malaise ressenti par les populations, exprimé par des votes dits « populistes », ne doit pas être sous- estimé ou simplement ignoré par principe pour ne « pas faire le jeu des extrêmes », car c’est justement le meilleur moyen d’attiser les réactions radicales, complotistes, et la défiance croissante envers les dirigeants en place qui omettent la question identitaire et démographique. Les réactions populaires en Italie, en Autriche, en Hongrie ou en Grèce face aux flots de réfugiés des années 2015-2017 entrent dans ce contexte hautement sismique tout comme l’inquiétant phénomène des abstentions électorales en Europe qui n’augurent rien de bon pour l’avenir des démocraties libérales. Les conséquences sociopolitiques et géocivilisationnelles de l’immigration Les partisans de la mondialisation heureuse et de l’ouverture par principe affirment que le phénomène migratoire est toujours une chance et est bon en soi. Pareille attitude ne tient pas compte du fait que l’immigration ne peut être perçue comme un simple remède pour régler le problème des retraites d’Européens inféconds (vision d’ailleurs assez méprisante envers les migrants), et qu’elle a forcément des conséquences sociales, sécuritaires et culturelles. Si nombre d’immigrés sont certes des travailleurs acharnés sans lesquels des filières comme, la restauration, l’hôtellerie, le bâtiment, ou même l’agriculture connaîtraient des difficultés de recrutement, en revanche, nombre d’entre ceux dont l’émigration est motivée par les aides sociales octroyées par les États providences européens sont quant à eux peu productifs. Ce problème n’est pas dû à l’immigration en elle-même, qui peut être fort positive lorsqu’elle est intégrée, assimilée, donc choisie et productive, mais au caractère non sélectif et de moins en moins choisie de la politique d’immigration en Europe, dominée, depuis l’arrêt officiel de l’immigration de travail en 1975, par le regroupement familial, les flux clandestins non désirés et les demandes d’asile largement détournées. Les coûts humains, économiques et sociétaux du traitement de la délinquance et des difficultés d’intégration qui résultent de cette non-politique d’immigration hors contrôle sont devenus exorbitants dans plusieurs pays européens, même si cela concerne surtout l’immigration postcoloniale issue d’Afrique noire et maghrébine et beaucoup moins l’immigration latino-américaine et surtout asiatique. Secundo, si l’objectif utilitaire des migrations n’avait pour but que de compenser la dénatalité des habitants « de souche » – ce qui n’est pas le cas – les flux nécessaires seraient bien plus massifs et donc ingérables, et par conséquent encore plus explosifs : selon les estimations des Nations unies et de l’Union européenne, onze millions de nouveaux migrants par an seraient nécessaires pour maintenir la population active européenne à l’horizon 2050, avec sur le long terme des dépenses sociales impossibles à financer (formation, éducation, intégration, sécurité, retraites et santé). La « fermeture des frontières » est certes illusoire, mais les pays européens pourraient mieux maîtriser les flux migratoires dans le cadre d’une immigration légale et choisie, faute de quoi les conflits identitaires autour de cette question risquent d’être un jour hors contrôle. Par ailleurs, présenter l’immigration extra-européenne comme une fatalité ou une « compensation » postcoloniale est irresponsable, quand on sait que le « surplus » de jeunes à absorber, selon les termes de Bouthoul, représentera pour l’Afrique au moins un milliard d’individus en plus dans trente ans. De plus, l’immigration de masse ne concerne pas seulement les plus pauvres des Africains, mais aussi des forces vives et intellectuelles qui vont manquer aux pays d’origine, ce qui empêchera une stabilisation et un développement du pays. En Italie, la fondation Farefuturo, qui a réalisé une étude sur les nouveaux flux migratoires depuis les années 1990, a observé que près de 80 % des demandeurs d’asile et plus de 60 % des migrants légaux bénéficiant des mesures de regroupement familial professent la foi musulmane (voir Michèle Tribalat, op. cit.), or face à un monde musulman « réislamisé » de façon ultraconservatrice (islamisme politique), les sociétés d’accueil européennes ne peuvent pas être étanchéisées par magie et ne peuvent pas éviter les conséquences prévisibles, à savoir hériter des problèmes des pays afro-musulmans : islamisme radical, djihadisme, sort peu enviable des femmes, polygamie, rapports problématiques à la laïcité (voir affaires Charlie Hebdo, Mila, etc.) et aux droits des minorités (judéophobie, christianophobie, athéophobie, condamnation à mort des apostats et des polythéistes dans la charia, etc.). Quelques chiffres qui parlent d’eux-mêmes D’après la Commission européenne, le nombre total de migrants – non éligibles au statut de réfugiés politiques – arrivés entre 2015 et 2020 sur son territoire s’élèverait à 2 millions 19 . Ce chiffre est vraisemblablement en dessous de la réalité, car rien qu’en France, sur la période du seul quinquennat, le nombre total d’immigrés (légaux ou illégaux) durablement installés et profitant de nombreuses aides – toujours plus coûteuses pour les collectivités publiques – avoisinerait les 2 millions de personnes, soit une moyenne de 350 000 à 400 000 personnes par an. Ce chiffre a notamment été avancé par le député européen et ex-ministre de l’Intérieur, Brice Hortefeux, qui a recoupé les données des ministères compétents et ceux de l’Insee 20 . Sur plusieurs décennies, le total accumulé s’apparente à une « immigration de peuplement » qui ne peut que contribuer à changer progressivement le tissu social et civilisationnel du pays, donc son identité nationale même, ce qui n’est pas un simple détail que les responsables politiques peuvent se permettre de négliger. En 2019, l’immigration due au regroupement familial (90 502 titres de séjour) ainsi que les titres accordés aux étudiants (90 336), quasiment équivalents, ont été les principales filières, suivies des titres accordés aux demandeurs d’asile, en augmentation (voir infra) – environ 36 275 demandes acceptées en 2019 et 24 118 en 2020. Les premiers pays d’origine de l’immigration (titres de séjour délivrés en 2019) étaient le Maroc, en tête, suivi de l’Algérie, de la Tunisie, de la Chine et de la Côte d’Ivoire. Curieusement, l’immigration dite « économique », officielle, donc désirée, ne représente qu’un peu plus de 13 % du nombre total de titres, soit 32 815. Enfin, environ 20 000 titres de séjour dans le cadre du « passeport talent » ont été délivrés la même année. De ce fait, si l’on additionne ces 255 000 entrées légales aux estimations d’entrées illégales précédemment évoquées, nous atteignons le nombre de 400 000 nouveaux immigrés par an, sachant que moins de 10 % des immigrés clandestins sont effectivement reconduits dans leur pays après des mesures d’expulsion, et que l’immigration clandestine tend à être dépénalisée dans les pays de l’UE. À ces centaines de milliers d’immigrés qui arrivent chaque année – et qui s’ajoutent à ceux précédemment arrivés puisque la plupart restent sur le territoire français –, il faut additionner le nombre de naturalisés, soit 80 000 personnes en 2018, selon le ministère de l’Intérieur. Spécialiste des questions migratoires, la démographe française Michèle Tribalat, directeur de recherche à l’Ined, apporte quelques précisions assez difficilement réfutables sur les chiffres liés au nombre d’étrangers et de Français issus de l’immigration. Sachant que la population d’origine étrangère, dans la statistique publique, désigne « l’ensemble formé par les immigrés (personnes nées à l’étranger, qu’elles aient encore une nationalité étrangère ou qu’elles soient devenues françaises depuis leur arrivée en France) et les personnes nées en France d’au moins un parent immigré », elle rappelle que, selon les derniers chiffres connus de l’Insee (issus de l’enquête Emploi et de l’enquête annuelle de recensement, 2015), 20,1 % des Français de France métropolitaine seraient d’origine partielle ou pleinement étrangère, un taux qui monte à 42,1 % en région francilienne pour les jeunes de moins de 18 ans. Avec Bernard Aubry, Tribalat a mené nombre d’enquêtes détaillées sur ces sujets, et les deux chercheurs en ont conclu que depuis 2015, 1,3 million de jeunes en Île-de-France seraient issus de l’immigration 21 . D’une manière générale, d’après les chiffres de l’Ofii (l’Office français de l’immigration et de l’intégration), la France compterait environ 10 % d’immigrés actuellement, bien loin des 6,5 % souvent cités. Toutefois, d’après la démographe Michèle Tribalat, 20 millions de citoyens français seraient en fait d’origine étrangère (au moins un parent né à l’étranger et non français ou fils de parents non français nés à l’étranger), soit 4 fois plus qu’il y a une vingtaine d’années. Cette augmentation continue – excepté durant la première année de la Covid – est en fait le résultat d’une combinaison de facteurs objectifs et subjectifs : 1/ la pression des lobbys et instances nationales et internationales qui poussent à ouvrir les frontières aux migrants – quels qu’ils soient – et à dépénaliser l’immigration illégale puis à accorder à ces derniers les mêmes droits et aides économiques que ceux normalement réservés aux citoyens autochtones et aux migrants réguliers ; 2/ le laxisme judiciaire qui bloque 90 % des expulsions de migrants illégaux et faux réfugiés ; 3/ le contournement croissant du droit d’asile ; 4/ le refus d’une immigration choisie et la généralisation du droit du sol, du regroupement familial et de l’accueil des demandeurs d’asile, souvent faux, au détriment d’une immigration économique ciblée et concertée. Le droit d’asile, principal prétexte à la migration clandestine Dans un entretien accordé au Figaro, Michèle Tribalat estimait l’immigration illégale à partir de « recoupements de chiffres (interpellations, placements en centre de rétention, aide médicale d’État, déboutés du droit d’asile) à 200 000 à 400 000 personnes ». Quant à l’ex-ministre de l’Intérieur, Gérard Collomb, il avait évalué, fin 2017, le nombre total d’étrangers en situation irrégulière présents sur le territoire français à 300 000. Cette estimation – minimaliste –, basée sur des statistiques de l’Insee et sur le nombre de bénéficiaires de l’AME (aide médicale d’État), n’est cependant pas suffisante, puisqu’elle ne tient pas compte de l’ensemble de la population étrangère en situation d’irrégularité en France dont une partie ne se déclare pas à l’AME. Depuis les années 2000, la moyenne des arrivées de clandestins se situant autour de 80 000 à 140 000 par an, le nombre cumulé d’immigrés clandestins est en fait bien plus proche du million, sans même compter les centaines de milliers d’étrangers arrivés de façon illégale depuis les années 1970 qui ont été régularisés, et qui ont de ce fait disparu des statistiques concernant les illégaux et les étrangers. Patrick Stefanini, ancien secrétaire général du ministère de l’Immigration, donne au moins 900 000 étrangers séjournant illégalement sur le territoire français 22 . D’une manière générale, durant la dernière décennie, les arrivées illégales directes ont augmenté partout en Europe, particulièrement avec la « crise des migrants » ouverte en 2015. Les filières passent essentiellement par trois grandes zones aux frontières méridionales de l’UE : les côtes grecques de la mer Égée ; les îles du sud de l’Italie ; le détroit de Gibraltar et les enclaves espagnoles de Ceuta et Melilla, récemment prises d’assaut par des milliers de migrants sahéliens et maghrébins (mai 2021), suite à une brouille entre l’Espagne et le Maroc. Les immigrés ainsi entrés tendent ensuite à se disperser dans le continent. Depuis des décennies, le nombre de demandes est en constante progression : +7,3 % entre 2018 et 2021. La France est ainsi devenue le pays d’Europe le plus « attractif », avec 154 620 demandes enregistrées en 2019, contre environ 120 000 en Allemagne 23 . On sait par ailleurs que 85 % des demandeurs d’asile déboutés restent et ne sont presque jamais reconduits dans leurs pays. Selon le préfet François Lucas, « le doublement des demandes ces cinq dernières années révèle un détournement de la procédure, pas seulement une faillite du système Dublin. Il s’agit en effet de migrations économiques 24 ». En d’autres termes, il existe un « stock » de demandeurs d’asile déboutés, qui restent et ne sont pas reconduits. En 2015 déjà, la Cour des comptes annonçait que 96 % des déboutés du droit d’asile resteraient sur le territoire français. Toutefois, on notera qu’à la suite de la crise sanitaire, les chiffres de demandes d’asile et en général de l’immigration ont connu un ralentissement relatif et prévisible en Europe, avec une baisse de 33 % en 2020. En France, quelque 95 600 demandes d’asile, mineurs inclus, ont été introduites à l’Ofpra, soit une baisse de 28 % par rapport à 2019. Parmi ces demandes, 86 620 étaient des premières candidatures et 8 830 des réexamens. Précisons que ce chiffre, tout de même impressionnant malgré la crise sanitaire et son lot de mesures de confinements et restrictions des voyages, n’inclut pas les demandes enregistrées en préfecture et placées en procédure dite « Dublin » sous prétexte que la France n’est pas responsable de leur examen, et dont l’Ofpra ne peut légalement être saisi. En 2020 et 2021, les principaux pays de provenance des primo-demandeurs d’asile demeurent l’Afghanistan, la Guinée, le Bangladesh, la Côte d’Ivoire, le Nigeria, la Turquie et le Pakistan, les demandes de ressortissants de Géorgie et d’Albanie ayant commencé à diminuer 25 . L’ensemble des pays africains représenterait 40 % des requêtes. L’Ofpra notait ainsi « une progression notable de la demande en provenance de pays d’Afrique de l’Ouest comme la Côte d’Ivoire et la Guinée ». Quant aux Syriens, dont les médias et lobbys promigrants parlent en permanence pour légitimer, par leur drame, la cause des demandeurs d’asile arrivés illégalement – très souvent de faux réfugiés politiques –, ils sont très peu représentés. Selon la même source, sur ces 138 420 demandes d’asile, seulement 33 330 ont été acceptées, ce qui signifie qu’environ 100 000 personnes se sont vu refuser ce droit, sans toutefois jamais quitter la France, et ce malgré les notifications d’obligation de quitter le territoire. Le tabou du coût de l’immigration Quant au coût annuel de l’immigration, dans le contexte d’un État providence très généreux en France – à savoir la différence entre ce qu’elle rapporte et ce qu’elle coûte –, certains experts l’évaluent – avec chacun des critères fort différents – entre 5 et 70 milliards d’euros. Ces chiffres les plus maximalistes, étonnants et vivement contestés par les partisans de l’immigration de masse, sont pourtant le fruit d’études qui ajoutent aux coûts « classiques » des migrations illégales les dépenses inhérentes, directes et indirectes, aux aides (logement, santé, justice...) et au traitement social et sécuritaire de l’immigration. Pour les estimations les plus minimalistes, un rapport de la Cour des comptes publié le 5 mai 2020 a évalué les coûts « de l’entrée, du séjour et du premier accueil des personnes étrangères en France » pour l’année 2019 à 6,57 milliards d’euros, un montant qui n’a pas pris en compte le coût des dépenses sociales (assurance maladie, retraites et aides sociales de droit commun en général, type RSA ou APL), de celles liées à la justice et à la politique de sécurité, et la prise en charge des mineurs isolés par les collectivités locales. Ainsi, le 22 janvier 2020, le comité d’évaluation et de contrôle des politiques publiques de l’Assemblée nationale a souligné, dans un rapport relatif à l’évaluation des coûts et bénéfices de l’immigration en matière économique et sociale, que le document de la Cour des comptes a sous-évalué les coûts de scolarisation des enfants immigrés par le ministère de l’Éducation nationale 26 . Par exemple, si l’Éducation nationale avance le chiffre de 161 millions d’euros pour les coûts de l’immigration dans son domaine d’action publique, le ministère de l’Enseignement supérieur évoque la somme de 2,2 milliards d’euros, correspondant aux 10,6 % d’étudiants étrangers du secteur public. Quant aux coûts inhérents à la police aux frontières et ceux des infractions pénales spécifiques relevant du séjour sur le territoire (exemple : refus d’exécuter une mesure d’éloignement), la police nationale a avancé le chiffre de 1,2 milliard d’euros en 2020 pour ce seul poste. De la même manière, une étude publiée par le Centre d’études prospectives et d’informations internationales (Cepii, service de recherche économique rattaché au Premier ministre 27 ), intitulée L’Impact budgétaire de 30 ans d’immigration en France, avait déjà estimé en 2011 le coût de l’immigration à 1,64 point de pourcentage de PIB, soit, ramené à l’année 2019, l’équivalent de 40 milliards d’euros, sachant que le phénomène migratoire n’a cessé de s’accroître depuis dix ans. Et cette étude n’est pas la plus maximaliste puisqu’elle exclut par principe les coûts de l’immigration irrégulière, pourtant en hausse depuis des décennies et surtout depuis 2015. Ces coûts sont évalués à 1 milliard annuel pour l’AME et 2 milliards par an pour les 50 000 mineurs non accompagnés (MNA), chiffres confirmés par un rapport du Sénat en 2021 28 . La Cour des comptes déplore d’ailleurs le détournement des demandes d’asile qui expliquerait un tiers de la progression des coûts ainsi que l’aide médicale d’État (un cinquième). Les magistrats précisent que ces dépenses exorbitantes ne peuvent qu’augmenter à l’avenir de façon quasi mécanique en raison de la progression constante (hors année de la Covid 2021) de l’immigration légale de peuplement (regroupement familial) et de l’immigration illégale, favorisées par les appels d’air inhérents au droit du sol, à la dépénalisation de la migration clandestine, au regroupement familial, et aux aides d’État indiscriminées, qui ne connaissent aucune restriction sensible. Sur un quinquennat et sur ces bases, certains ont chiffré le montant à plus de 50 milliards d’euros de dépenses publiques liées à l’immigration au total. Pause migratoire ? C’est en s’appuyant sur les chiffres évoqués plus haut qu’un certain nombre de responsables politiques – et pas seulement des « populistes » ou des partis accusés de « xénophobie » – se sont déclarés ces dernières années favorables à la suppression du droit du sol, principal vecteur de naturalisation de migrants qui ne sont pas toujours intégrables, et dont une part importante est issue de l’immigration illégale et a été régularisée en masse par la suite (« circulaire Valls » du 28 novembre 2012). Ainsi, la présidente de la région Île-de-France, Valérie Pécresse, déclarait : « L’acquisition de la nationalité française ne doit plus être automatique. Il faut la demander, la désirer, pas l’obtenir à 18 ans dans une pochette-surprise », ajoutant : « La France, ça doit être un choix. » D’autres préconisent de supprimer l’AME ou de la réserver à la prise en charge des maladies les plus graves, sachant qu’elle coûte un milliard chaque année aux contribuables et qu’elle contribue à faire de la France un pays attractif aux yeux d’immigrés clandestins attirés « non pas par le plein-emploi mais par la générosité de notre politique sociale », poursuivait l’ex-ministre. Dans les années 1960, le célèbre démographe Alfred Sauvy avertissait que le phénomène de l’immigration de masse extracommunautaire aurait des conséquences civilisationnelles, sociales, économiques et sécuritaires majeures, probablement hautement sismiques si des mesures de sélection et de contrôle n’étaient pas prises. Soixante années plus tard, à l’heure des débats houleux sur les quartiers de non-droit et de non-France, de l’indigénisme francophobe et de l’islamisme occidentalophobe qui progressent au sein d’une partie de l’immigration désassimilée et abandonnée par l’État laxiste aux lois des quartiers et des imams intégristes, un sondage de l’institut Ipsos a révélé que 60 % des Français percevraient désormais les migrants comme une « menace 29 », et 45 % estiment que ces derniers les priveraient de services sociaux. Bref, les immigrés intégrés et l’immigration choisie paient en termes d’image et de perception négative les dérives de l’immigration non choisie, illégale ou/et non intégrée. Le général de Gaulle disait qu’il était « simple d’assimiler un individu, mais difficile d’assimiler un peuple ». Or si la politique migratoire européenne et française n’est pas réformée dans le sens d’une assimilation exigeante, ce sont bien des peuples – pour la plupart originaires de civilisations bien différentes – qu’il faudra intégrer de façon communautariste, l’assimilation se faisant de plus en plus difficilement pour des raisons à la fois de déterminisme culturel et confessionnel, de nombre et en vertu d’une mondialisation qui permet aux fanatiques du monde islamique d’embrigader à distance des communautés musulmanes d’Occident. En Europe et en France, une pause migratoire, comme cela fut le cas aux États-Unis entre 1920 et 1965, suite à la dépression de la fin des années 1920 et 1930, serait une voie raisonnable qui permettrait de consolider l’intégration des immigrés déjà arrivés en masse et même d’assimiler ceux qui sont arrivés de longue date ainsi que leurs descendants, trop souvent travaillés par des puissances étrangères étatiques ou transnationales, notamment islamistes, opposées à l’intégration de leurs coreligionnaires aux mœurs « impies ». Les propos de l’ancien roi du Maroc, Hassan II, pourtant francophile, confirment rétrospectivement ce constat d’une intégration compliquée d’un trop grand nombre de personnes venues d’une civilisation arabo-islamique, parfois antinomique, et donc de l’impératif d’investir plus dans l’assimilation : « L’intégration est possible entre Européens. La trame est la même, c’est le même continent. Ils [les Marocains] ne seront jamais 100 % français, ils seront de mauvais français, je peux vous l’assurer 30 . » On se souvient de Michel Rocard et sa fameuse formule : « Nous ne pouvons pas héberger toute la misère du monde. La France doit rester ce qu’elle est, une terre d’asile politique [...] mais pas plus », avait lancé l’ancien Premier ministre en 1989. Ou de Georges Marchais, secrétaire général du PCF (Parti communiste français) dans les années 1980, farouchement opposé à l’immigration de masse qui déclarait (déjà) : « Nous posons le problème de l’immigration. » Ces deux figures de la gauche alertaient déjà les risques d’une immigration non choisie. Ils n’étaient pourtant ni « fascistes » ni xénophobes... Une fois de plus, la démarche géopolitique montre que l’irénisme et le manichéisme moralisateur ne permettent ni de formuler un jugement froid, ni de prévoir les risques et menaces à venir ou en cours de façon lucide, car l’idéologisation et le tout émotionnel qui domine aujourd’hui nos élites politiques au diapason des modes médiatiques sont l’ennemie de l’analyse. 1. Jacques Soppelsa, op. cit., supra. 2. Voir site des Nations unies : www.un.org/fr/sections/issues-depth/population/index.html 3. Communiqué de presse, Institut national d’études démographiques, 17 juin 2019. 4. « Le défi démographique : mythes et réalités », Institut Montaigne, juillet 2018. 5. Rapport des Nations unies, World Population Prospects 2019. 6. « Sous pression, le poids de la démographie mondiale », Magazine trimestriel du FMI, mars 2016. 7. Michel Schooyans. Le Crash démographique, Paris, Le Sarment-Fayard, 1999. 8. « Popolazione Italia (2001-2016) Grafici su dati ISTAT », Il Sole 24 ore, 29 novembre 2017. 9. Communiqué de presse de l’OMS, publié le 13 juillet 2020. Voir site de l’Organisation : www.who.int/fr 10. Chaque année, un tiers de la production alimentaire mondiale destinée à la consommation – environ 1,3 milliard de tonnes – est gaspillé. Les pays industrialisés et en développement gaspillent respectivement 670 millions et 630 millions de tonnes. 11. Rapport de l’Organisation des Nations unies pour l’alimentation et l’agriculture, The Future of Food and Agriculture, Alternatives Pathways to 2050, 2018. 12. Source : Banque mondiale, 2018, données téléchargeables sur le site de la Banque mondiale : donneesbanquesmondiales.org. 13. « Le défi démographique : mythes et réalités », art. cit. 14. « Migrants : pour le Dalaï-Lama, “l’Europe appartient aux Européens” », Le Parisien, 12 septembre 2018. 15. « Cardinal Sarah : “Ceux que vous accueillez doivent s’intégrer à votre culture” », InfoCatho, 19 avril 2019. 16. Voir Jean-Michel Nogueroles, « Pourquoi il faut un plan Marschall pour l’Afrique », Fild Fildmedia, 9 février 2021. 17. Gaston Bouthoul, Traité de polémologie. Sociologie des guerres, Paris, Payot, 1970, p. 115-120. 18. Frédéric Coste, « Bouthoul et la polémologie : l’étude des causes profondes de la guerre », Les Champs de Mars, février 2002, n o 12, p. 9-30. 19. L’Inspection générale des affaires sociales (Igas), l’Inspection générale de l’administration (IGA), l’Inspection générale de la justice (IGJ) et l’ADF évaluent d’ailleurs à 2 milliards d’euros le coût pour les départements par an et ils déplorent qu’au moins « une personne sur deux est évaluée comme majeure ». 20. L’immigration légale représentant 255 000 entrées par an, si l’on ajoute à ce chiffre les déboutés du droit d’asile (90 000) dont la majorité reste en France comme indiqué par la Cour des comptes, le chiffre annuel de 350 000 est plus réaliste. 21. Site internet de Michèle Tribalat : www.micheletribalat.fr/439632260. 22. Patrick Stefanini, Immigration. Ces réalités qu’on nous cache, Paris, Robert Laffont, 2020. 23. Cour des comptes, « L’entrée, le séjour et le premier accueil des personnes étrangères », 2020, p. 150. 24. Ministère de l’Intérieur, « L’essentiel de l’immigration », 21 janvier 2020, www.immigration.interieur.gouv.fr/Info-ressources/Etudes-et- statistiques/Statistiques/Essentiel-de-l-immigration/Chiffres-cles. 25. Ministère de l’Intérieur, « Les principales données de l’immigration », 21 janvier 2021. 26. Qui n’impute à la politique d’immigration que le montant des dispositifs fléchés sur des enfants allophones ou issus de familles itinérantes et de voyageurs (0,5 % des effectifs). 27. Cepii, L’Impact budgétaire de 30 ans d’immigration en France : (I) une approche comptable , document de travail. 28. Marie-Cécile Renault, « Près d’un milliard d’euros pour l’accès aux soins des étrangers en situation irrégulière en 2021 », Le Figaro, 28 septembre 2020. 29. « La France en tête des pays en attente d’un leader “fort” pour “casser les règles” », Ipsos, 13 septembre 2019. 30. Interview d’Hassan II au palais royal de Rabat. CHAPITRE XII Puissances multinationales et digitales face aux États souverains « De nombreuses rivalités stratégiques sont en train de passer du domaine matériel à celui de l’information dans la collecte et le traitement des données, la pénétration des réseaux et la manipulation psychologique. Faute de définition d’un minimum de règles de conduite internationales, la dynamique interne du système provoquera une crise 1 . » Henry Kissinger Les multinationales digitales occupent une place à part sur l’échiquier géopolitique mondial de par leur taille, leur influence, et leur omniprésence dans des sociétés structurées par les technologies de l’information. Forts de ce constat, certains, comme le politologue Bertrand Badie, affirment que les multinationales, les ONG et organisations internationales puis les mouvements identitaires et religieux transnationaux auraient détrôné l’État souverain qui ne serait plus la seule unité de base du système international 2 . Ce processus, qu’il appelle le « retournement du monde », ébranlerait de façon inédite la puissance étatique et provoquerait une crise encore plus large de l’autorité, l’État-nation n’étant plus capable d’établir les normes faisant consensus. Nous estimons, quant à nous, que si des entraves croissantes pèsent en effet sur les prérogatives traditionnelles des États, les acteurs non étatiques « mondialisés » n’affaiblissent que les États les plus faibles ou démissionnaires de leur souveraineté. Du point de vue géopolitique autant que juridique, l’État-nation souverain demeure le décideur en premier et dernier ressort : il peut se retirer de n’importe quel traité international, poser, s’il le veut, des règles strictes et des limites aux ONG, aux multinationales et aux réseaux sociaux, et il est donc capable de rester encore longtemps l’unité dominante de l’ordre mondial. Notre postulat est que la mondialisation marchande, indéniable, certes, n’est pas un acteur mais un phénomène neutre, un processus économique, digital, informationnel, et que ses outils technologiques peuvent autant être des opportunités que des contraintes pour les États qui peuvent en tirer parti et même accroître leur puissance et leur souveraineté en les utilisant à leur avantage (Chine, États-Unis). Quant aux firmes multinationales (FMN), aux ONG et aux organisations internationales, elles ne peuvent pas avoir le dernier mot en tant qu’acteurs face à des États puissants ou/et volontaristes (États-Unis, Chine, Russie, Inde, Brésil, Japon, Turquie, etc.). Du point de vue réaliste, la mondialisation marchande et digitale peut être vue comme un immense théâtre de compétition entre nations, et donc d’hyperconcurrence que les « meilleurs » et les plus offensifs sauront utiliser et canaliser à leur profit... La puissance des firmes multinationales Ceci dit, il est indéniable qu’avec la mondialisation marchande et les délocalisations, associées à l’économie virtuelle et digitale sans frontières, les relations internationales, loin de se limiter aux aspects politiques et diplomatiques, sont concernées par les réalités économiques et financières, au point que pour certains, les grandes FMN 3 , fruit de l’expansion du capitalisme international, sont considérées comme de nouveaux acteurs à part entière de la géopolitique et de la nouvelle diplomatie commerciale. Jusqu’à présent, ces firmes n’ont pas fait l’objet de réglementations internationales et nationales à même de limiter leur pouvoir pourtant souvent concurrent de celui des États. Or ceux qui ne s’accommodent pas de cela n’ont pas dit leur dernier mot, même s’ils ont souvent un train de retard... Aujourd’hui, un peu moins de la moitié des 100 premières puissances économiques mondiales sont des États (sur 197 reconnus et répertoriés par les Nations unies au total), l’autre moitié est représentée par des entreprises multinationales. Cela signifie que ces dernières sont bien plus puissantes que de très nombreux États dans le monde. Un seul exemple suffit à prendre la mesure incroyable de ce pouvoir non étatique : l’enseigne de supermarché américaine Walmart, la plus grosse entreprise au monde en termes d’effectifs, qui emploie 2,2 millions de personnes (soit l’équivalent de la population parisienne), réalise un chiffre d’affaires d’environ 524 milliards de dollars, selon le classement de Forbes 4 , c’est-à-dire autant que le PIB de l’Argentine ou de Taiwan... Il existe actuellement dans le monde quelque 60 000 FMN, qui contrôlent plus de 500 000 filiales, responsables de la moitié des échanges commerciaux internationaux, en particulier du fait de l’importance du commerce intrafirme (entre les filiales d’une même entreprise). Grâce à leur forte présence virtuelle, certaines peuvent opérer partout dans le monde sans aucun ancrage national ; les exemples de Netflix ou Amazon étant les plus évidents. En ce qui concerne la France, en 2017, les firmes multinationales représentaient 1 % des entreprises des secteurs principalement marchands non agricoles et non financiers, mais occupaient 49 % des salariés et généraient 57 % de la valeur ajoutée brute produite sur le territoire français. Par conséquent, beaucoup d’emplois en France se retrouvent sous contrôle étranger : 2,2 millions en 2017 contre 1,8 en 2016, soit 400 000 de plus en une seule année, principalement dans des entreprises de taille intermédiaire. Ces entreprises sont elles-mêmes contrôlées par des multinationales étrangères d’origine américaine (533 000 emplois) et allemande (324 000 5 ) et pour 16 800 entreprises, ces emplois concernent en majorité l’industrie. Le développement des FMN et de leur activité est à la fois la conséquence et l’un des moteurs essentiels de la mondialisation, tandis que, grâce au numérique, ces firmes transforment le monde et, avec lui, le commerce, dont elles constituent aujourd’hui le vecteur principal par la rapidité des transactions et l’échange d’informations instantané. Avec la croissance du commerce électronique, qui ne nécessite aucune présence physique d’entreprises sur le marché d’exportation, les FMN échappent très souvent aux taxes, et leur activité commerciale est rarement encadrée par des règles multilatérales. En outre, la régulation des pratiques commerciales est moins du ressort de la législation publique instaurée par les États (soumis au vote démocratique) que de celui des firmes internationales privées qui instaurent ainsi leur propre ordre parallèle. Qu’il s’agisse des FMN liées à la finance, à l’industrie pétrolière, à l’automobile, à l’énergie ou aux autres secteurs dont les domaines digitaux, leur poids économique est tel qu’elles concentrent puis contrôlent la majorité des marchés et de l’emploi dans certains secteurs. Elles ont la capacité d’influencer les politiques fiscales et sociales des États. La mise en place des tribunaux d’arbitrage internationaux permet par exemple aux multinationales de poursuivre un État en justice dans le cas où celui-ci mettrait en place une loi qui réduirait ses prérogatives ou profits. Les FNM peuvent ainsi faire condamner les États à verser des dédommagements très élevés. Que les pays concernés soient de grandes puissances ou des pays moins avancés ou en voie de développement, ils subissent presque tous (excepté peut-être des régimes dictatoriaux et nationalistes comme la Chine) cette « justice » internationale non étatique et non issue d’accords entre États souverains, non pas en raison d’une fatalité mais d’un habitus et d’une abdication en réalité réversibles. Les prérogatives exorbitantes du droit public impactent les droits les plus fondamentaux des citoyens, à commencer par la santé, les droits salariaux, mais aussi l’environnement ou les droits de l’homme. Un des points de crispation des traités de libre-échange récemment portés par les États-Unis et l’Union européenne comme le Transatlantic Trade and Investment Partnership 6 (TTIP) concerne d’ailleurs l’introduction du dispositif dit « d’arbitrage privé », présent dans la majorité des accords commerciaux internationaux. Ce dispositif est censé garantir une juste impartialité aux investisseurs étrangers afin qu’ils puissent se défendre contre les abus éventuels des États ou contre des législations trop contraignantes pour eux. Or les arbitres de ces tribunaux ne sont pas des juges mais des avocats d’affaires qui peuvent être à tour de rôle arbitres, défenseurs d’un État ou d’une entreprise. Issus d’une élite mondialisée très restreinte, ces avocats donnent logiquement très souvent gain de cause aux investisseurs. Les entreprises multinationales peuvent donc attaquer un État pour un investissement qui n’a même pas eu lieu, juste pour le manque à gagner qu’une loi aurait empêché. C’est ainsi qu’en 2016, McDonald’s a réclamé 17,8 millions d’euros à la ville de Florence uniquement pour le fait de ne pas l’avoir laissé ouvrir un restaurant sur la place principale ! Les États – surtout ceux dirigés par des élites occidentales libertariennes qui ne luttent pas contre ces abus par parti pris – voient ainsi une logique économique s’imposer à eux au détriment des décisions de leur pouvoir législatif et de la souveraineté des peuples. Il est clair que les dédommagements obtenus par les multinationales au titre du « manque à gagner » cité précédemment peuvent léser les droits des citoyens du fait même de l’effet dissuasif direct de ces entités sur l’adoption de réglementations jugées trop protectrices des consommateurs et qui nuiraient aux intérêts financiers des FMN. Par exemple, un État qui ferait adopter une loi visant à éliminer un produit jugé nocif pour la santé peut être attaqué en justice par l’entreprise multinationale s’estimant lésée. Cela fonctionne également pour un permis d’exploitation de terres qui viendrait à être annulé par un gouvernement. Avec ces tribunaux d’arbitrage privé, les multinationales imposent leur volonté, ceci dans le plus grand secret. D’évidence, les États souverains et leurs dirigeants pourraient, s’il y avait une réelle volonté de reprendre le contrôle, combattre ce système qui menace leurs prérogatives régaliennes. Cependant, les liens d’intérêts entre grandes entreprises et gouvernements sont souvent forts, ces derniers étant désireux d’attirer les investissements étrangers dans leurs pays et ainsi motivés à signer des traités favorables aux multinationales. Cinquante-quatre pays ont ainsi adopté en 2019 107 mesures relatives à l’investissement étranger dont 76 % visant à libéraliser, promouvoir et faciliter les investissements 7 . Les multinationales sont souvent qualifiées de footloose, ou « jambes légères », car elles s’installent dans un pays, récupèrent des subventions et avantages, puis partent ailleurs dès que d’autres pays offrent des conditions encore plus attractives. Ces multinationales nomades sont de deux types : celles qui s’implantent dans un autre pays suivant des avantages comparatifs, leur objectif étant de créer une chaîne de valeur transfrontalière pour baisser les coûts ou accéder à des ressources spécifiques et à des capacités d’innovation d’un pays ou de mains-d’œuvre hautement qualifiées, puis celles qui cherchent le profit avant tout et dont la logique d’implantation est celle des portefeuilles de valeurs. Leurs actionnaires sont des entités institutionnelles, des fonds de pensions, des entreprises hedge funds, des fonds de spéculation, des fonds d’investissement et des private equity. Leur modèle de développement est le « capitalisme impatient » et footloose, selon lequel les investisseurs cherchent à obtenir des profits à très court terme, ce qui est aux antipodes du modèle européen qui s’appuie sur le développement des chaînes de valeur qui nécessitent beaucoup de patience. Les footloose prolifèrent partout, n’apportent pas toujours de création de valeurs et leur marketing agressif participe du fait que leurs produits ne sont ni utiles ni vertueux : Coca-Cola, qui nuit à la santé de millions de personnes et dont la popularité est fondée sur des publicités agressives surfant sur le soft power américain, couvre par exemple la quasi-totalité de la terre avec ses filiales locales si denses que la firme peut servir la grande distribution et les magasins de proximité du monde entier. L’idée est celle de l’impérialisme marchand : commercialiser des produits vides de sens et addictifs. Délocalisation, fiscalité avantageuse et comportements parfois criminels Afin de réduire les dépenses et d’augmenter les bénéfices, les FMN délocalisent leur production pour profiter des faibles coûts de main-d’œuvre et des normes sociales, environnementales et de sécurité très basses, voire parfois nulles, offertes par les pays en développement, en particulier ceux d’Asie du Sud-Est et d’Afrique. La chaîne de production de ces entreprises est aujourd’hui répartie entre de multiples unités là où la main-d’œuvre est la moins chère, ce qui crée dans le même temps du chômage dans les pays d’origine. Les stratégies de communication et de marketing se font à l’échelle mondiale et les profits sont localisés dans des paradis fiscaux afin de minimiser l’impôt. Les FMN en paient en effet bien moins que les firmes locales de plus petite envergure. Elles doivent, certes, composer avec les lois élaborées dans les États « hôtes », mais celles-ci varient fort d’un pays à un autre et sont plus ou moins strictes et respectées. Certains pays sont tellement conciliants qu’ils autorisent l’exploitation de leur main- d’œuvre dans des conditions inhumaines, offrant ainsi une quasi-impunité juridique pour des faits qui seraient gravement sanctionnés dans les États occidentaux d’origine. Les FMN essaient donc souvent, et avec succès, de saper le pouvoir des États qui peinent à adopter des lois et à s’entendre entre eux pour limiter leur influence. Grâce à leurs avantages fiscaux et à leurs moyens de pression économiques gigantesques, les FMN rachètent bon nombre d’entreprises locales pour mettre parfois tout un marché et un secteur sous leur coupe monopolistique. Leur puissance est telle qu’elles sont en mesure de déstabiliser des zones géopolitiques entières, voire de collaborer avec des États ou des organisations criminelles. Ces entreprises se font une forte concurrence à l’échelle internationale et tous les moyens – ou presque – semblent bons pour conquérir de nouvelles parts de marché 8 . De fait, leur influence financière, économique, politique et souvent même géopolitique, est impressionnante, et grâce à cette force financière et géoéconomique, les FMN ont toujours plus d’ambition pour se mesurer aux États, voire tenter de les dépasser dans certains domaines, ainsi qu’on l’observe de façon flagrante avec Tesla et le projet spatial de son P-DG, Elon Musk, qui a conçu et mis en service des lanceurs réutilisables sur sa fusée Falcon 9 (la plus puissante du monde). Une première dans l’histoire spatiale, puisque, outre le fait que ce domaine industriel est d’habitude une prérogative régalienne, ce projet n’avait jamais été réalisé par la Nasa, qui, après avoir mal vécu cette concurrence, a finalement composé et signé des contrats de partenariat avec Tesla. Récemment, le patron d’Amazon, Jeff Bezos, a lui aussi décidé de créer sa propre industrie spatiale. Les deux créateurs ont d’ailleurs comme projet de développer dans un futur proche le « tourisme spatial », signe des ambitions démesurées que peuvent poursuivre les dirigeants des plus puissantes entreprises du monde. Les Gafam en question... ou l’économie virtuelle à l’assaut du monde ancien Ceci nous amène à aborder le cas spécifique des multinationales du domaine digital, les fameuses Gafam (acronyme de Google, Apple, Facebook, Amazon et Microsoft), entreprises stars de la Silicon Valley californienne, qui ont envahi notre quotidien, influencent l’opinion dite « publique », et créent les nouveaux besoins des consommateurs rendus de plus en plus dépendants. Elles sont désormais capables de faire et défaire les rois mieux que les médias classiques. Elles constituent aussi une nuisance sécuritaire, étant donné la présence du crime organisé et des réseaux islamistes, extrémistes et terroristes sur leurs forums et sur le Net en général. Elles ont même fondé des succursales avec les Natu (Netflix, Airbnb, Tesla et Uber). Ces entreprises ont su renouveler au XXI e siècle le mythe américain des chercheurs d’or ou de pétrole devenus milliardaires en quelques coups de pioche. Ces start-up, parfois créées dans un garage, sont ainsi devenues les plus grandes capitalisations boursières mondiales et leurs patrons, des icônes de l’entrepreneuriat à succès puisque ces entreprises ont parfois à peine plus de 20 ans (Facebook a été créé en 2004 et Google en 1998). Pourtant, ces Gafam n’acquittent pratiquement pas d’impôts dans de nombreux pays, ou extrêmement peu, ce qui constitue un manque à gagner gigantesque pour les États. Champions de l’optimisation fiscale, elles font ressortir leur chiffre d’affaires dans les pays les moins fiscalisés et paient bien moins d’impôts que d’autres entreprises (« dumping fiscal »). Les calculs de la Commission européenne montrent que l’impôt sur les sociétés (IS) payé par les méta-plates-formes serait de l’ordre de 9 %, contre 23 % pour les acteurs de l’économie traditionnelle. Si une nouvelle taxe plus élevée était instaurée pour les acteurs du numérique, le montant annuel pour l’UE pourrait atteindre 415 milliards de dollars ! D’après certaines études, les pays européens auraient ainsi perdu à eux seuls 5,4 milliards d’euros en impôt de la part des seuls Google et Facebook, rien qu’entre 2013 et 2015 9 ! Quant aux experts du Cepii, ils estiment que les cinq Gafam ont payé moins de 10 % d’impôts sur leurs bénéfices hors États-Unis en 2016, Apple a même payé 0,005 % de taxes sur ses bénéfices européens en 2014, et Google 2,4 % sur ses profits hors États-Unis entre 2007 et 2009 10 . Certes, on n’est pas loin de trouver un consensus au niveau européen avec le projet de taxation des Gafam, mais ces derniers ont au moins vingt ans d’avance sur les États souverains, et une très forte capacité d’adaptation et d’inventivité, sans oublier leur pouvoir d’influence et leurs capacités à exercer des pressions sur les dirigeants politiques pour obtenir des avantages. Les Gafam ont ainsi acquis des positions dominantes sur les marchés numériques mondiaux en prenant le contrôle des plus importantes plates-formes de services internet en termes de nombre d’abonnés ou d’utilisateurs. Ces multinationales américaines du Web ont la caractéristique commune d’avoir toutes réussi à imposer des standards technologiques et sociétaux majeurs. Elles rendent ainsi les consommateurs dépendants de leurs services, grâce au contrôle de l’ensemble des écosystèmes d’utilisation d’interfaces (applications, logiciels, terminaux, équipements, accessoires) et des produits dérivés. Ces cinq sociétés hors norme ont su imposer des produits et des services d’une valeur exceptionnelle à leurs clients avec des offres d’une utilité telle qu’elles ont su s’imposer massivement dans le monde. À tel point que dans les pays développés, un utilisateur lambda passe plus de 80 % de son temps à surfer et à vivre dans le monde numérique, 51 % de sa journée étant consacrée à ces sociétés (messagerie électronique, e-commerce, musique, vidéo, réseaux sociaux...). Cette tendance s’explique par le fait que ces plates-formes proposent des services et des solutions en lien avec tous les domaines de la vie quotidienne en s’adaptant et en répondant quasiment en temps réel aux besoins des utilisateurs. Cela leur permet, bien sûr, d’écraser la concurrence de n’importe quelle entreprise car elles gèrent le marché et donc les prix selon leur bon vouloir. Les Gafam occupent tous des positions dominantes dans leur propre secteur. Google détient par exemple 90 % de la part de marché mondial en matière de recherche sur le Web, avec en moyenne plus de 5 milliards de recherches par jour. Facebook totalise plus de 2,7 milliards d’utilisateurs actifs et s’impose comme le seul réseau social à dimension mondiale. Quant à YouTube, avec des versions localisées dans une centaine de pays et la traduction de son site possible en 80 langues, il compte plus de 2 milliards d’utilisateurs mensuels qui regardent plus d’un milliard d’heures de vidéo par jour. « YouTube (racheté par Google en 2006) est vu bien plus que n’importe quelle chaîne de télévision 11 . » De plus, les Gafam se complètent dans leurs activités : nous avons besoin d’un téléphone Apple pour surfer sur Google pour ensuite aller sur Facebook et Amazon. Pour information, Apple (Apple iOS) possède 52 % des abonnés détenus par les systèmes d’exploitation, en concurrence avec Google Android qui en possède 47 % 12 . La puissance financière, politique et technologique démesurée des Gafam La capitalisation boursière de ces sociétés dépasse le PIB de certains États. Pour chacune d’elles, à l’exception de Facebook, le montant dépasse 1 000 milliards de dollars, soit le produit intérieur brut des Pays-Bas, qui sont tout de même à la 17 e place du classement des États les plus riches du monde ! Le PIB des Gafam, soit 5 170 milliards de dollars 13 , est supérieur à celui de l’Allemagne, du Japon ou de la France ! Ils sont même plus riches que la valeur cumulée des constructeurs automobiles ou que les deux tiers des entreprises du CAC 40, ce qui est inouï puisqu’ils sont fondés sur une activité virtuelle et ne produisent pas de biens manufacturés et industriels. « Beaucoup de consommateurs croient qu’Internet est gratuit. Nous savons, au regard des profits de Google [27,8 milliards d’euros de bénéfices en 2018], que ce n’est pas le cas », remarque le Texan Ken Paxton, l’un des cinquante procureurs d’États américains. Paxton vient d’ailleurs d’ouvrir une enquête accusant Google de monopoliser et de fausser le marché 14 . La puissance de ces entreprises est donc de plus en plus liée à leur capacité à utiliser l’or noir du XXI e siècle, à savoir les data et big data. Quelle entreprise peut-elle parvenir, en partant de zéro, à disposer de près de 10 milliards de dollars de revenus en seulement quelques années ? C’est la prouesse que vient pourtant de réussir Amazon avec son service Prime Video, et cela grâce à sa capacité à savoir quels pourraient être les films que chacun de nous préférera. Alors que la plupart des entreprises ont souffert économiquement de la pandémie, ce n’est pas du tout le cas des Gafam : Apple, Amazon, Microsoft ou Facebook ont tous augmenté leur chiffre d’affaires pendant la crise. De plus en plus souvent en situation de télétravail, les employés utilisent plus Internet et les réseaux sociaux pour communiquer et travailler. Ce phénomène de digitalisation de l’économie est en augmentation exponentielle, comme on l’a vu avec les ventes d’Amazon qui ont littéralement explosé, son chiffre d’affaires étant en hausse de 40 %, avec 89 milliards de dollars et un bénéfice net qui double à 5,2 milliards avec 175 000 emplois créés au deuxième trimestre 2020 15 . Cette concurrence est plus que déloyale pour les petits commerces : elle est souvent mortelle, car nombre d’entre eux ont dû mettre la clé sous la porte et laisser leur part de marché aux géants du Web. Les Gafam dépassent désormais nombre d’États dans le domaine de la recherche : des entreprises comme Google ou Facebook recrutent déjà les meilleurs ingénieurs du monde grâce à leur attractivité et à leurs moteurs de recherche. Grâce à eux, ils entreprennent des recherches sur l’intelligence artificielle, la santé ou le spatial, comme Tesla ou Amazon, dont les budgets de R&D sont nettement supérieurs à ceux de la plupart des États du monde, excepté les deux ou trois plus puissants. Ils ont acquis une puissance et une influence si considérables que certains pays comme le Danemark ou la France ont nommé des « ambassadeurs numériques » auprès d’eux ! Cette nouvelle forme de diplomatie numérique incite souvent les États à négocier avec eux plutôt que d’encadrer leurs activités par des lois et réglementations. Certes, ce laxisme des États face aux activités sans contre-pouvoir des Gafam est de plus en plus remis en question, mais cette réaction des États arrive avec au moins une décennie de retard... Les pouvoirs étatiques n’ont jusqu’alors jamais tenté d’imposer une régulation d’Internet, ni d’encadrer les activités de ces firmes dont le soft power est supérieur à celui de la plupart des nations souveraines. Et elles interfèrent même à présent sur le hard power étatique puisqu’une part croissante des conflits se déroule sur les réseaux sociaux et le Net. Ce pouvoir des Gafam revêt également une dimension idéologique et sociétale, car ils ont les moyens d’imposer leur vision libérale-libertaire du monde en implantant dans les consciences, via un consumérisme hédoniste, les dispositions addictives de leurs produits, modes et idées, ainsi que leur sans-frontiérisme et la doxa woke. Avec les Gafam et leurs émules, la taille critique de l’échange d’informations est en effet devenue le monde lui- même : ils se veulent « tout public », d’où l’expression de Benjamin Barber McWorld. Alors que les pionniers de la première génération (Microsoft, Oracle, Netscape, Nokia...) s’adressaient à des publics spécialisés (professionnels, geeks, etc.), les prestataires de la deuxième génération se veulent vraiment globaux en s’appuyant sur des réseaux sociaux couvrant aussi bien la vie privée que professionnelle, les enfants, les retraités. Un autre aspect de l’échange d’informations est l’uniformisation culturelle et notamment des styles de vie. Si la jeunesse nord-coréenne est privée d’une grande partie des produits et services sous licence américaine, elle n’en consomme pas moins – pour les plus fortunés, certes – des hamburgers et des jeans et utilise des clones d’iPhone, de Google et de Facebook. Multinationales prédatrices et capitalisme ubérisé : l’émergence d’un nouveau sous-prolétariat Incontestablement, les Gafam sont l’expression même de la puissance McWorld, cet empire d’expression anglo-saxonne qui défie les États et ubérise la société en justifiant ses prédations sociales et économiques et sa création d’un uber-précariat par l’idéologie transnationaliste. Certes, au tout début de sa présidence, Joe Biden a lancé le chantier ambitieux de mettre au pas fiscalement ces empires nomades en réclamant, conformément aux demandes de l’OCDE, une augmentation drastique des seuils d’imposition minimaux des Gafam, entreprises qui ont le plus profité de la pandémie mondiale. Ils sont désormais sommés de payer et de plier aux lois et prérogatives des États souverains. Le combat est toutefois loin d’être terminé. La généralisation du télétravail n’a pas fait que ruiner les investisseurs de l’immobilier professionnel, avec son cortège de bureaux abandonnés, mais elle a de facto obligé les employés à mettre leur domicile à disposition de l’entreprise, ce qui implique des factures d’électricité et d’énergie accrues, et a entraîné un coût social non encore évalué à sa juste mesure : dépressions, désocialisation, obésité accrue, alcoolisme, dépendance, violences conjugales. Du point de vue des fameux « acquis sociaux », le passage au télétravail va aboutir à délocaliser virtuellement encore plus que jadis, comme cela se passe déjà avec les centres d’appels délocalisés au Maroc ou en Tunisie, et il va accroître la pression à la baisse sur les salaires des pays avancés comme la France. Ce processus est inévitable, car quitte à payer un employé à distance, autant le recruter là où il est le moins cher, ce qui annonce un dumping social via la digitalisation qui va de pair avec l’ubérisation des métiers permis par les applications web de la Silicon Valley. De la même manière, le principe de l’autoentrepreneuriat, qui séduit au départ un jeune au chômage hostile à la hiérarchie directe, annonce la fin du marché national du travail, le dumping salarial et la précarisation des emplois, certes ainsi moins fiscalisés, mais analysables comme une régression en termes de protection sociale. Ces externalités sociales créées par les plates-formes des multinationales de l’ubérisation bouleversent totalement l’ordre social et réglementaire, réduisent les protections et même le droit du travail, puis inaugurent ainsi un nouveau sous-prolétariat ubérisé dont les retraites seront quasi inexistantes. Le poids de la plate-forme de livraison logistique d’Amazon, par ailleurs, est si fort qu’il impose de facto un dumping des prix qui ruine les concurrents locaux nationaux ainsi écrasés et remplacés par des autoentrepreneurs locaux ubérisés qui cotisent peu et rapportent plus aux Gafam. Cela a donc instauré une incroyable fracture entre, d’une part, l’économie nationale classique caractérisée, comme en France, par une relation au travail compliquée mais sécurisée et réglementée et, de l’autre, la nouvelle économie ubérisée des plates-formes et des autoentrepreneurs qui travaillent pour elles et qui permet, certes, à des personnes très peu qualifiées d’acquérir des emplois et qui n’ont pas pu être gérés par le monde de l’économie classique. Ainsi, sur 800 000 entités d’autoentrepreneurs créées par an, 30 % travaillent avec ces plates-formes ou vont être hybridées, comme un taxi qui est à mi-temps Uber. Ce capitalisme ubérisé ou de plate-forme, qui consiste à digitaliser à outrance les activités de services, jadis contrôlées de façon éclatée mais réglementée nationalement, est révolutionnaire : une plate-forme comme Airbnb, bien que ne possédant presque aucun actif et aucune infrastructure, et qui met simplement en contact, grâce au Web, clients et hébergeurs, est d’ores et déjà la première entreprise d’hébergement dans le monde, loin devant les conglomérats hôteliers. Elle ne génère toutefois pas de valeur ajoutée et enrichit des milliardaires en prélevant juste pour cela 20 à 30 % des gains des hébergeurs privés, concurrence redoutable pour les hôteliers classiques obligés d’accepter, pour ne pas disparaître, de baisser leurs prix et de tirer les vrais salaires de leurs employés vers le bas. L’autre exemple est offert par Booking, plate-forme hébergée aux Pays-Bas, qui vampirise quant à elle les hôtels, de facto obligés de suivre cette spirale du dumping des prix. Le bras de fer entre les cryptomonnaies et les États Défendues par les adeptes d’un projet d’une mondialisation libertaire, les cryptomonnaies, fruits des technologies NTIC et de la blockchain, sont également au cœur de la nouvelle économie mondiale ubérisée. Elles incarnent jusqu’à son comble l’immense défi pour les États souverains qu’est devenue la finance décentralisée et désouverainisée. Nous avons vu dans le chapitre consacré aux mafias et aux CTO qu’elles sont déjà utilisées par toutes les entités qui veulent échapper au contrôle des États et/ou à la justice. Cela explique pourquoi les puissances souverainistes les plus opposées à McWorld, notamment la Russie et surtout la Chine, ont banni les cryptomonnaies occidentales ou liées aux Gafam et ont créé leurs propres monnaies virtuelles sous le contrôle de leurs banques centrales en les indexant à leur devise officielle. Rappelons tout d’abord qu’une cryptomonnaie est une forme d’« actif virtuel », suivant la définition du Gafi, qui repose intégralement sur la cryptographie, qu’il s’agisse de leur création (le processus de « minage »), de leur rôle de réserve de valeur, ou de la sécurité du système de paiement. La plus célèbre est le bitcoin, fondé sur la blockchain 16 . Le but officiel était au départ de créer une monnaie, ou plutôt un moyen de transaction indépendamment des banques centrales, des États et du système bancaire traditionnel. De ce fait, ces monnaies posent la question du danger et des conséquences de l’affranchissement des leurs opérateurs vis-à-vis des émetteurs des États. Ces cryptomonnaies ont gagné en popularité en très peu de temps. Le bitcoin a vu sa valeur s’envoler en un temps record : entre janvier et décembre 2017, son cours a bondi de 2 000 %, passant de 953 à 20 089 dollars 17 . La capitalisation des cryptomonnaies oscillait, début janvier 2021, autour des 850 milliards de dollars (toutes cryptomonnaies comprises 18 ). On comprend pourquoi autant de personnes ont décidé d’y investir. Cependant, tandis que la valeur du bitcoin ne cesse de fluctuer et que des investisseurs opportunistes espèrent faire fortune en peu de temps, le risque de fraude grave augmente en parallèle. Les vols par des cyberattaques sont récurrents, et il est presque impossible de tracer et retrouver les fonds volés. De plus, les dépôts ne sont pas assurés ni protégés en cas de faillite, et la monnaie numérique n’est pas protégée par des régimes d’assurance-dépôts fédéraux ou provinciaux. D’évidence, si les monnaies classiques adossées à l’autorité des pays ne valent pas grand-chose, une monnaie fondée sur aucune contrepartie et contrôlée par aucune autorité ne vaut rien. Les cryptomonnaies n’ont en réalité de valeur qu’au sein de la communauté qui les utilise. On sait que les trois fonctions de la monnaie sont d’être une unité de compte, un intermédiaire des échanges et une réserve de valeur. Or si le bitcoin remplit les deux premières, il est loin de la troisième, car il n’est fondé sur aucune création de richesses, aucune contrepartie de la masse monétaire ne se trouvant à l’actif d’une banque centrale (or, devises-titres). Les cryptomonnaies peuvent par ailleurs servir de vecteur pour le blanchiment d’argent sale. Un simple dépôt dans un bureau de change, et l’argent sale est ainsi blanchi. Un rapport de l’OCDE sur la sensibilisation au blanchiment de capitaux observe qu’aucune identité n’est liée à une adresse de portefeuille ni à une transaction donnée. L’identité de l’utilisateur peut uniquement être connue du fournisseur du portefeuille ou de la plate-forme d’échange, si l’utilisateur choisit de recourir à de tels prestataires 19 . Certes, la plupart des plates-formes d’échange sont officiellement réglementées par les autorités financières nationales, donc théoriquement soumises aux mêmes conditions en matière de lutte contre le blanchiment d’argent. Cependant, les plates-formes d’échange appelées « pair à pair » permettent de contourner les contrôles et les protocoles d’identification. Ces monnaies, qui garantissent l’anonymat, suscitent naturellement l’intérêt des adeptes de la fraude fiscale, du blanchiment, et même d’opérations terroristes qui s’organisent souvent sur le Web clandestin. Hans-Jakob Schindler explique que « pour se financer, les terroristes ont cherché des alternatives auprès de la cryptomonnaie, dont le bitcoin [...]. La cryptomonnaie a l’avantage d’être accessible au plus grand nombre et comme elle n’est pas considérée comme un actif financier, elle ne peut être ni saisie ni gelée 20 ». Les cryptomonnaies sont donc un des meilleurs moyens de réaliser des transactions sur les marchés du Web clandestin sans que les parties se rencontrent physiquement. Elles sont l’outil idéal des prises d’otages informatiques, via les mails malveillants ouverts par inadvertance qui permettent de capter et crypter toutes les données d’un ordinateur et de réclamer des rançons en bitcoin pour les récupérer. On se souvient aussi de l’affaire Quadriga, cette première Bourse de cryptomonnaie, canadienne, qui servit de moyen de spéculation pour son fondateur, Gerald Cotten 21 , et dont les fonds de dizaines de millions de dollars investis par les clients n’étaient plus disponibles, lui seul connaissant le mot de passe du système... En réalité, l’argent des clients avait été transféré sur les comptes personnels de Cotten qui spécula ensuite sur d’autres plates-formes. Un flagrant démenti des affirmations de ceux qui vantent l’hypersécurisation de l’économie numérique. « Au Canada, les transactions bancaires sont réglementées et protégées, mais une plateforme de cryptomonnaies peut être lancée sans qu’on s’assure d’une chose aussi simple que le mot de passe ne soit entre les mains que d’une seule personne », déplore Gérald Fillion 22 . Certes, si le bitcoin est moins traçable qu’une banque ou qu’une carte de crédit, il l’est tout de même plus que d’autres monnaies encore plus anonymes, comme le monero, qui masque l’identité de l’expéditeur par le mixage de plusieurs transactions à la fois. Ceci rend ces cryptomonnaies totalement intraçables grâce à des clés à usage unique pour les paiements individuels, et en fait des instruments extrêmement attractifs pour les activités criminelles. Pour ce qui est des ransomwares, c’est-à-dire lorsque banques, avocats, notaires, architectes, hôpitaux, entreprises ou municipalités subissent les assauts de criminels dits « rançongiciels », ou lorsque les données essentielles du réseau informatique de sociétés du CAC 40 sont encryptées par le virus-cheval de Troie ransomware, les cryptomonnaies les plus utilisées sont le bitcoin, le monero et le zcash. L’un des grands experts des cryptomonnaies, dont l’entreprise gère la sécurité informatique de plusieurs d’entre elles et qui a cofondé la cryptomonnaie africaine « afro », David Nataf, précise que « si les demandes de rançon sont souvent effectuées en bitcoins, les cybercriminels changent immédiatement ces derniers en monero ou en zcash, qui ne respectent pas du tout les normes des États, contrairement au bitcoin ». Il précise que d’autres cryptomonnaies ou utility coins qui respectent scrupuleusement des chartes et qui sont sécurisées par la blockchain peuvent en revanche être vertueuses et se conformer aux lois des États. « Ce sont en fait les escroqueries spéculatives occultes et les cryptomonnaies sans projet et sans application réelle qu’il faut bannir, pas l’innovation qui fait progresser la liberté des nations, combat le crime par la transparence 23 . » Il ajoute de façon ironique que, depuis des décennies, « la monnaie qui absorbe le plus de transactions criminelles et qui sert le plus à blanchir de l’argent sale, avec des montants immensément plus élevés que celui des cryptomonnaies, demeure le dollar »... Dans des pays en banqueroute ou en crise grave, les cryptomonnaies peuvent prendre la place du système bancaire traditionnel et national, comme l’a souvent fait jadis le dollar (Argentine, Liban, etc.) en cas de crise majeure. Ainsi, en 2019, au Venezuela, lorsque l’inflation est montée à 9 585,5 %, suite à la gravissime crise économique, financière et politique survenue dans le pays autour de la réélection controversée de Nicolás Maduro en 2018, nombre de Vénézuéliens ont abandonné le bolivar au profit des cryptomonnaies, en particulier le bitcoin, demeuré à l’abri des conséquences des décisions du Gouvernement 24 . En août 2020, la plate-forme B2B LocalBitcoins a ainsi connu une hausse historique de 50 % : les échanges y ont représenté un montant record de 5 millions de dollars américains. Vingt mille points de vente dans tout le pays ont alors accepté le bitcoin comme monnaie de paiement. En réponse, le gouvernement du président Maduro a dû créer sa propre cryptomonnaie nationale, le « petro », dans le but de contourner l’embargo américain 25 . Dans certains pays, les monnaies virtuelles séduisent de plus en plus, car elles peuvent favoriser le processus d’intégration monétaire et constituer une monnaie alternative plus fiable qu’une monnaie souveraine trop dévaluée. Ainsi, début juin 2021, le Salvador a adopté le bitcoin comme seconde monnaie nationale au côté du dollar salvadorien. Le Mexique est lui aussi en train de l’adopter comme sa deuxième devise officielle nationale. En Afrique, les cryptomonnaies ont également le vent en poupe, parfois pour le pire (rançonnage informatique, évasion fiscale, blanchiment) ou pour le meilleur (voir infra). Le Nigeria totalise ainsi à lui seul 8 % des transactions mondiales de bitcoin, et les monnaies virtuelles gagnent également du terrain au Kenya ou en Égypte, qui y voient une assurance contre la hausse due à l’inflation. On peut également mentionner le succès naissant de l’afro, qui est en train d’être agréé par plusieurs États africains. L’afro est la première blockchain ayant été adoptée pour une mission de service public gouvernementale et dont la traçabilité s’ajoute au fait que, contrairement à d’autres, les gains sur les transactions sont reversés aux États dans le cadre d’accords de coopérations comme celui signé en 2021 avec la poste de Côte d’Ivoire. Toutefois, la stabilité des monnaies virtuelles les plus fiables et traçables, comme le bitcoin, n’est pas forcément une garantie éternelle pour les États défaillants qui y voient une solution contre leur monnaie souveraine : en mai 2021, la décision d’Elon Musk de refuser subitement les paiements en bitcoin, qui a fait s’écrouler d’un coup la valeur de celui-ci sous la barre des 40 000 dollars (30 % de perte), a démontré la grande instabilité de ces monnaies. Excepté des cas comme l’afro, ces monnaies servent trop souvent à contourner le système financier officiel et participent de la sorte à son affaiblissement : si tout le monde venait à utiliser les cryptomonnaies pour le stockage et la transaction d’argent, plus aucune règle internationale de contrôle et de réglementation ne serait en vigueur. Par exemple, avec sa cryptomonnaie « libra » – que la firme digitale voulait adosser à un panier de monnaies et d’actifs sûrs en créant l’équivalent du DTS, les droits de tirage spéciaux du FMI totalement virtuels –, Facebook ambitionnait de gérer (ou contrôler) tous les flux d’argent de la vie quotidienne. L’objectif démesuré de ce géant des Gafam, s’il était atteint, aboutirait à acquérir un pouvoir inouï en remplaçant le système en place, ce qui pose la question de la souveraineté des États dans lesquels la monnaie serait utilisée 26 . La France, l’Allemagne et l’Italie se sont d’ailleurs fermement opposées à l’instauration de la libra, le risque étant qu’une entreprise multinationale privée acquière la même puissance monétaire que celle de l’État qui, lui, reste soumis au contrôle démocratique et judiciaire. Il est vrai que, contrairement à une cryptomonnaie étrangère, les monnaies souveraines contrôlées par les banques centrales des États permettent aux gouvernements de collecter des impôts. La réponse en cours des États souverains consiste à plus inciter leurs banques centrales à créer des monnaies numériques parallèles. Un des premiers exemples a été offert par la Chine, avec le yuan numérique, ou « e-yuan ». Ainsi, après avoir interdit les paiements et le minage de bitcoins et autres cryptomonnaies sur son territoire, considérés comme menaçants, les autorités chinoises les ont remplacés par une cryptomonnaie souveraine. À terme, la Chine ambitionne de concurrencer les cryptomonnaies occidentales tout en contrôlant les flux. Dans la même logique, mais avec une efficacité bien moindre, la Banque centrale européenne (BCE) songe à lancer un e-euro pour contrer les cryptomonnaies privées hors contrôle 27 . L’autre tendance consiste à conclure avec les Gafam et autres créateurs de cryptomonnaies, parfois dans le cadre de rapports de force, des accords de non-nuisance réciproque et de délimitations des rôles. En conclusion, il est clair que les États, loin d’être impuissants, ont les moyens d’empêcher les opérateurs de monnaies virtuelles d’empiéter sur leurs prérogatives régaliennes, s’ils le décident... Liberté individuelle, espionnage En dépit de l’apparente gratuité, les Gafam et autres multinationales déterritorialisées font d’abord des affaires et s’enrichissent avec la publicité omniprésente et le pillage des données personnelles des citoyens et usagers, le plus souvent à leur insu, à des fins de marketing. Le fait que ces entreprises aient un monopole international et un libre accès aux données de millions, voire de milliards, d’utilisateurs signifie que les Gafam sont aujourd’hui capables de connaître toutes nos habitudes et de traiter nos données avec ou sans notre accord, sans que cela puisse réellement être vérifié. Au cours de la dernière décennie, ces firmes ont étendu considérablement leur territoire. En prenant d’abord le contrôle des smartphones : Android de Google et iOS d’Apple se sont imposés comme les seuls systèmes d’exploitation de nos appareils. Ils sont devenus la porte d’entrée d’Internet, en contrôlant notamment les magasins d’applications mobiles. Grâce à son moteur de recherche puis à YouTube et à son assistant vocal, Google a amassé une quantité astronomique d’informations sur les internautes, un atout qui lui permet de dominer la publicité en ligne. Cette capacité de ciblage est égalée seulement par Facebook, avec Amazon en embuscade, grâce aux informations sur les achats de ses clients et son majordome vocal, Alexa. Cette montagne de données permet à ces groupes de dominer le secteur émergent de l’intelligence artificielle, avec des services qu’ils monnaient aux autres entreprises via leurs filiales de location de serveurs à distance. Mais aussi d’avoir un avantage significatif pour pénétrer d’autres secteurs, comme l’automobile et la santé. Apple, Google, Facebook et Amazon ont aussi bouleversé les médias avec leurs services de streaming de vidéos et de musique. Songe-t-on ainsi que l’émission d’identité, aujourd’hui prérogative des États, pourrait bientôt tomber entre leurs mains ? Les Gafam ont d’innombrables moyens de vérifier plus sûrement que les États notre identité, au travers d’empreintes biométriques et digitales (yeux, voix, vitesse et mode de frappe sur un clavier...), du traçage de nos déplacements et destinataires de nos messages ou de notre façon de naviguer, etc. Il est ainsi probable qu’un passeport soit prochainement jugé moins fiable qu’une identité certifiée par Apple 28 ... Le premier front ouvert par les grandes démocraties est celui de la protection des libertés individuelles. Les Gafam ont récupéré tout ce qu’il est possible de savoir sur les hommes et les femmes qui ont, une fois dans leur vie, touché une souris d’ordinateur. Ils exploitent nos données grâce aux algorithmes très performants d’Amazon, Google ou certaines agences de voyages qui gèrent les publicités adaptées aux divers profils et modifient même les prix sur les différents sites de vente en ligne pour nous faire acheter plus, plus cher. Ainsi, Internet et les réseaux sociaux permettent aux entreprises internationales de prendre le contrôle de nos désirs, de vendre nos données personnelles au plus offrant en contournant les droits des citoyens et les prérogatives des États, imposant ainsi une concurrence déloyale aux petites entreprises qui ne peuvent survivre face à l’ubérisation généralisée. Elles sont également, via les réseaux sociaux et l’incontrôlabilité du Web, de formidables instruments de manipulation de l’opinion publique. La collecte de ces données est devenue le modèle économique de ces géants technologiques, qui les vendent à des tiers. Dans la plupart des cas, sans le consentement explicite de leur utilisateur ou sans l’en avertir clairement. Ce business a été révélé lors du scandale Facebook/Cambridge Analytica quand 30 à 70 millions d’utilisateurs Facebook ont vu leurs données recueillies sans leur consentement en passant par un quiz qui a absorbé non seulement leurs informations personnelles mais aussi celles de leurs amis. On peut aussi citer le scandale de l’enseigne H&M qui, entre 2014 et 2019, a enregistré les données des salariés d’un site à Nuremberg à leur insu, afin d’établir des profils individuels et un système de surveillance puis de rendre les informations visibles pour une cinquantaine de responsables du groupe. L’enseigne a par la suite été condamnée à une amende de 35 millions d’euros. En relation avec Facebook, de nombreux autres scandales récents ont mis en évidence la dangerosité de ces sociétés hors contrôle. On peut citer l’exemple du piratage, par des hackeurs, de 50 millions d’utilisateurs 29 qui a permis à des cybercriminels de prendre le contrôle de comptes d’utilisateurs et d’accéder à des données personnelles. En 2019, un autre scandale a concerné Facebook, dévoilé dans le Wall Street Journal 30 , lorsqu’on a découvert que la firme recueillait des données personnelles comme le poids, la pression sanguine, mais aussi les cycles menstruels ou les phases d’ovulation, y compris de personnes n’ayant pas de compte Facebook (grâce à des posts et messages)... En 2018, l’agence de presse de Bloomberg dévoilait ainsi un accord secret entre Google et Mastercard aux États-Unis concernant les clients Mastercard américains détenant un compte Gmail et ayant accepté la politique de suivi publicitaire dans les paramètres de leur compte Google. Ceux-ci ont fait l’objet d’un recoupement entre les données bancaires de tous leurs achats et leurs profils utilisateurs. Malgré les nombreuses voix qui se soulèvent contre cette collecte massive de nos données personnelles et les abus, les récents événements suggèrent que cette tendance va continuer à empirer, nos vies étant appelées à être toujours plus digitalisées. L’arrivée de la 5G, qui va multiplier de façon exponentielle les fonctionnalités et capacités de l’économie digitale, contribuera à rendre de plus en plus réel le scénario, jadis de science-fiction, décrit par George Orwell dans 1984. Les Gafam, danger pour les États... sauf pour les deux hyperpuissances qui les ont créés... Si elles offrent des opportunités, obtentions d’informations, échanges et acquisitions de savoirs extraordinaires, en plus du fait qu’elles permettent de « raccourcir les distances » entre les hommes et faire l’économie de déplacements, les multinationales du digital ont aussi leurs zones d’ombre : elles menacent la souveraineté des États, elles sont de plus en plus dénoncées pour leur mainmise tentaculaire sur l’économie mondiale et leur pratique de corsaire fiscal. Leur puissance colossale et planétaire ne découle pas uniquement de leur force de frappe économique mais également de leur capacité à influencer et donc potentiellement à déstabiliser l’ordre international puis à s’affranchir de règles et lois en vigueur dans les territoires soumis au contrôle des États et des juridictions qu’elles défient. Quant aux dirigeants de ces entreprises, ils sont attendus et reçus à chaque déplacement comme des chefs d’État, et ils n’hésitent pas à se poser eux-mêmes comme leurs égaux. En rachetant systématiquement les start-up les plus innovantes susceptibles de les concurrencer, les Gafam créent des situations quasi monopolistiques (« économie de plate-forme »). Leurs dirigeants défient les États dans leur souveraineté et réussissent souvent à imposer leur volonté par le droit fiscal et social, l’éducation, les normes techniques, les choix industriels, mais aussi par le chantage économique, l’obsolescence programmée, l’imposition des standards ou les pratiques anticoncurrentielles. De plus, les Gafam contrôlant tous les flux d’informations peuvent manipuler les opinions et pratiquer l’influence ou la désinformation de masse, à des fins politiques ou idéologiques, en bloquant certaines informations ou certaines personnes, tout en mettant en valeur d’autres. Ils peuvent favoriser l’apparition de certains sites internet plutôt que d’autres lors des recherches dans leurs moteurs. Malgré leurs dénégations publiques, et en dépit des professions de foi politiquement correctes de leurs dirigeants, les Gafam et leurs organismes de censure qui traquent le populisme mais laissent s’exprimer des groupes criminels (drogue, armes, prostitution, etc.), fanatiques, islamistes ou même complotistes et terroristes, ont en fait assez peu de considération pour la protection des lois et de la sécurité des sociétés démocratiques. Réseaux sociaux, entre trop grande liberté et néocensure très orientée... Donald Trump, définitivement interdit sur Twitter, mais pas Recep Tayyip Erdoğan, Mahathir Mohamad ou les plus grands prédicateurs islamistes ! En réalité, les réseaux sociaux peuvent être de formidables outils de propagande et de désinformation pour maints lobbys, manipulateurs, extrémistes de tout bord, y compris des islamistes radicaux et des djihadistes, et pas seulement les « populistes », ainsi qu’on l’observe notamment sur Instagram, Twitter ou Facebook, où des « influenceurs » islamistes ont des dizaines de millions d’abonnés. Une étude de la Brookings Institution a démontré qu’au moins 46 000 comptes Twitter ont été liés à l’État islamique entre septembre et décembre 2014, et que 9 200 autres sont toujours directement liés à des groupes djihadistes, la firme digitale n’ayant jamais voulu les faire disparaître une bonne fois pour toutes. Les comptes soutenant l’EI ont en moyenne 1 000 abonnés, soit « bien plus qu’un compte habituel ». Ils n’ont pas été censurés par les Gafam pendant des années, et il a fallu que les États fassent pression après les vagues d’attentats et crimes contre l’humanité commis par Daesh pour que Facebook et Twitter commencent à réagir, preuve que l’État peut réguler les Gafam s’il le veut. Les cyberdjihadistes continuent toutefois d’y recruter. Twitter est dans ce cas précis le réseau privilégié, car il permet de créer très rapidement un compte facile à suivre dès qu’une autorité impose la fermeture du compte précédent et de poster des liens vers des plates-formes où se trouvent les véritables documents, vidéos ou enregistrements, comme archive.org. Gilles de Kerchove, coordinateur européen chargé de la lutte contre le terrorisme, a ainsi déploré que le « jihad virtuel est favorisé par le phénomène de “l’enfermement algorithmique” : lorsqu’un mot-clé est inscrit dans un moteur de recherche, les algorithmes l’enregistrent et l’internaute reçoit ensuite des contenus similaires. Un individu qui recherche des informations via Internet sur le jihad et l’État islamique reçoit naturellement du contenu faisant écho à sa recherche 31 ». Malgré les avertissements de lanceurs d’alertes et des services de sécurité ou judiciaires de pays inquiets des activités des prédicateurs fanatiques sur les réseaux sociaux, de nombreux comptes sont ajoutés chaque jour qui profitent en fait d’un vide juridique dû au fait que les législations des États ne sont pas adaptées aux nouvelles réalités compliquées du monde virtuel et digitalisé. Parfois, les logiques de Facebook sont étonnantes : les organes de censure de ce géant des Gafam sont très vigilants contre les activistes nationalistes et les suprémacistes blancs, ainsi que les milieux d’extrême gauche ou d’extrême droite antivaccins, à juste titre, mais très peu a été fait contre les milieux islamistes pourtant encore plus hostiles aux démocraties et en général aux États régaliens souverains de tous les pays du monde. Le 8 janvier 2021, suite à l’attaque du Capitole du 6 janvier 2021, et en réponse aux tweets de Donald Trump et aux discussions sur d’éventuelles manifestations armées à Washington DC, Twitter a définitivement banni l’ex- Président américain de sa plate-forme sous prétexte que ses derniers tweets risquaient d’inciter à plus de violences. La firme a également fait supprimer les messages envoyés sur le compte @POTUS, ainsi que sur d’autres comptes. Facebook lui a également infligé une interdiction « indéfinie » jusqu’au jour de l’inauguration. On remarquera toutefois que les réseaux sociaux n’ont commencé à prendre des mesures contre le Président qu’après que le Parti démocrate a pris le contrôle du Sénat, le 5 janvier 2021, la première fois qu’il détient une majorité à la fois à la Chambre et au Sénat depuis une décennie, ce qui lui donne le pouvoir de superviser Big Tech... Par contraste, le président Recep Tayyip Erdoğan, qui dispose sur Twitter de 17,3 millions d’abonnés, et sur Facebook de 9 805 204 « j’aime » et plus de 10 millions d’abonnés, n’a jamais été censuré alors qu’il a provoqué des violences et répressions bien plus meurtrières et volontaires que son homologue américain. Malgré maintes provocations, insultes, menaces proférées contre plusieurs pays et appels à la haine ou au négationnisme, il n’a jamais été suspendu sur les grands réseaux sociaux. Erdoğan a pourtant fait bien pire que Trump : il a muselé l’opposition et la presse depuis 2017, s’est fait accorder les pleins pouvoirs, son gouvernement « national islamiste » a fait massacrer les Kurdes en Syrie, tente de s’emparer des eaux souveraines et du gaz de la Grèce et de Chypre du Nord, occupée, nie activement le génocide arménien, a fait envoyer en Libye et en Azerbaïdjan des djihadistes recrutés en Syrie, appuie le mouvement terroriste palestinien Hamas à Gaza et a même soutenu Daesh entre 2014 et 2016 et al-Qaida en Syrie jusqu’à présent, puis a lancé en octobre 2020 une campagne mondiale de haine contre la France et Emmanuel Macron... L’ex-Premier ministre malaisien, Mahathir bin Mohamad, connu pour ses positions antisémites et négationnistes et ses récents appels au meurtre, dispose de 3 668 228 « j’aime » et de 4 millions d’abonnés sur Facebook, et de 1,3 million sur Twitter. Il a pu écrire le 29 octobre 2020, sur Twitter et sur son blog, après la décapitation de Samuel Paty, que « les musulmans ont le droit d’être en colère et de tuer des millions de Français ». Le pire est que ce texte a été maintenu dans un premier temps par les autorités de régulation de Twitter, qui ont invoqué un « intérêt pour le public », tout en l’accompagnant d’un avertissement, et la firme a fini par retirer le tweet sous les pressions des États, mais sans pour autant supprimer le compte de celui qui appelle au meurtre... Twitter connaissait pourtant depuis longtemps son radicalisme islamiste antioccidental : lors de son discours d’ouverture du dixième sommet de l’Organisation de la Conférence islamique des 16-18 octobre 2003, Mahathir tint des propos ouvertement antijuifs et complotistes en affirmant que « quelques millions de juifs ne sauraient triompher d’un milliard trois cents millions de musulmans ». Et face aux réactions d’indignation venues du monde entier, Mahathir récidiva peu après : « Eh bien, que le monde ait réagi ainsi démontre qu’ils [les juifs] contrôlent le monde. [...] Israël est un petit pays. Il n’y a pas beaucoup de juifs dans le monde. Mais ils sont arrogants au point de défier le monde entier [...], ils tiennent de nombreux médias qui présentent les choses de manière complètement unilatérale et influencent beaucoup de gens » (30 octobre 2020). Mais ni Twitter ni Facebook n’ont jugé bon depuis son dernier appel au meurtre de « millions de Français » de fermer ses comptes... On peut également citer d’autres preuves de ces deux poids deux mesures : l’émir du Qatar, Tamim Al Thani, qui dispose de 925 000 abonnés sur Twitter, n’y a jamais été censuré, bien qu’il ait soutenu les révoltes des Frères musulmans depuis le printemps arabe qui ont déstabilisé plusieurs États, et bien que son pays ait appuyé et financé maints groupes djihadistes dans le monde. L’homme fort de Tchétchénie, Ramzan Kadyrov, avec 400 000 abonnés sur Facebook, a simplement été brièvement suspendu en 2017 mais jamais banni des réseaux sociaux alors qu’il a appelé à massacrer les homosexuels, les blasphémateurs, commis des carnages et récemment gravement insulté et menacé le président Emmanuel Macron et la France suite à la décapitation de Samuel Paty par un Tchétchène (16 octobre 2021). Son protégé, le champion d’arts martiaux Khabib Nurmagomedov, Daghestanais, qui a « prié pour que Macron soit défiguré », ainsi que « tous ses disciples de la liberté d’expression », continue librement de communiquer avec ses 25 millions d’abonnés sur Instagram et n’a jamais été lui non plus banni des réseaux sociaux... Dans un autre registre, Nicolás Maduro, le révolutionnaire bolivariste, successeur de Hugo Chávez, qui a empêché le processus démocratique, ruiné et conduit son pays à la guerre civile, muselé l’opposition et fait exécuter des milliers de personnes, n’est pas censuré : sur Facebook, il a 977 634 mentions « j’aime » et 1,2 million d’abonnés, et sur Twitter près de 4 millions d’abonnés. Récemment, un tweet du Guide suprême de la révolution islamique iranienne hostile aux vaccins a été supprimé sur ses 2 comptes (335 000 et 880 000 abonnés), mais le dictateur théocratique du régime iranien, Ali Khamenei, qui a appelé si souvent à tuer des « ennemis de l’islam », des opposants et autres ennemis de Téhéran, et dont le régime finance le terrorisme international, n’a jamais été banni des réseaux sociaux ni ses comptes supprimés comme ceux de Trump. L’Arabie saoudite, les Frères musulmans, leur protecteur et financier, le Qatar, ont très rarement été sanctionnés par Twitter, alors que ces pays et organisations professent et diffusent la version la plus fanatique et totalitaire de la charia, et que nombre de prédicateurs wahhabites et fréro-salafistes officiels disposent de comptes sur les réseaux sociaux parmi les plus suivis au monde. Il est vrai que l’Arabie saoudite est l’un des plus importants actionnaires de Twitter 32 ... Autre fait révélateur, en mars 2020, on apprit que le Conseil de surveillance de Facebook et Instagram a intégré en son sein le Prix Nobel de la paix yéménite, Tawakkol Karman, militante des Frères musulmans qui s’est fait connaître pour son engagement provoile islamique et durant le printemps arabe par son action révolutionnaire islamiste. Dans un rapport de l’Institut Montaigne intitulé La Fabrique de l’islamisme, on apprend que parmi les 200 comptes au monde ayant le plus de followers figurent 5 abonnements arabophones de prédicateurs wahhabites salafistes. Le rapport mentionne ainsi Muhammad al-Arifi, avec ses 21,4 millions d’abonnés sur Twitter (et 25 millions sur Facebook), ce qui fait de sa page le premier compte saoudien et le premier abonnement religieux du monde et le 86 e mondial tous tweets confondus. Ce docteur en théologie, qui enseigne à l’université du Roi-Saoud de Riyad, justifie notamment le droit pour les maris de battre leurs femmes et le meurtre des apostats. On trouve ensuite le théologien Ayid al-Qarni, qui, avec 19 millions d’abonnés Twitter, professe l’idéologie salafiste du Sahwa qui rejette les valeurs occidentales et vante la même charia totalitaire antimécréants ; le Saoudo-Palestinien Ahmad Al Shugairi, 18 millions de followers, qui prône le salafisme obscurantiste et la haine envers les mécréants dans de nombreuses émissions de télévision religieuses ; Salman al-Ouda (14,2 millions d’abonnés), proche des Frères musulmans, qui anime le site Islam Today, le Koweïtien Mishari Rashid Alafasi (16 e position, avec 14 millions d’abonnés), récitateur du Coran, expert en nasheeds, chants islamiques interdisant les instruments de musique très prisés par les djihadistes. Tous diffusent une conception du monde chariatique liberticide hostile aux non- musulmans, vus comme inférieurs ou/et hostiles, aux apostats et aux blasphémateurs promis à la peine de mort. Du côté des prédicateurs frères musulmans, le plus célèbre et populaire d’entre eux, cofondateur des grandes associations fréristes occidentales et téléprédicateur vedette d’Al Jazeera, Youssef al-Qardaoui, dispose de 3 millions d’abonnés sur Twitter et de 642 362 sur Facebook. Ses comptes n’ont jamais été définitivement bloqués, alors qu’il a écrit des ouvrages et lancé maintes fatwas incitant à tuer les apostats, les juifs, les homosexuels, les blasphémateurs, les adultères et les dirigeants arabes laïques nationalistes, puis a justifié les attentats suicide... L’un de ses disciples en Europe, Tariq Ramadan, petits-fils du créateur des Frères musulmans, Hassan al-Banna, n’est ni censuré ni interdit sur Twitter, où il a 702 000 abonnés, ou sur Facebook, avec ses 2 233 408 « j’aime » et ses 2 324 900 abonnés. Son frère, Hani Ramadan, qui continue de codiriger la principale association des Frères musulmans en Suisse, qui a souvent été signalé par les renseignements et les polices françaises et suisses pour son radicalisme, justifie les répudiations, la lapidation, l’infériorité des femmes et autres mesures totalitaires chariatiques, dénonce en permanence Israël, le sionisme et les intellectuels juifs, n’est pas plus censuré sur Twitter (5 665 abonnés) que sur Facebook (16 626 « j’aime » et 16 800 abonnés). Proche de ces derniers, le prédicateur islamiste frère musulman, Hassan Iquioussen, antisémite notoire et fanatique traqueur de sionistes, diffuse quant à lui tranquillement son venin idéologique depuis 2009 sur Twitter, où il a 2 500 abonnés et surtout sur Facebook, où il en a 144 000. Oligopole des Gafam face au Big Brother chinois des « BATX » Face aux Gafam et aux Natu occidentaux, pour l’heure encore les plus puissants, se dressent les équivalents concurrents chinois BATX (Baidu, Alibaba, Tencent, Xiaomi). Ces géants ont été créés au départ dans le but de limiter en Chine l’influence et le contrôle des Gafam américains, puis de les concurrencer au niveau mondial sur leur propre terrain. Les deux groupes de multinationales digitales se livrent depuis une véritable guerre géoéconomique, financière et idéologique planétaire, chacun véhiculant des intérêts et des valeurs opposés et entretenant des rapports étroits avec les services de renseignements respectifs. Ils s’infiltrent discrètement dans l’économie mondiale en rachetant des entreprises de tous les pays, notamment occidentaux, ou en nouant des partenariats visant à créer de véritables monopoles. Même s’ils l’ignorent le plus souvent, les utilisateurs de Paytm, de Bigbasket (en Inde), de Tokopedia (en Indonésie), de Lazada (à Singapour) ou encore de Trendyol (en Turquie) sont en réalité des clients d’Alibaba, géant chinois. Créé en 2000, le moteur de recherche Baidu a quant à lui longtemps été cantonné au marché chinois. Sa valeur sur les marchés est certes encore loin d’égaler celle d’Alphabet, la maison mère de Google, mais il est déjà le quatrième site le plus visité du monde, et ses techniciens sont à la pointe du progrès en matière d’intelligence artificielle et de voitures autonomes. À l’instar de l’outsider géopolitique, stratégique et technologique chinois, qui défie de plus en plus et cherche à terme à dépasser le numéro un américain, les rapports de force peuvent évoluer très vite et les BATX chinois pourront un jour s’imposer au niveau mondial. Alibaba est d’ores et déjà le concurrent direct le plus redoutable d’Amazon, et le premier distributeur mondial, devant Walmart. Son atout principal est un système de paiement en ligne à la fiabilité reconnue : Alipay. Mais le conflit sino- américain concerne également le domaine du développement de la technologie 5G. La guerre froide sino-américaine et l’enjeu géoécomique majeur de la 5G La 5G est la cinquième génération de technologie de réseau mobile, qui permet une « hyperconnectivité », censée être dix fois plus rapide que la 4G. En fait, la 5G n’a pas seulement pour objectif la vitesse du réseau, mais aussi la possibilité d’interconnexion des services et objets comme les véhicules sans conducteurs, les robots, les villes intelligentes (smart cities), la reconnaissance faciale ou encore la télémédecine. D’après l’entreprise américaine Qualcomm, la 5G devrait générer des ventes de l’ordre de 13 200 milliards de dollars d’ici 2035 33 . Il est vrai que le nombre de téléphones portables explose littéralement : on compte plus d’un abonnement mobile par habitant sur terre, et selon la Banque mondiale, on dénombrait déjà environ 104 abonnements mobiles pour 100 habitants dans le monde en 2018 34 ! De quoi faire la fortune des géants des télécoms comme Apple (leader des smartphones aux États-Unis), Samsung (leader en Europe) ou Huawei (dominant en Chine). Jusqu’alors, les standards étaient créés et imposés par l’Occident, en particulier les États-Unis, ce qui leur permettait de contrôler la majorité des communications mondiales via leur agence de renseignements, la NSA 35 , et les accords de coopération d’échanges d’informations et d’espionnage mondial des câbles transportant les communications sous les mers et océans, conclus entre les cinq pays anglo-saxons « Five Eyes », sous l’égide de la NSA (réseau Echelon et Prism). Diverses polémiques de collecte de données et/ou d’espionnage par la NSA ont d’ailleurs été rendues publiques par l’affaire Snowden 36 . De son côté, la Chine est déterminée à avoir ses propres systèmes de télécommunications, de réseaux sociaux et de téléphonies mobiles dans un double intérêt : que cela rapporte à l’économie chinoise et prémunisse la Chine de l’espionnage mondial anglo-saxon préjudiciable à la sécurité nationale et à la souveraineté. Le conflit sino-américain autour de la 5G, et plus globalement autour de l’enjeu stratégique de demain, a pris forme lorsque Donald Trump, à peine arrivé à la Maison Blanche en janvier 2016, a voulu « rendre sa grandeur à l’Amérique », notamment en réduisant le déficit commercial avec la Chine qui allait atteindre un niveau record deux ans plus tard : 621 milliards de dollars en 2018, son plus haut niveau en dix ans. Pour Donald Trump, cela était dû à la concurrence déloyale chinoise, il s’agissait donc pour lui de faire pression sur Pékin afin de pouvoir négocier un accord commercial à l’avantage de Washington. Début 2018, les taxes américaines ont ainsi commencé à être augmentées sur les panneaux solaires en provenance de Chine, puis sur l’aluminium et l’acier (25 % de taxes annoncées sur les importations d’acier et 10 % sur celles d’aluminium). La Chine a ensuite contre-attaqué en taxant 128 produits américains. États-Unis et Chine se sont rendus coup pour coup, et en mai 2019, Washington a augmenté les droits de douane pour un montant total de 200 milliards de dollars. Ce conflit commercial et les enchaînements de représailles réciproques ont fait craindre une réduction de l’investissement des entreprises, une perturbation des chaînes d’approvisionnement et donc un ralentissement de la croissance avec, à l’issue, une augmentation des coûts pour les producteurs et les consommateurs. D’après la présidente du FMI, Kristalina Georgieva 37 , une guerre commerciale pourrait coûter 700 milliards à l’économie mondiale. En réalité, l’objectif des Américains, et pas seulement de Donald Trump, inquiets de la montée en puissance de la Chine, est d’empêcher cette dernière de devenir la première puissance mondiale et surtout de ne pas perdre l’hégémonie technologique. Le conflit entre les deux superpuissances s’est donc dirigé vers le secteur des nouvelles technologies entre les Gafam américains et les BATX chinois, auxquels on pourrait ajouter Huawei (entreprise fortement liée au régime communiste de Pékin), au sujet des réseaux sociaux et surtout, actuellement, de la 5G. Les États-Unis ont de ce fait ciblé le géant chinois des télécoms Huawei afin que celui-ci ne puisse plus se fournir auprès des entreprises américaines. Pour la première fois, la domination technologique ne vient pas de l’Occident mais de la Chine, plus précisément du groupe chinois Huawei, créé à Shenzhen. La Chine est en effet déterminée à devenir la première puissance mondiale d’ici 2049, et elle vise clairement le leadership mondial, notamment grâce à la 5G, dont Huawei est l’acteur clé. Le 22 mai 2020, Huawei avait déjà écoulé 15 millions de smartphones compatibles 5G. Ainsi, en juillet 2019, Monaco est devenue « le premier pays 5G au monde » en équipant toute la principauté de 23 sites d’antennes dernière génération. Pour Washington, cette fulgurante expansion de Huawei est inacceptable, le matériel chinois diffusé partout dans le monde ne pouvant que faciliter l’espionnage ou d’éventuelles cyberattaques chinoises. Dès janvier 2018, les États-Unis ont donc réagi en interdisant toute vente de technologie américaine à Huawei (très dépendante du système d’exploitation Android de Google notamment). En décembre 2018, la directrice financière du groupe Huawei, Meng Wanzhou, a été arrêtée au Canada à la demande des États-Unis, accusée de « violation des sanctions contre l’Iran instaurées par les États-Unis »... En représailles, Pékin fait arrêter deux Canadiens en les accusant d’espionnage. Encore un signe que les États peuvent réagir face aux FMN s’ils sont motivés. Dans cette guerre froide géoéconomique sino-américaine, le protectionnisme technologique a rejoint l’affrontement commercial et les tensions militaires en mer de Chine. En 2019, Donald Trump a banni Huawei des futurs réseaux 5G américains. Depuis 2018, chaque pays accuse l’autre d’espionnage dans le contexte de lutte pour la souveraineté technologique, contraignant de facto les autres nations du monde à choisir leurs camps. Ainsi, le 16 mai 2019, l’Australie, le Japon, la Nouvelle-Zélande, Taiwan et les États-Unis ont banni les produits Huawei de leurs réseaux mobiles 38 . Mais d’autres pays comme le Brésil, le Canada ou l’Inde pourraient, à l’avenir, emboîter le pas aux États-Unis. En dehors de Huawei, ce conflit géoéconomique et technologique sino-américain oppose plus largement les Gafam américains aux BATX chinois. Avec ces entreprises, en dehors de l’objectif économique évident, le but stratégique de Pékin est de : 1/ contrôler les réseaux et flux d’informations sur son territoire ; 2/ maîtriser les chaînes et flux d’informations au niveau régional et mondial échappant totalement aux réseaux contrôlés par les États-Unis ; 3/ couper la population chinoise de l’influence occidentale subversive (démocratie, droits de l’homme, libertarisme) qui mettrait en péril à terme la dictature chinoise confucéo-communiste. Bien que les BATX soient encore loin des résultats des Gafam, ils remplissent pour l’instant parfaitement cet impératif de contrôle de l’information au niveau national. La capitalisation boursière des Gafam est encore nettement supérieure à celle des BATX, mais les concurrents chinois commencent à inquiéter : depuis 2018, Tencent a quasiment rattrapé Facebook 39 , avec respectivement 356,7 et 403,9 milliards de dollars. Autre exemple de ce rattrapage rapide : en 2020, l’application TikTok, qui appartient à l’entreprise chinoise ByteDance, a réussi une percée fulgurante à l’international, y compris aux États-Unis, puisque 26 millions d’Américains utilisent la plate-forme. D’où la menace américaine de les interdire dans leur pays. Là aussi, l’Europe se retrouve totalement déclassée et prise en tenailles par tous ces géants de l’information étrangers : sur les dix premiers acteurs de l’informatique via le cloud, où toutes les données sont stockées, le Vieux Continent ne figure sur aucune position, les grands champions étant américains et chinois, avec notamment Amazon Web Service (AWS), qui domine 32 % du marché selon le Synergy Research Group ; Google, qui suit avec 9 % devant le chinois Alibaba (6 %), lui-même suivi par IBM Cloud, Salesforce, Tencent et Oracle. La conclusion peu reluisante pour l’UE est que 84 % du cloud européen est américain, le reste chinois... « Le Yalta des mondes digitaux » En dehors de la Chine, les autres États du monde demeureraient-ils impuissants à freiner, contrôler ou enrayer la puissance des Gafam et leurs sous-jacents idéologiques libertaires consuméristes et « antisouverainistes » portés par leurs réseaux sociaux ? Les autres puissances du monde multipolaire sont-elles capables de contrecarrer ce que les stratèges de Pékin décrivent comme le « nihilisme » hédoniste occidental, menace mortelle pour les démocratures ? En réalité, les Gafam imposent leurs postulats libertaires McWorld uniquement là où des pouvoirs politiques les laissent faire : tout comme la pornographie est totalement bannie sur le Web dans les pays musulmans et la propagande pédophile également bloquée sur le Net en Occident, la Chine, l’Iran, la Turquie ou la Russie bloquent les flux du Net qu’elles ne veulent pas voir arriver dans leur espace de souveraineté virtuel et les réseaux sociaux peuvent y être fermés à n’importe quel instant. Lorsque les États se mettent en travers de leur route, les Gafam n’ont d’autre choix que de s’aligner, car leur but est avant tout de vendre les produits publicitaires sur leurs espaces virtuels et d’attirer de nouveaux utilisateurs en permanence pour croître. La réalité crue est l’instauration d’un « Yalta des mondes digitaux » : deux univers de communication distincts sont en train de s’imposer avec, d’une part, l’univers libéral-libertaire de McWorld, propre aux démocraties occidentales, et, d’autre part, l’univers oriental des démocratures qui soumettent ces Gafam et de la Chine qui les remplace par leur propre « Big Brother » digital des BATX. L’anglais, qui était en passe de s’imposer comme langue des réseaux sociaux dans les années 2000, commence d’ailleurs à reculer sur le Web au fur et à mesure, précisément, de l’extension des réseaux sociaux venus d’autres horizons géocivilisationnels. La communication est sans doute l’élément le plus volatil de la globalisation. La conclusion est que la mondialisation communicationnelle peut échapper à son créateur occidental, et que la modernité devient de plus en plus a-occidentale. La nationalisation des moyens d’information Face aux scénarios posés par nombre d’observateurs qui craignent que les Gafam fassent barrage aux pouvoirs régaliens des États, d’autres analyses, plus cyniques encore, mais réalistes, suggèrent que les choses sont bien plus paradoxales et moins manichéennes qu’il n’y paraît. La preuve imparable que le pouvoir des Gafam est limitable par celui des États qui refusent d’abdiquer leur souveraineté est apportée chaque jour par la Chine maoïste capitaliste : l’Internet y est totalement encadré de façon drastique par un système complexe de censure dénommé « la Grande Muraille électronique » qui bloque automatiquement les réseaux sociaux Facebook et Twitter, ainsi que YouTube et Google. Les entreprises du Digital Big Brother chinois que sont Baidu, Tencent et Alibaba profitent du blocage des rivaux internationaux sur le marché chinois pour développer les réseaux sociaux domestiques comme WeChat et Weibo. Les dirigeants de ces entreprises sont eux-mêmes soumis à un contrôle strict, comme l’a illustré la disparition, pendant plusieurs semaines, de Jack Ma, patron d’Alibaba, après des propos controversés... Même en Europe, les choses sont plus complexes qu’il n’y paraît et le pouvoir des Gafam est plus le fruit du vide digital de l’UE que le résultat d’une hyperpuissance intrinsèque. Des initiatives européennes afin de concurrencer les Gafam américains ont certes pour l’instant échoué : le moteur de recherche Qwant peine à s’imposer quand le projet Galileo de GPS européen a dû se cantonner aux seules applications professionnelles. La seule initiative européenne commune concerne le projet de taxation des Gafam qui n’entravera pas pour autant leur position monopolistique en Europe et leur diffusion d’une contre-société libéral-libertaire en réalité acceptée par les social-démocraties européennes. Les acteurs français du numérique, tout comme les Israéliens – les plus en pointe –, préfèrent généralement s’appuyer sur les Gafam plutôt que les concurrencer. En revanche, dans les États plus « souverainistes », comme la Russie, la démocratie indienne, la démocrature turque, la république islamique d’Iran, les pays arabo-musulmans et d’Asie, des politiques de censure parfaitement assumées bloquent les informations et communications sur les réseaux sociaux et le Net. Et les Gafam préfèrent s’en accommoder plutôt que de risquer d’y être remplacés par les BATX chinois ou autres plates-formes non occidentales moins regardantes sur les valeurs libéral-démocratiques. Bref, les Gafam sont en fait souvent « du côté du manche », ainsi que l’élection de Biden l’a démontré à travers le bannissement subit de son ennemi Trump... Inversement, l’administration de Donald Trump, dont l’élection n’aurait pas été possible sans les réseaux des multinationales digitales, les a soutenus lorsque les concurrents économiques européens ont évoqué au sein de l’OCDE et des G20 des projets de taxation qui visaient en fait des instruments de l’empire américain McWorld. Est-ce aux réseaux sociaux de contrôler l’État ou à l’État de contrôler les réseaux sociaux ? En réalité, s’il est vrai que les entreprises digitales ont une nette préférence, comme la quasi-totalité des journalistes, des stars et du deep state américain – CIA-NSA et lobby militaro-industriel interventionniste compris – pour les démocrates américains, on observera que les Gafam ont attendu d’être certains de la défaite de Donald Trump pour supprimer ses comptes Twitter, Facebook et Instagram, et qu’au début, le Président américain le plus combattu de l’Histoire par l’establishment américain a tout de même pu arriver au pouvoir et « gouverner » à coups de messages tonitruants envoyés sur les réseaux sociaux... L’État a en réalité toujours les moyens de contrôler ces réseaux s’il dispose en son sein d’une majorité suffisante pour le faire. En contrôlant les deux chambres, Biden pourrait réaliser ce que Trump n’a pas pu obtenir. L’Europe, dans ce cas, emboîterait le pas aux États-Unis. Une méthode pour l’administration Biden serait d’imposer aux réseaux sociaux une « éthique citoyenne » et une pratique de l’autocensure au service des principaux projets de son gouvernement : lutte contre les propos haineux, mais aussi information orientée en direction de certains sujets d’intérêt global tels que la lutte contre le réchauffement, et les discriminations. Ces sujets, déjà bien intégrés dans les agendas de grandes firmes (voir le concept de responsabilité sociale des entreprises), pourraient dans ce cas être imposés à l’ensemble des agents économiques dans le cadre d’une communication institutionnelle coordonnée imposant la transition numérique aussi bien que la transition écologique et la préparation aux prochaines pandémies. En conséquence, certains États, dont la France, essaient d’instaurer un premier niveau de taxation sur le chiffre d’affaires en attendant un cadre plus structurant au sein de l’Union européenne ou de l’OCDE. L’Europe est en première ligne sur ce dossier, et des pays comme la France ont proposé de taxer les Gafam sur le chiffre d’affaires réalisé dans le pays où ils travaillent. Certes, une taxe sur le chiffre d’affaires est très différente d’un impôt sur les profits, et en matière fiscale, l’Union européenne a besoin de l’accord unanime de tous les États membres. Or certains pays qui ont tout à gagner en accueillant les Gafam – comme le Luxembourg, l’Irlande et plusieurs États d’Europe centrale et orientale 40 – ne voteront jamais une telle disposition fiscale. En ce qui concerne les États-Unis, l’administration Biden a récemment rouvert le débat de la taxe Gafam. Washington propose ainsi de créer une taxe internationale sur les géants du numérique qui reposerait sur les revenus nets. Signe fort de sa détermination à remettre les géants du digital au pas, la nomination de la juriste Lina Khan à un poste de commissaire à l’autorité américaine de la concurrence (FTC), connue pour être très critique à l’égard des positions monopolistiques des Gafam, ne trompe pas. Et les pays de l'OCDE sont en train de se mettre d'accord sur cela. Notre thèse est qu’il y a bien une reprise en main de la finance et du numérique par les États, mais qu’elle passe par un bras de fer et probablement une alliance entre les deux qui a comme préalable un « recadrage » des multinationales digitales et qui pourrait relancer la croissance. Dans la mesure où la baisse séculaire de la croissance est due à l’absence d’innovations majeures comparables à celles des première et deuxième révolutions industrielles qui ont multiplié par dix, voire par cent, la productivité grâce à l’énergie du charbon, puis du pétrole et à la mécanisation, et sachant que les énergies alternatives comme l’hydrogène, l’éolien ou le solaire sont surtout des technologies de substitution qui n’augmenteront pas très rapidement la productivité, les vrais vecteurs d’une augmentation de la productivité seront les domaines de l’information, de l’intelligence artificielle, de la blockchain, de l’ordinateur quantique et des biotechs. Ce qui leur manque, c’est une cohérence, or celle-ci passe par un modèle centralisé inhérent à l’autorité publique, qu’il s’agisse d’États, d’unions régionales d’États ou de confédérations. Bref, c’est l’État stratège et la puissance souveraine qui, si possible en coopération avec les FMN ou en les recadrant, comme l’a fait la Chine, seront les acteurs majeurs de la relance dans les années à venir, d’autant que l’État demeure, comme on l’a vu avec la crise sanitaire, le seul protecteur de la sécurité et des droits des citoyens. 1. Henry Kissinger, L’Ordre du monde, Paris, Fayard, 2016, p. 327. 2. Bertrand Badie, Un monde sans souveraineté. Les États entre ruse et responsabilité, Paris, Fayard, 1999. 3. Les firmes multinationales/transnationales sont des sociétés privées ou publiques déployées via des filiales sur au moins deux pays ou continents. 4. Classement disponible sur le site de Forbes : www.forbes.com. 5. « Les entreprises de taille intermédiaire concentrent 45 % de l’emploi sous contrôle étranger en France », Statistiques Insee, 5 novembre 2019. 6. Le TTIP en anglais, ou traité de libre-échange transatlantique, est un projet d’accord commercial entre l’UE et les EU créant une zone de libre- échange ou grand marché transatlantique (GMT). En avril 2019, le Conseil de l’UE a autorisé la Commission européenne à ouvrir de nouvelles négociations commerciales avec les EU plus limitées que le projet initial. 7. Cnuced, Rapport sur l’investissement dans le monde, 2020. 8. « Entreprises multinationales et intégrité publique : le rôle des principes directeurs de l’OCDE », communiqué de l’OCDE, mai 2002. 9. « Gafa : l’UE a perdu 5,4 mds de revenus fiscaux », Le Figaro, 14 septembre 2017. 10. « L’évitement fiscal des multinationales en France : combien et où ? », La Lettre du CEPII, juin 2019. 11. « GAFA, GAFAM ou NATU : les nouveaux maîtres du monde », La Finance pour tous, 1 er décembre 2020. 12. S. O’Dea, « U.S. Smartphone Subscriber Share by Operating Platform 2012-2020 », Statista, 25 novembre 2020. 13. Alexandre Baradez, « Google, Amazon... les Gafa sont au plus haut en Bourse, gare aux déceptions ! », Capital, 20 avril 2020. 14. Philippe Bernard, « Les Gafam défient désormais les principaux États du globe. Et ces derniers contre-attaquent », Le Monde, 24 septembre 2019. 15. « Ces incroyables profits d’Amazon pendant la pandémie », Capital, 31 juillet 2020. 16. La blockchain est une technologie de stockage et de transmission d’informations, transparente, sécurisée et fonctionnant sans organe central de contrôle. 17. Stéphane Berlot, « Les dangers d’engranger de la cryptomonnaie », Les Échos, 12 juin 2018. 18. CoinMarketCap : fournisseur de données de cryptomonnaies de référence mondial, https://coinmarketcap.com/. 19. OCDE, Manuel de sensibilisation au blanchiment de capitaux et au financement du terrorisme à l’intention des contrôleurs des impôts, Paris, OCDE, 2019. 20. CAT, Compte-rendu de la conférence internationale sur le terrorisme, op. cit 21. Sead Fadilpašić, « Le cas incroyable de Quadriga : faux comptes et millions de dollars de perdus », Cryptonews.com, 25 juin 2019. 22. Gérald Fillion, « Le risque réel des cryptomonnaies », Radio-Canada, 5 février 2019. 23. La blockchain peut permettre de tracer les vrais médicaments, identifier les faux, inscrire la propriété intellectuelle, fixer des œuvres originales (NFT), servir de registre mondial de propriété foncière, de registre d’inscription de la preuve (Afro), de jeton de téléphone mondial (Elya), de monnaie des objets connectés (Iota), utiliser l’intelligence artificielle pour engendrer une épargne automatisée (Peculium, PCL), et servir de monnaie commune aux grandes fraternités (World Masonic Coin Solidus, WMCS). 24. Kévin Comitogianni, « Le Bitcoin, une valeur refuge au Venezuela », Cryptonaute, 18 septembre 2020. 25. « La course aux cryptomonnaies d’États est lancée », The Conversation, 7 janvier 2020. 26. « Libra : l’UE fait bloc contre le projet de monnaie virtuelle de Facebook », Le Figaro, 8 novembre 2019. 27. « La BCE intensifie ses travaux sur un euro numérique », communiqué de presse de la BCE, 2 octobre 2020. 28. Gilles Babinet, « La fin de l’État-nation ? Partie 2, les méta-plateformes au service du bien commun », Institut Montaigne, 30 novembre 2018. 29. « Facebook victime d’un énorme piratage, 50 millions de comptes touchés », La Tribune, 28 septembre 2018. 30. Sam Schechner et Mark Secada, « You Give Apps Sensitive Personal Information. Then They Tell Facebook », The Wall Street Journal, 22 février 2019. 31. CAT, Compte-rendu de la conférence internationale sur le terrorisme, op. cit. Voir www.consilium.europa.eu/fr/policies/fight-against- terrorism/counter-terrorism-coordinator/. 32. En 2015, le prince saoudien Al-Walid ben Talal est devenu le deuxième actionnaire de Twitter, dépossédant le P-DG de la société Dorsey. 33. « 5G Economy to Generate $13.2 Trillion in Sales Enablement by 2035 », Qualcomm, 7 novembre 2019. 34. Source : Banque mondiale, voir site officiel de l’organisation : donnees.banquemondiale.org. 35. Créée en 1952, la National Security Agency est une des 17 agences de renseignements américaines. Elle a inauguré fin 2013 un data center à Bluffdale (Utah), le plus grand centre d’interception des communications du monde. Avec 10 000 employés et un budget annuel de 10 milliards de dollars. 36. Edward Snowden, ex-consultant de la CIA et de la NSA, a révélé que l’agence espionnait illégalement les Américains et le monde via la surveillance d’Internet, des téléphones et de tous les moyens de communication (Prism), via Facebook, Google, YouTube, Twitter, Instagram scannés par ses méga-ordinateurs. 37. Kristalina Georgieva, « Decelerating Growth Calls for Accelerating Action », 8 octobre 2019, voir site du FMI 38. Claire Jenik, « Quels pays ont banni Huawei de leur territoire ? », Statista, 20 mai 2019. 39. Tristan Gaudiaut, « Les BATX font trembler les GAFA », Statista, 12 décembre 2020. 40. Jean-Marc Sylvestre, « Les GAFA sont devenus tellement puissants qu’ils sont capables de résister à tous les pouvoirs politiques », art. cit. CHAPITRE XIII Crise sanitaire et biotech, l’Europe déclassée ? « La crise due au coronavirus est la première d’un monde postaméricain. » Thomas Gomart La crise sanitaire a touché l’ensemble de la planète. Elle a suscité des réponses nationales non concertées et encouragé les logiques nationales et souverainistes. Elle a accentué la tendance mondiale au multipolarisme puis renforcé le discrédit du multilatéralisme. La pandémie a déjà secoué l’ensemble de la politique et de l’économie mondiales après être sortie de son berceau sino-asiatique. Peu d’événements ont bouleversé le fonctionnement global du monde comme l’a fait cette crise. De plus, la propagation de la Covid a provoqué un électrochoc dans les circuits de la mondialisation avec le ralentissement du commerce international, l’effondrement des économies, la prise de conscience des trop fortes interdépendances créées par la globalisation et le déclassement des économies industrielles occidentales par l’usine du monde chinoise. La pandémie planétaire a eu et continuera d’avoir pendant des années des conséquences géopolitiques majeures. Certains disent qu’il y aura un avant- et un après-Covid-19. En réalité, du point de vue des rapports de force géopolitiques et économiques mondiaux, la crise sanitaire n’aura fait qu’accentuer les grandes tendances observables depuis deux décennies. Elle a été à l’égard de la multipolarisation en cours, à la fois un test et un révélateur pour les nations et les institutions : la Chine « total-capitaliste » (Baverez), sortie vainqueur du fléau sanitaire, qu’elle aurait pourtant transmis à l’humanité – faute d’avoir averti ses partenaires et d’avoir respecté les normes de sécurité des laboratoires P4 de Wuhan 1 –, poursuit sa marche vers l’hyperpuissance. Le multilatéralisme est plus en crise que jamais, et pas seulement l’OMS ou les Nations unies. La Russie et l’Amérique (puis l’Otan) sont toujours à couteaux tirés, les États-Unis et la Chine en marche vers une guerre froide du troisième type. Ils s’accusent mutuellement d’avoir créé ou laissé s’échapper le coronavirus, dans le cadre de ce que des experts ont qualifié d’expériences de modifications de virus en vue de recherches sur les vaccins ou même sur les armes biologiques. Toujours est-il que les puissances émergentes d’Asie ont démontré une supériorité en matière de gestion de la crise, d’efficacité technologique et organisationnelle. Elles continuent d’être l’épicentre de la nouvelle « économie- monde », pendant que l’Occident – réputé à la pointe du progrès et de la bonne gouvernance, mais zone la plus touchée au monde par le virus – poursuit (Europe en tête) son décrochage économique, technologique et géopolitique. Les sommets du G7 et de l’Otan de juin 2021 ont semblé annoncer une reprise en main occidentale et une volonté de relever le défi chinois, clairement désigné par Joe Biden, mais l’avancée industrielle chinoise est difficilement conjurable. La gestion bien plus rapide et efficace de la crise sanitaire par les puissances industrielles et technologiques asiatiques a poussé certains à conclure que l’Occident – surtout la vieille Europe – risquait de plus en plus d’être déclassé, tant du point de vue économique que technologique et scientifique, par les pays de tradition néo-confucéenne holistique, et donc pas seulement par la Chine dictatoriale. L’Asie confucéo-taoïste et industrielle a démontré qu’elle a été plus à même que les démocraties libérales occidentales de faire face à des crises imprévisibles comme la pandémie de la Covid-19. La plus grande propension de ses élites à mener des politiques d’anticipation comme des stratégies de long terme a donné des leçons de vertu et de responsabilité aux démocraties de l’Union européennes engluées dans leurs agendas électoralistes de court terme, paralysées par leurs lourdeurs bureaucratiques et inhibées par leurs états d’âme droits-de-l’hommistes et leur individualisme forcené qui confine parfois à l’anarchie au détriment de l’intérêt général et national. En effet, les pays de l’UE, dont les trois sacro-saintes libertés fondatrices sont celles de la circulation des biens, des personnes et des capitaux, ont été les derniers États à fermer leurs frontières, et ils ont été encore plus lourdement contaminés que l’Inde, les États-Unis et le Brésil, en proportion, faute d’avoir osé rompre leur dogme de « l’ouverture » à la mondialisation, à l’évidence pourtant pas toujours « heureuse ». Inversement, l’Asie « holiste », qui fait primer le groupe sur l’individu et l’efficacité sur la liberté, a été bien plus réactive, bien plus efficacement et plus rapidement que les démocraties libérales occidentales. En Occident, les pays anglo-saxons, qui se sont relevé plus vite que l’Europe de la crise, ont fermé leurs frontières et ont, à la différence de l’Union européenne, privilégié leurs nationaux et vacciné ces derniers de façon bien plus rapide que les pays de l’UE : au moment où ce livre était terminé, le 8 juillet 2021, en France 35 millions de personnes avaient été primo-vaccinées (52,75 %) et 26,35 millions avaient reçu toutes les doses (39,33 %). Des pourcentages similaires à l’Allemagne, l’Espagne, l’Italie, etc. À la même date, le Royaume-Uni comptait 45,6 millions de primo-vaccinés (68,4 %), et 34,2 millions de pleinement vaccinés (51,3 %). L’un des pires élèves de l’Union a été sans surprise la Bulgarie, avec 14,2 % de primo-vaccinés et 12 %... Ce retard des pays de l’UE (excepté les pays scandinaves) par rapport aux voisins brexiteurs s’explique notamment par les lenteurs inhérentes à la bureaucratie bruxelloise et aux prises de décisions à 27 : l’Union a ainsi perdu un mois pour autoriser les vaccins, début janvier 2021, puis un autre à cause d’une désorganisation massive dans la distribution. Le système britannique peu bureaucratique a été en fait bien plus efficace que l’UE pour accorder les autorisations, s’approvisionner en vaccin et déployer rapidement les centres. D’autres pays anglo-saxons comme la Nouvelle-Zélande, qui ressort presque indemne de la crise, avec 11 morts seulement, ou l’Australie, également très peu touchée par la pandémie, l’ont bien mieux combattue que les États providences et ouverts de l’UE : outre leur moindre intégration à la mondialisation et leur éloignement des autres continents développés, leur recette a été la même que les pays nationalistes d’Asie : fermeture des frontières ; isolation drastique des clusters dès le départ, fermeture des aéroports à tous les non-vaccinés. Une recette qu’un seul pays européen, de tradition politique anglaise, Malte, a appliquée (en plus de ses 68 % de pleinement vaccinés). A contrario, l’Europe altruiste, qui avait fourni une partie de ses stocks de masques à la Chine au début de la crise et qui a refusé tant qu’elle a pu de fermer ses frontières par dogme mondialisant, a payé le plus lourd tribut au niveau mondial. État des lieux et chiffres Selon le Congressional Research Service (CRS 2 ), et d’après des études de la fondation Bill Gates, qui travaille étroitement avec l’OMS sur la gestion des pandémies, le coût de la crise due à la Covid-19 pour le monde entier était estimé au moment de la rédaction de cet ouvrage à 30 000 milliards de dollars et 120 millions de pertes d’emploi 3 . Pour le cofondateur de Microsoft, qui avait d’ailleurs averti dès 2015 quant au risque de pandémie mondiale, ce chiffre colossal aurait été bien moindre si les gouvernements avaient anticipé de façon plus responsable. Le milliardaire préconise depuis des années de créer une « force de réaction rapide » de 3 000 professionnels répartis dans le monde, des « pompiers de la pandémie » en alerte en permanence et capables de répondre dans l’urgence à une nouvelle crise sanitaire et de l’éteindre à son début. Il appelle à se préparer aux prochaines pandémies, comme on se prépare à une guerre, ce qui implique d’investir des dizaines de milliards de dollars chaque année afin de « sauver des milliers d’autres milliards » comme on vient de le faire, faute d’avoir pris les mesures nécessaires. « Nous ne pouvons pas nous permettre d’être à nouveau pris au dépourvu. La menace de la prochaine pandémie pendra toujours au-dessus de nos têtes – à moins que le monde ne prenne les mesures pour l’empêcher [...]. Je pense que c’est la meilleure et la plus rentable des polices d’assurance que le monde puisse se payer 4 . » Diabolisé par les complotistes de tout bord, notamment en raison de ses positions provaccins, Bill Gates avait toutefois émis le même diagnostic que celui des services de renseignements américains et français entre 2005 et 2009. Comme pour les maints autres avertissements concernant l’islamisme, l’immigration, le terrorisme ou les mafias transnationales, les services de sécurité n’ont une fois de plus pas été écoutés par les élites politiques dont les décisions sont motivées en premier lieu par les lobbys financiers, les conseils en « Com », et les émotions portées par les médias jugées électoralement utiles... La crise de la Covid-19, vite devenue « 21 », avec ses moult variants, a mis à jour les manques de solidarité dans l’ensemble du monde et l’impréparation des dirigeants des pays les plus avancés, notamment en Occident. En dépit des très nombreux accords internationaux, de règles communes dans le domaine sanitaire, et du rôle supposé responsable d’institutions comme l’OMS, la coopération a été plus que mauvaise entre les États qui ont globalement adopté des logiques strictement nationales et tenté chacun de son côté d’accumuler médicaments et masques, parfois par des moyens peu déontologiques. L’Occident – Europe en tête – a abandonné sa souveraineté en matière de médicaments en conséquence des nombreuses délocalisations au profit de la Chine, devenue aujourd’hui le producteur de plus de 80 % des principes actifs, l’Union européenne étant presque totalement dépendante des productions chinoises ou indiennes. Il en va de même pour les masques : la Chine détient plus de la moitié de la capacité de production mondiale, avec plus de 200 milliards d’unités exportées en 2020 ! Le dirigeant chinois Xi Jinping a ainsi exploité au maximum la « diplomatie des masques » pour démontrer son poids géopolitique au niveau mondial avec une capacité de production supérieure à n’importe quel autre pays. La Chine possède également trois vaccins et en est le premier producteur, avec 33 % de la production mondiale devant les États-Unis (27 %). Elle les exporte dans de nombreux pays d’Afrique, d’Asie, du Moyen-Orient ou d’Amérique latine. Certains ont rétorqué que les vaccins chinois sont peu efficaces, que l’OMS a mis du temps à les valider, mais personne ne dispose du recul nécessaire pour affirmer qu’ils ont été moins protecteurs que les équivalents occidentaux, d’autant que si les sérums chinois ne semblent efficaces qu’à 50 % contre les nouveaux variants de la Covid-19, ils protègent apparemment à 100 % contre les formes graves. Toujours est-il que la Chine s’est relevée de la crise sanitaire plus efficacement et plus rapidement que tous les pays occidentaux. Et la plus grande efficacité des vaccins de l’industrie Big Pharma occidentale à virus actifs ou à ARN, quant à eux hâtivement homologués par les gouvernements, n’a pas plus été démontrée que ne l’a été l’infériorité supposée des équivalents russes comme Spoutnik ou chinois, comme Sinovac. On a également assisté à une guerre des représentations entre les États-Unis et la Chine, chacune des deux superpuissances accusant l’autre d’être à l’origine de la pandémie, ce qui n’a fait qu’intensifier la guerre commerciale les opposant depuis 2017. Alors que Trump conspuait la Chine communiste, non sans arrière-pensées électorales, Xi Jinping tentait de limiter au maximum la transmission d’informations sur le virus aux partenaires étrangers, cachant même durant plusieurs mois au monde l’ampleur de la menace, ce qui a réduit la préparation des autres pays dans leur gestion de la crise. La rivalité stratégique et géoéconomique sino-américaine croissante a ainsi primé sur un sujet pourtant vital qu’est la santé publique des citoyens des pays du monde entier. De la même manière, la rivalité russo-occidentale a considérablement nui à l’intérêt des citoyens européens. Ces derniers n’ont en effet pas pu s’approvisionner en vaccins assez vite mais, malgré cela, l’Union européenne a refusé d’homologuer le vaccin russe Spoutnik, par logique atlantiste, certes, mais également en raison de la toute- puissance des laboratoires pharmaceutiques mondialisés – principalement anglo-saxons. Rappelons que le marché pharmaceutique mondial, dont les acteurs essentiels sont américains – même s’ils produisent et sous-traitent massivement en Inde et en Chine –, asiatiques, et, dans une moindre mesure, en Europe, représente environ 1 100 milliards d’euros de chiffre d’affaires et que ses dix premières entreprises comptent plus de 800 000 salariés. Les cinq premiers groupes, Johnson & Johnson, Roche, Pfizer, Bayer et Novartis, représentent un quart du marché à eux seuls. Le degré de concentration de ce secteur est illustré par le fait que seule une vingtaine d’entreprises dépasse les 10 milliards de chiffre d’affaires. Par ailleurs, et sans tomber dans les théories conspirationnistes, on peut supposer que le fait que ces firmes aient obtenu une autorisation provisoire de vaccination de masse tant que des traitements ne sont pas disponibles ne les a pas incités à privilégier la commercialisation des médicaments antiviraux, souvent issus de produits déjà existants et donc moins coûteux que les vaccins. Selon certains, les conflits d’intérêts des mondes médical et politique expliqueraient pourquoi les dirigeants occidentaux ont privilégié la piste des vaccins et interdit aux médecins de soigner (décision sans précédent) avec des traitements classiques 5 . On soulignera également l’étonnant refus des instances européennes d’appuyer le projet de vaccin de la start-up biotech française Valneva, qui siège à Nantes, associée à un labo autrichien. Son sérum à spectre large promettait pourtant d’être au moins aussi efficace que ceux de Pfizer, Moderna, AstraZeneca, car capable de stimuler les défenses immunitaires face aux nouveaux variants avec un virus désactivé, mais moins dangereux que les nouveaux vaccins de Big Pharma à virus actif ou à ARN. Ces derniers nécessiteront d’ailleurs des rappels perpétuels au gré des « variants » et leurs effets sur la santé à long terme sont encore méconnus. Initialement bloqué par l’Union – soumise aux pressions des grandes multinationales pharmaceutiques, Valneva s’est donc tournée vers le gouvernement britannique brexiteur – donc pleinement souverain – qui a appuyé les essais cliniques de l’entreprise française et la construction d’une de ses usines en Écosse pour fabriquer son sérum prometteur en masse, que les Français auront donc bien après les Britanniques ! La gestion de la pandémie a rappelé que la mondialisation marchande, même médicale, est d’abord un théâtre de guerre économique et de rivalités, et que les logiques nationales sont souvent plus efficaces que celles du multilatéralisme ou du supranationalisme (OMS, ONU, UE). Pour ce qui est de la limitation de l’expansion du virus, le souverainisme semble avoir été plus efficace que le sans-frontiérisme européen, et à cet égard, les puissances asiatiques s’en sont sorties beaucoup mieux. Le leader chinois, Xi Jinping, soutenu par l’OMS, et qui a facilité l’élection du directeur général, l’Éthiopien Tedros Adhanom Ghebreyesus, pour certains à la solde de Pékin, en a ainsi profité pour glorifier les « capacités extraordinaires » du Parti communiste chinois et de sa nation, « la seule » capable de gagner la guerre contre le virus, contrairement aux démocraties occidentales engluées dans leurs fractures politiciennes internes. Force est de reconnaître que le système chinois a été capable de réagir très vite et très fort, que ce soit sur le sanitaire comme sur la relance, en remettant tout le monde au travail et en déconfinant plus tôt et plus sûrement. Les pays industrialisés et démocratiques d’Asie, non moins souverainistes, comme la Corée du Sud, Taiwan ou le Japon, ont également été bien plus réactifs que les démocraties occidentales. Certains ont pu ainsi voir dans l’éthique du confucianisme le fondement d’un modèle de société hautement hiérarchisé (discipline, sens du devoir, piété filiale, respect des personnes âgées, humilité) qui continue aujourd’hui de façonner les habitants de Hong Kong, de Taiwan, de Singapour, de la Corée du Sud, du Japon, voire du Viêtnam, et qui pourrait relever les défis modernes évoqués par Bill Gates et les services de renseignements mais que les démocraties libérales devenues libertaires semblent peu à même de régler, faute de discipline, de sens commun et d’autorité... Ces pays de l’ère taoïste-confucéenne et shintoïste ont démontré une incontestable aptitude à la discipline en temps de crise et à la « technologie civique » dans la guerre sanitaire que les peuples du monde entier ont fini par envier. La crise économique est une crise sanitaire D’après les estimations actuelles, le monde traverse la crise économique la plus lourde de l’Histoire. Le PIB mondial a ainsi baissé de 3,2 % en 2020. Les hausses de chômage sont massives dans certains pays : près de 25 % d’augmentation en France, ce qui a propulsé le taux de chômage à plus de 11 %. À la fin de l’année 2020, il y avait près de 600 000 emplois salariés de moins qu’à la fin de l’année précédente 6 . La flambée a été de 50 % au Portugal, le taux de chômage y passant de 6 à 9 %. Le taux de chômage mondial a certes fortement baissé au deuxième trimestre. Mais avec la fin du confinement et la reprise d’un comportement habituel de recherche d’emploi, il a augmenté de 1,9 point au troisième trimestre, passant ainsi à 9 %. Et les phénomènes de « quatrième vague » ou de nouveaux « variants » – brésilien (Gamma), sud-africain (Bêta), britannique (Alpha), indien (Delta), ou encore Lambda, Epsilon –, couplés avec la lenteur de la vaccination de masse au niveau mondial et les incertitudes sur son efficacité, rendent l’avenir moins prometteur que ce que l’on a pensé en juin 2020 lorsque certains, notamment le Pr Raoult, affirmaient que le virus était en train de disparaître... D’autant que les vaccins, par ailleurs pas aussi fiables que prévus face aux variants, ne sont devenus massifs que dans les pays développés, ce qui permet au virus de progresser et muter indéfiniment ailleurs. La Covid a provoqué une nouvelle poussée de la pauvreté, comme en Inde, où elle a explosé dans les zones rurales. L’économie indienne, déjà en ralentissement depuis 2017, a été très sévèrement touchée, de sorte que son retard vis-à-vis de son rival et ennemi chinois s’est accentué. La crise sanitaire a mis au chômage 120 millions de personnes et a jeté sur les routes la moitié des 40 millions de travailleurs migrants internes qui ont quitté les centres urbains 7 et ont ainsi contribué à répandre le virus dans les campagnes. Selon les Nations unies, 260 millions d’Indiens pourraient retomber dans la pauvreté (soit quasiment autant que les 271 millions qui en étaient sortis entre 2006 et 2016). Ce retour en arrière pose au pays des défis considérables, en particulier au niveau de la malnutrition. Depuis longtemps, la recherche académique a tenté de quantifier les liens qui existent entre crise économique et conséquences sanitaires. Une étude publiée en 2016 dans la revue Current Epidemiology Reports expliquait que la crise de 2008 avait eu de nombreuses conséquences sanitaires en Europe : augmentation des suicides, baisse de la santé générale perçue, hausse de la mortalité, baisse de la fertilité... D’autres études ont démontré le lien entre la pauvreté (et sa hausse en cas de crise) et les risques de développer un cancer. Une étude publiée dans The Lancet a stipulé que la crise économique de 2008, en fragilisant les systèmes de santé, avait augmenté à près de 260 000 le nombre de morts du cancer dans le monde 8 . Et les conséquences indirectes de la crise sanitaire liée à la Covid pourraient être encore plus douloureuses. Indicateur significatif : le Secours populaire a enregistré une hausse de 45 % de sa fréquentation en 2020. Dès le 23 mars 2020, Santé publique France a lancé l’enquête CoviPrev auprès de 2 000 personnes, afin de suivre leur état psychologique et l’évolution de leurs comportements dans un contexte inédit. Après une semaine de confinement, l’anxiété touchait 26,7 % des personnes interrogées, contre 13,5 % en 2017. Au 1 er avril, la prévalence de la dépression atteignait 19,9 %, soit le double d’une moyenne de près de 10 %. Et jeudi 19 novembre, le ministre de la Santé a révélé que le numéro d’aide mis en place sur ces questions (le 08 00 13 00 00), géré par des associations, recevait « près de 20 000 appels par jour ». Au niveau mondial, l’ONU s’attend à ce que 71 millions de personnes rechutent dans l’extrême pauvreté en 2021, soit la première augmentation dans le monde depuis 1998. Le Dr Andreea Stoian Karadeli, chercheur à l’université de South Wales et au Centre de politique de sécurité de Genève (GCSP), a fait valoir que le manque de confiance et la peur causés par le coronavirus sont pires que le virus lui-même. Cette conscience des effets de la peur est chère aux groupes djihadistes comme l’EI qui ont théorisé l’idée que l’ennemi devait être frappé sur le terrain psychologique en faisant tout pour « jeter l’effroi dans le cœur des mécréants ». Les grandes catégories d’extrémistes – djihadistes, sectes, extrême droite et extrême gauche – ont d’ailleurs tenté de profiter de ce moment pour réactiver les vieilles théories conspirationnistes qui ont prospéré sur les réseaux sociaux au-delà même des sphères « extrémistes » (« démocratisation des thèses complotistes »). Daesh, Al-Qaïda et maintes sectes fanatiques ont présenté le virus comme « une punition de Dieu contre les infidèles ». Des groupes radicaux ont ciblé les Asiatiques, accusés d’être la cause du virus, ainsi que les juifs, qui sont toujours une cible. Les milieux révolutionnaires d’extrême gauche ou anarchistes ont blâmé le système capitaliste et affirmé que le confinement serait le fruit d’un complot gouvernemental visant à priver les gens de leurs libertés, appelant ainsi à attaquer les symboles capitalistes. Géopolitique de la Covid-19 L’échelle de cette crise est si importante que les vaccins sont devenus des facteurs géopolitiques qui définissent les rapports de force entre pays et qui permettent de projeter la puissance souveraine à l’international. Le meilleur exemple a été offert par la Russie de Poutine qui a su instrumentaliser des livraisons de Spoutnik un peu partout dans les pays du Sud et même dans certains d’Europe, dans le but d’améliorer son image (soft power) auprès des élites et des populations. Moscou a privilégié cette action d’influence à l’international à la livraison massive de vaccins à ses citoyens, le but étant de renforcer son soft power dans sa sphère d’influence (Kazakhstan, Kirghizistan, Caucase) et de l’élargir en Amérique latine et au Moyen-Orient. La Chine a adopté une stratégie similaire en exportant ses vaccins (laboratoires Sinovac et Sinopharm, fondés sur une méthode classique à virus désactivé) dans des dizaines de pays, notamment africains – jusqu’à les offrir 9 parfois – mais aussi au Moyen-Orient, particulièrement aux Émirats arabes unis, qui produisent directement sur leur territoire le vaccin chinois Sinopharm. L’Union européenne s’est quant à elle résolument opposée au vaccin russe Spoutnik, privilégiant les fabricants américains ou européens, bien que certains pays européens aient plaidé pour l’introduction rapide des vaccins russes, comme l’Italie ou l’Allemagne. Imitant les responsables de l’UE, l’Ukraine a rejeté le vaccin russe par pur choix idéologique et stratégique, préférant ceux américains ou européens, au détriment des prix plus bas et des intérêts des citoyens/malades eux-mêmes. Toutes les économies et les gouvernements du monde ont été touchés par la crise sanitaire, et ces derniers y ont presque tous répondu par un important soutien budgétaire. En raison des divers plans de relance et de sauvetage des entreprises, la récession provoquée par la pandémie a propulsé la dette mondiale en pourcentage du PIB à un nouveau record de 355 % début 2021, contre 320 % fin 2019. À la suite de l’introduction de mesures de confinement dans le monde depuis mars 2020, le PIB dans la zone OCDE a diminué brutalement de 9,8 % fin 2020, la plus forte baisse jamais enregistrée, nettement supérieure au 2,3 % du premier trimestre 2009, en pleine crise financière 10 . Au Royaume-Uni, le PIB a chuté de 9,8 % sur l’année 2020, tandis qu’en France, la chute a atteint 8,3 %. Les campagnes de vaccination, les politiques de santé et le soutien financier des gouvernements étaient censées, fin 2020, faire augmenter le PIB mondial de 4,2 % en 2021, après une baisse de 4,2 %. La reprise aurait été plus forte si les vaccins avaient déployé rapidement. Les retards dans le déploiement de la vaccination, les difficultés à contrôler les nouveaux foyers du virus, les deuxième, troisième vagues, et autres « nouvelles » mutations du virus ont vite affaibli les perspectives. Le rebond s’est certes confirmé en 2021, mais il a été bien plus fort dans les pays asiatiques qui ont mieux maîtrisé le virus. Quant à la Chine, elle « a mis en œuvre des mesures efficaces lui permettant de connaître un rebond important et surtout durable, le pays aura été le seul à connaître une croissance positive dès 2020 11 ». En ce qui concerne l’Afrique, dans la première phase, elle a été peu touchée par la pandémie. Certains pays africains, comme le Sénégal, l’Afrique du Sud et le Kenya, seront probablement en mesure de faire face à la grave urgence sanitaire. Mais d’autres, comme la Tanzanie, le Mozambique, l’Ouganda, la République démocratique du Congo ou l’Éthiopie, sont particulièrement à risque, tandis que certains États comme la République centrafricaine, la Somalie ou le Soudan du Sud n’ont aucune chance de réagir à une propagation généralisée du virus. Au Maghreb, dix ans après les printemps arabes, les espoirs de transition démocratique portés sur le pays de la révolution du Jasmin, la Tunisie, seul pays arabe qui avait réussi une réelle transition démocratique, risquent d’être balayés par la crise sanitaire. Le pays est sur le point de faire faillite, comme le Liban, et la récession de –8,5 %, couplée au chômage sidéral, à l’opposition entre islamistes et nationalistes, à la faillite du système de santé et à la ruine des finances publiques, risquent de plonger le pays dans le chaos. Les pays producteurs de pétrole ont également été touchés car affectés par la volatilité des prix et variations des marchés. Une économie hydrocarburière comme l’Algérie, pénalisée depuis des années par un prix du baril de pétrole très bas, et qui importe massivement, risque de fortes pénuries. Les monarchies du Golfe et les pays pétroliers d’Afrique ont à leur tour investi très peu dans le secteur de la santé. Dans de nombreux cas – Libye (bombe à retardement compte tenu de la porosité de ses frontières), Syrie (militaires infectés d’Iran et du Pakistan), Yémen (déjà à genoux en raison de la pire catastrophe humanitaire de la planète), on constate un chevauchement géopolitique entre les situations préexistantes (conflits et crises de diverses natures), les effets du virus, les conflits armés en cours et l’urgence virale. L’Inde a quant à elle été touchée d’une manière particulièrement préoccupante en mai 2021 avec 412 000 nouveaux cas en vingt-quatre heures (moyenne de 350 000 à 400 000) et près de 4 000 décès journaliers. À l’opposé de la Chine confucéo-maoïste, l’Inde démocratique, fédérale et ouverte a été incapable de maîtriser la situation par manque de moyens (soins intensifs, oxygène...), et surtout faute d’être dotée d’un système politique suffisamment autoritaire et centralisé pour contrôler la société et une population de 1,4 milliard d’habitants. En Europe, l’Espagne et l’Italie, par exemple, qui sont plus dépendantes du tourisme de masse, ont été plus touchées par la crise que les pays d’Europe du Nord. D’une manière générale, la crise due à la Covid-19 a provoqué une chute spectaculaire des investissements directs à l’étranger (IDE). D’après les chiffres de l’ONU, les investissements directs étrangers dans le monde ont chuté de 42 % en 2020 12 et sont par conséquent passés sous la barre des 1 000 milliards de dollars (environ 850 milliards) pour la première fois depuis 2005. La baisse s’est concentrée dans les pays développés, où les IDE ont chuté de près de 70 % pour s’établir à environ 229 milliards de dollars. La situation est encore plus préoccupante pour les pays en développement, la pandémie ayant entraîné une prudence accentuée des investisseurs. Les pays dépendants de ces investissements ont donc subi une forte baisse des entrées de capitaux. En Afrique, les IDE sont passés de 46 à 38 milliards de dollars, et la baisse des projets sur site vierge dans les pays en développement atteint 46 % et 63 % pour les pays africains. Ces régions sont plus vulnérables parce qu’elles dépendent davantage des investissements et qu’elles ne peuvent pas mettre en place les mêmes mesures de soutien économique que les pays développés. En revanche, les pays asiatiques sont ceux qui ont le mieux résisté, avec une baisse des IDE de seulement 4 %. Au niveau global, l’économie mondiale a reculé de 3,3 % en 2020 13 avec plus de 10 000 milliards de dollars de pertes, selon les estimations du Fonds monétaire international, en raison du confinement et des mesures de restrictions sanitaires dues à la pandémie. Le ralentissement causé par la pandémie n’a fait qu’accentuer un mouvement de croissance négative ou nul initié depuis des années et il a donc aggravé une tendance baissière déjà ancienne. Les flux mondiaux d’IDE vont rester assez faibles en 2021, et les Nations unies prévoient une nouvelle baisse de 5 à 10 % par rapport à l’année écoulée, annonçant la vraie reprise pour seulement 2022, sous l’effet de la restructuration des chaînes de valeur mondiales en faveur d’une plus grande résilience, de la reconstitution du stock de capital et du redressement de l’économie mondiale. Mais tout dépendra de la résolution définitive de la crise sanitaire... En ce qui concerne la croissance du PIB, les dernières estimations du FMI confirment là aussi des inégalités avec, sans surprise, la Chine en tête, cette dernière ayant déjà retrouvé une croissance fin 2020 de 8 %, suivie par les États-Unis (6,4 %, soit une révision à la hausse de 1,3 point par rapport à janvier 2020 due aux plans de relance de Joe Biden), et de la zone euro qui pourrait connaître un rebond de 5,8 %, estimation elle aussi revue à la hausse en raison des retombées bénéfiques pour la zone UE du plan de relance américain. Mais rien de cela n’est certain. L’endettement colossal et le spectre d’une banqueroute de l’économie mondialisée Pour faire face à la pandémie, nombre de pays, notamment industrialisés, ont lancé des plans d’aides massives en vue d’amortir la récession subite. En avril 2020, l’Union européenne a ainsi lancé un vaste plan d’urgence de 540 milliards d’euros. Deux autres instruments de relance ont été adoptés par la suite : un budget 2021-2027 de 1 075 milliards d’euros et un plan de relance de 750 milliards d’euros, réévalué en avril 2021 à 806 milliards d’ici à 2026. Les banques centrales ont donc inondé les marchés pendant que les gouvernements ont renfloué les entreprises fragilisées par la crise, ceci au moyen d’emprunts et donc d’endettements supplémentaires devenus surréalistes. La BCE a joué bien évidemment un rôle clé en rachetant massivement les dettes émises par les gouvernements européens pour rassurer les marchés financiers et permettre aux États de s’endetter à bas coût. Son programme d’urgence face à la pandémie (PEPP), lancé en mars 2021, a atteint le montant astronomique de 1 850 milliards d’euros. Le plan de relance américain a quant à lui mobilisé, tout d’abord sous Donald Trump, à partir de mars 2020, 2 200 milliards de dollars (10 % du PIB), auxquels s’ajoutent 900 milliards adoptés en décembre 2020. Le nouveau Président américain, Joe Biden, a ajouté trois plans de relance supplémentaires : le premier de 1 900 milliards de dollars, adopté en mars 2021 par le Congrès et destiné à stimuler la reprise économique par l’aide aux personnes les plus modestes, l’accélération des vaccins, puis l’aide aux autres secteurs touchés par la crise, financé en grande partie par la dette. Le deuxième plan, destiné aux infrastructures (2 250 milliards de dollars sur huit ans), vise à rénover le secteur des transports, de l’industrie et de la transition énergétique. La mesure phare de ce financement est l’impôt sur les sociétés que Biden, à l’inverse de l’administration Trump, veut augmenter à 28 % contre 21 actuellement, provoquant ainsi l’opposition des républicains et des entreprises concernées. Le dernier plan prévu (1 800 milliards), dédié à l’éducation et l’aide aux familles, devrait être financé par une hausse d’impôt pour les ménages les plus riches. Les deux derniers plans n’ont pas encore été approuvés au moment de la rédaction du livre. Au total, 6 000 milliards de dollars de dépenses ont été annoncées, soit l’équivalent du PIB de la France, de l’Italie et de l’Espagne réunies ! Tous ces plans de relance au niveau mondial n’ont fait que rendre encore plus grave un fléau déjà ancien qui promet de punir les générations à venir : l’endettement endémique qui menace, à terme, le système capitaliste mondial mis en place par les Occidentaux. Depuis les années 2000, en effet, les plus grandes instances internationales, dont la Banque des règlements internationaux (BRI) et l’Institute of International Finance (l’IIF), tirent la sonnette d’alarme sur la situation de la dette mondiale (États, entreprises et ménages réunis), qui, d’après l’IIF, a atteint 281 000 milliards de dollars fin 2020 14 , soit 355 % du PIB mondial ! Pour les seules années 2020 et 2021, le chiffre avancé est de 65 000 milliards de dollars. Et les plans de relance ont accentué un phénomène préexistant : les banques centrales détiennent des parts de plus en plus importantes de dettes souveraines. Le spectre du surendettement est rendu certain par l’augmentation exponentielle des dépenses liées au traitement de la pandémie. À ce rythme, l’IIF évalue l’endettement mondial global à 360 000 milliards de dollars d’ici 2030. Il existe par conséquent une grande incertitude sur la façon dont l’économie mondiale va pouvoir se désendetter dans l’avenir sans conséquences socio-économiques dramatiques pour les populations (austérité). L’endettement asphyxie bien évidemment en premier lieu les pays les plus pauvres. Certains ont déjà déclaré un défaut de paiement (Liban, Venezuela) ou sont sur le point de le faire (Tunisie). La dette du Venezuela et du Liban a déjà atteint 77 700 milliards de dollars en 2020 (contre 55 000 milliards en 2018 15 ), selon l’IIF. Les pays développés sont toutefois à l’origine de la moitié de la progression de l’endettement mondial. La dette publique américaine s’élève ainsi à 23 000 milliards de dollars 16 en 2021, soit 102,3 % du PIB, taux qui va encore augmenter avec les trois plans de relance voulus par Joe Biden (pas encore tous approuvés à la rédaction de l’ouvrage). La dette des firmes américaines a quant à elle littéralement explosé depuis la crise de 2008, pour atteindre 10 600 milliards de dollars 17 , soit la moitié du PIB américain... Concernant la dette totale de la Chine, curieusement rarement évoquée, elle a atteint 40 000 milliards de dollars en 2021, soit 15 % de l’endettement total de la planète, et 335 % du PIB chinois 18 ! Il est certes vrai que le souverainisme chinois couplé à ses excédents commerciaux et à la dépendance du monde industriel vis-à-vis d’elle la prémunissent contre un scénario de banqueroute. Tel n’est toutefois par le cas de la zone euro, dont la dette publique a grimpé en flèche (+1 240 milliards d’euros) en raison des mesures financières pour soutenir l’économie touchée par la pandémie, atteignant ainsi 11 100 milliards d’euros, soit 98 % du PIB, contre 83,9 % en 2019 19 . Par ailleurs, l’augmentation des indicateurs de stress de liquidité du marché des obligations annonce des turbulences sur les marchés mondiaux et une hausse des taux d’intérêt à venir. La conséquence d’une dette élevée et croissante est de réduire l’épargne, d’augmenter les intérêts de cette même dette, de limiter la capacité des décideurs à réagir à des événements imprévus, et d’accroître la probabilité d’une crise financière majeure. Face à cet endettement mondial sans précédent, aucun consensus n’existe parmi les économistes et les gouvernements nationaux quant au montant maximal de dette publique soutenable, pas plus que sur le moment à partir duquel cette dette va inévitablement saper à son tour la croissance du PIB. Dans son rapport paru en avril 2020, le FMI a averti qu’une augmentation des restructurations de dettes et des défauts sera inévitable dans les pays les plus fragiles et que le surendettement des entreprises non financières et des ménages est également extrêmement alarmant, le pire scénario étant une banqueroute générale du système capitaliste libéral. Les mesures d’endettement mises en place pour faire face à la crise sanitaire représentent donc un risque majeur, d’autant que de nombreux autres signaux sont préoccupants pour la stabilité financière mondiale, que ce soit l’hyperinterventionnisme des banques centrales, le niveau élevé des indices boursiers, la volatilité des actifs, le risque d’éclatement des bulles immobilières et boursières, ou encore l’endettement des sociétés non financières. S’ajoute à cela la guerre commerciale sino-américaine qui n’augure rien de bon pour l’économie et la stabilisation des marchés et pour le multilatéralisme... La France et l’Europe au bord de la faillite ? En juillet 2021, la dette publique française s’établissait à 2 700 milliards d’euros, soit 177 % du PIB 20 . D’après un scénario émis par le rapport Arthuis 21 , avec 10 % de déficit, et sur la base d’une croissance économique à 1,5 % en moyenne, l’endettement de la France devrait ainsi s’élever à 128 % du PIB d’ici 2030, certes à politique inchangée. Il est vrai que Paris connaît un déficit annuel depuis... 1974, et à partir de cette date, même les meilleures années se sont terminées par des déficits. La France était déjà parmi les mauvais élèves de l’Europe bien avant la pandémie, mais elle a aggravé son cas en mettant sur la table des centaines de milliards d’aides publiques afin de renflouer les entreprises les plus touchées par la crise. En font partie aussi les interventions directes en capital pour les entreprises en difficulté, ainsi que les dispositifs de garanties en faveur des prêts bancaires aux entreprises et de l’assurance-crédit, soit un total d’intervention d’environ 470 milliards d’euros. Comme l’a expliqué Marc Touati : « En 2020, pour la première fois de son histoire, la France est devenue le premier contributeur de la dette publique de l’ensemble de la zone euro. La part de la dette publique française dans cette dernière est désormais de 24,1 %, contre 23,1 % 22 . » Or la croissance diminue en parallèle de l’augmentation de la dette... L’économie française va donc mal, le chômage augmente (le secteur des services s’est effondré avec les confinements), comme la précarité, avec le risque de crises sociales, ethnocommunautaires et donc de violences en zones sensibles. Dans les pays où les systèmes de protection sociale sont encore faibles ou presque inexistants, comme dans les sociétés anglo-saxonnes, en Espagne, en Allemagne, ou dans certains pays de l’Europe orientale et centrale, ces conséquences risquent d’être encore plus dramatiques socialement qu’en France, en l’absence d’amortisseurs sociaux puissants et de redistribution efficiente. Marc Touati alerte également sur les obligations d’État : « La bulle des obligations d’État [...] se traduit par une baisse des taux d’intérêt des bons du Trésor et donc une flambée du cours de ces derniers, en dépit de l’accroissement permanent de la dette [...], même si l’État vendait ses trésors ou une partie de son patrimoine, il ne parviendrait pas à rembourser ses dettes, l’actif de l’État français étant globalement négatif. » Un krach obligataire est donc fort probable, les taux d’intérêt sur les obligations de l’État pouvant augmenter et donc entraîner une perte de confiance des investisseurs internationaux qui, pour accepter de financer la dette, imposeraient des primes de risques ou taux d’intérêt très élevés, ce qui obligerait le pays à s’endetter sans fin... La Cour des comptes a dévoilé plusieurs scénarios de sortie de crise pour l’économie française. Le premier (positif), dit de « rattrapage 23 », prévoit une relance assez rapide de l’activité, bien qu’il faille au moins trois ans pour que la France retrouve sa situation d’avant crise, avec une croissance potentielle de 1,25 % par an sur la période. Dans ce scénario, le fonctionnement de l’économie ne serait que temporairement altéré et les capacités de production sortiraient indemnes de la crise, la dette devant même baisser légèrement. Le deuxième (défavorable) est celui d’une « perte limitée », c’est-à-dire un PIB qui retrouve son niveau d’avant crise mais sans pouvoir récupérer les pertes dues aux faillites d’entreprises et le report de projets d’investissements. Le bilan s’élève à plus de deux années de croissance perdues à cause de la pandémie. Enfin, le troisième dépeint une « faiblesse persistante » avec une relance de l’activité plus faible que prévu et des investissements affectés sur le long terme, ce qui ferait diminuer le taux de croissance sur plusieurs années avec un PIB remontant bien plus lentement que souhaité. La dette augmenterait alors jusqu’à 140 % du PIB dans les dix prochaines années. Le nombre de chômeurs et de travailleurs précaires exploserait, le climat politico-social se dégradant de plus en plus, augmentant le sentiment d’inquiétude et l’éventualité de soulèvements... Explosion de la dette et risque d’implosion de l’euro La question de l’annulation de la dette souveraine française par la BCE se fait de plus en plus entendre, phénomène qui se produit déjà en Europe pour nombre de nations, mais on peut aisément imaginer qu’il y a une limite à l’action de la BCE et qu’elle ne va pas pouvoir racheter les dettes infiniment. Il est clair qu’elle devra un jour réduire, voire arrêter, sa « distribution » de capitaux, en partie sous la pression de l’Allemagne. La France subira alors une forte augmentation des taux d’intérêt de ses obligations d’État. Marc Touati estime que « dès lors, même si la BCE et Angela Merkel ont réussi à calmer le jeu temporairement [...], le rachat des dettes souveraines par la BCE finira par devenir illégal en Allemagne. Et ce, a fortiori lorsque Angela Merkel ne sera plus chancelière, à l’automne 2021. Cela relancera immanquablement la crise de la dette publique, qui, ne l’oublions pas, n’est qu’endormie depuis 2015 et n’attend qu’un prétexte pour se réveiller avec pertes et fracas 24 ». En plus d’engendrer un krach obligataire et boursier international, « ce scénario viendra également réactiver la crise existentielle d’une zone euro qui est toujours aux abois. Ce qui alimentera de nouveau la hausse des taux d’intérêt obligataires et relancera la récession ». L’opposition structurelle entre l’Europe du Nord, riche, bien gérée et peu endettée, favorable à un « euro fort », et l’Europe du Sud, paupérisée, surendettée et mal gérée, deviendra intenable et menacera la survie même de l’UE. La Commission européenne a estimé qu’il faudra au moins deux ans pour se remettre de la crise sanitaire. D’autres experts parlent plutôt d’un cycle de dix ans... Or certains pays comme l’Espagne ou l’Italie ne possèdent pas de manœuvre budgétaire à la hauteur de la crise. D’après Marc Touati, « l’Union économique et monétaire telle que nous la connaissons aujourd’hui aura disparu avant 2022. Cela ne signifiera d’ailleurs peut-être pas la fin de l’euro, mais l’avènement d’une zone monétaire plus restreinte, avec une vraie intégration, une véritable union fédérale, des règles strictes et une entraide à toute épreuve 25 ». L’éradication du virus étant plus laborieuse que prévu, les perturbations de l’économie seront plus durables en Occident et partout en dehors de la zone asiatique. Nous assistons de la sorte à la récession la plus sévère jamais connue depuis l’entre-deux-guerres, en temps de paix. L’arbitrage qui a été fait au profit de la santé – après des années de réductions folles des personnels de santé et de nombre de lits d’hôpitaux – au détriment de l’économie et au prix d’un méga-endettement – avec les multiples confinements – va avoir des conséquences désastreuses dont on ne perçoit pas encore les manifestations les plus chaotiques. In fine, ce seront les citoyens qui paieront la facture, en particulier les épargnants et les retraités. Jusqu’à peu, la crise financière avait été noyée et différée artificiellement par les flux de liquidités injectées par les banques centrales, mais une fois que les solutions d’assistanat auront été épuisées et que l’endettement endémique aura conduit à la banqueroute et/ou à une austérité difficilement supportables pour les peuples, avec son corollaire de surtaxations et de spoliations possibles des rentiers (spectre des bail-in, comme à Chypre après la crise de 2008), l’heure des grandes secousses et des confrontations interétatiques et infra-étatiques sonnera le glas de la « mondialisation heureuse » et du multilatéralisme. Perdants et gagnants de la crise sanitaire Les grands gagnants de la crise sanitaro-économique sont les multinationales de l’Internet (WebSoft/Gafam), le monde de l’entertainment, les producteurs de jeux vidéo, et, d’un point de vue stratégique et géoéconomique, la Chine et les économies industrielles d’Asie en général. Le chiffre d’affaires du commerce en ligne des multinationales digitales, dont Amazon représente plus d’un tiers, a bondi de 17,5 % et son bénéfice net de 15 %. La grande distribution (surtout alimentaire) a profité de cette tendance avec une hausse de 8,5 % des recettes et de 18,4 % du bénéfice opérationnel, voire +40 % pour Walmart ou Carrefour. Les ventes en ligne de la grande distribution ont également progressé de 115 %. Les sociétés de paiements électroniques sont donc également gagnantes, tout comme les télécommunications et les réseaux de distribution on-line et à domicile et autres livreurs. Après l’apparition de la Covid-19, en effet, de nombreux gouvernements, citoyens et acteurs des Gafam ont considéré les paiements numériques comme un moyen efficace d’effectuer des transactions tout en réduisant le risque de propagation du virus. Sans surprise, si 2020 a été la pire année pour les commerces de proximité, l’hôtellerie, la restauration et les transports internationaux aériens et ferroviaires, elle a été l’année de gloire pour les Gafam. Le confinement et les mesures de prévention de l’épidémie ont en effet constitué un terreau de croissance idéal pour les géants du numérique. Ils ont profité de l’essor du télétravail, de l’e-commerce et du divertissement digital pour afficher des ventes records, qui ont bondi de 18 % au premier trimestre 2020 avec une hausse de 31 % du bénéfice par rapport à la saison précédente. Entre avril et décembre 2020, les Gafam ont augmenté de 45 % leur chiffre d’affaires (CA) cumulé 26 . Amazon a été le grand gagnant, avec un CA en hausse de 40 % (89 milliards de dollars) et un bénéfice net qui double à 5,2 milliards au deuxième trimestre 2020 27 . D’après un rapport de l’Oxfam 28 , les bénéfices réalisés pendant l’épidémie par 32 multinationales (américaines pour la plupart, dont les Gafam) se sont accrus de manière significative. Comparativement à sa marge bénéficiaire pré-Covid, Microsoft a ainsi réalisé près de 19 milliards de dollars de profits supplémentaires, Google plus de 7 milliards et Amazon, Apple et Facebook plus de 6 milliards chacun. Le secteur de la « tech » est particulièrement représenté dans la liste, avec, outre les Gafam, les américains Intel (8,2 milliards de dollars de bénéfices supplémentaires), Cisco Systems (3,2 milliards) et Oracle (1,9 milliard). Le secteur de l’électronique (Apple, Samsung, Dell...) a également profité de « l’accélération numérique », du télétravail et de l’enseignement à distance (CA en hausse de 5,5 % et un bénéfice opérationnel augmentant de 17 %), et va continuer à progresser avec l’arrivée de la 5G qui devrait accroître encore plus la demande de smartphones, en léger recul en 2020. Le secteur pharmaceutique est également l’un des grands vainqueurs naturels de la crise sanitaire, même si les ventes dans ce secteur ont augmenté au départ de façon modeste, en 2020 (3 %) et début 2021, avec un bénéfice opérationnel en hausse de 1,4 %, pour Johnson & Johnson, Roche, Bayer, notamment. L’augmentation des ventes, soutenues au départ par les médicaments et tests pour la Covid, est logiquement devenue massive avec la commercialisation des vaccins en 2021. Pfizer annonce ainsi une prévision de CA en 2021 à 33,5 milliards de dollars et Moderna à 19 milliards de dollars. Les profits des géants américains Merck et Johnson & Johnson sont aussi en hausse (+4,9 milliards de dollars pour l’un et +3,1 milliards de dollars pour l’autre) 29 . Les fabricants de masques et de gel ont quant à eux enregistré une véritable explosion de leurs ventes, avec une prédominance escomptée des industries chinoises. Les grands perdants sont le transport, l’industrie automobile, les constructeurs d’avions, les secteurs pétroliers et de l’énergie en général, ceux de la mode, de l’assurance et, bien sûr, du tourisme. Ainsi, le chiffre d’affaires du secteur pétrolier (Aramco, Shell, BP...) a chuté de 32,9 % et son résultat opérationnel de 85 %, en raison de l’effondrement des cours et de la baisse de la demande de pétrole de 9 % en 2020. La faiblesse de la demande d’énergie risque d’ailleurs d’être prolongée de quelques années avant de redémarrer ensuite grâce à la démographie mondiale, notamment, et en raison de la lenteur de la transition énergétique, certes engagée dans maints pays. En 2020, les ventes de l’industrie automobile (Fiat Chrysler, PSA, Volkswagen...) ont chuté de 12 % et ses marges de 42 %. Seules les ventes de véhicules électriques et hybrides ont tenu la route. Le secteur du tourisme a connu une baisse de 26 % et des pertes opérationnelles énormes. Les ventes du secteur de la mode (LVMH, Adidas...) ont connu une chute de 17,3 %, malgré une hausse de 50 % du commerce en ligne, tandis que les bénéfices opérationnels ont plongé de 47,9 %. Après une embellie au quatrième trimestre 2020, le secteur devrait croître d’environ 14 % en 2021, tiré une fois de plus par le luxe et la demande chinoise. D’après le centre d’études de la banque Mediobanca, trois secteurs vont devoir muter : la grande distribution, le transport et le tourisme, tandis que trois autres vont particulièrement prospérer dans l’ère de l’après-Covid-19 : la santé, les « Big Tech » et le bien-être. Biotech, ordinateurs quantiques, thérapies génétiques : la Chine et l’Asie en voie de déclasser l’Occident ? Lorsque l’Union européenne et les États-Unis ont gravement manqué de masques au début de la crise sanitaire, et lorsque les médias occidentaux ont décrit la façon dont les pays asiatiques – les premiers touchés – ont su très rapidement combattre la pandémie et protéger leurs populations grâce à des moyens technologiques de traçage avancés couplés à des fermetures de frontières, les citoyens et les élites d’Occident ont subitement pris conscience que l’Asie n’était plus seulement une usine mondiale à bas coût. Ils ont compris que, loin de n’être qu’une zone de délocalisation des entreprises occidentales cantonnée à produire et – dans le meilleur des cas – à imiter, l’Asie, Chine en tête, est la plus grande zone d’expansion commerciale, industrielle et technologique du monde, désormais capable de donner des leçons d’efficacité, de modernité et de progrès scientifique aux anciens maîtres occidentaux bientôt déclassés. Les innovations liées aux biotechs, aux nanotechnologies et au biomédical, en pleine expansion, domaines dans lesquels les pays d’Asie sont en passe de dépasser les Européens, représentent, après les technologies de l’information, la prochaine vague de croissance de l’économie des pays avancés, avec de grandes opportunités pour les entreprises et l’emploi 30 . Aussi les acteurs qui auront la plus grande avance dans ces domaines seront-ils en pole position dans la compétition entre puissances, sur les plans économiques, politiques, médicaux et militaires. Or force est de constater que l’Europe, qui accuse déjà un certain retard, faute d’investissements suffisants en R&D en raison des freins éthiques, quasi inexistants en Chine, risque le grand déclassement en laissant de facto le quasi-monopole dans ces domaines aux puissances asiatiques et, dans une moindre mesure, aux États-Unis. Les États encourageant massivement et sans frein ces technologies pourraient accélérer la capacité des laboratoires à développer des thérapies qui améliorent l’espérance de vie et la productivité des travailleurs par exemple. À la différence de la vieille Europe et du monde musulman, la Chine, mais aussi le Japon, la Corée du Sud ou Taiwan, qui bénéficient d’un environnement réglementaire favorable à la fois à la recherche sur les cellules souches et aux essais cliniques, obtiendront des résultats significatifs bien plus rapidement que l’Occident. Ainsi, après avoir formé de nombreux experts chinois et asiatiques, les puissances occidentales risquent de voir cette force se retourner contre eux et de perdre leur avance et leur leadership... Nanotechnologies Les nanotechnologies 31 , les cellules souches, les thérapies génétiques, ou autres biotechs, sans oublier les ordinateurs quantiques, sont à l’origine d’extraordinaires avancées. Ces innovations, combinées aux progrès dans les neurosciences et dans l’intelligence artificielle, vont révolutionner de nombreux domaines : médecine, industrie, défense, énergie. La combinaison de ces technologies pourrait susciter de nouvelles innovations comme les biocarburants synthétiques, les nano-ordinateurs, la robotique à usage militaire et médical, l’extension des domaines de la fabrication 3D à la médecine et à l’alimentation (viandes in vitro). Les pays réussissant à avoir le monopole de ces innovations auront une force technologique majeure et changeront les rapports géopolitiques. Les nanotechnologies, qui concentrent une bonne partie des investissements en R&D et en innovation, sont un enjeu stratégique de compétitivité entre puissances ayant les moyens d’être dans la course. Or l’Occident est en passe de perdre sa domination, notamment dans le domaine des technologies médicinales, au profit des puissances asiatiques, avec en tête la Chine. Le marché mondial des nanotechnologies devrait dépasser 125 milliards de dollars d’ici 2024 32 . La course aux résultats met en scène États-Unis, Allemagne, France, Chine, Japon et Taiwan. Et comme dans presque tous les domaines, la Chine s’est donné pour objectif de devenir leader : elle a connu la croissance la plus rapide de la recherche en nanosciences au cours de la dernière décennie. Parmi les 100 plus grandes institutions de recherche en nanosciences au monde en 2018, la Chine en compte déjà 33, contre 30 pour les États-Unis... L’armée chinoise possède également 6 établissements parmi les 10 premiers au monde, l’Académie chinoise des sciences étant largement en tête du peloton. Sur la période 2012-2017, les universités chinoises ont reçu 500 millions de RMB (près de 80 millions de dollars) pour la recherche sur les nanotechnologies, et l’Académie des sciences chinoise a lancé un programme de recherche stratégique prioritaire sur la nanotechnologie avec un investissement d’environ 1 milliard de RMB, soit près de 155 millions de dollars 33 . Au total, les investissements chinois en R&D sont extrêmement élevés et en constante augmentation. Pour l’année 2019, ils atteignaient 320 milliards de dollars, soit une hausse de 12,5 % par rapport à 2018 34 . Physique et Internet quantique Le grand déclassement des Occidentaux par les Asiatiques concerne également les ordinateurs quantiques, supercalculateurs, très différents des ordinateurs actuels, qui pourraient permettre, dans le futur, d’effectuer des calculs impossibles pour les ordinateurs classiques (simulations pour l’énergie, le climat, la chimie, la médecine). Aujourd’hui, la Chine est déjà leader : elle a récemment atteint le stade de la « suprématie quantique » grâce à un ordinateur de ce type, une avancée qui dépasse toutes les compétences de Google ! Le test qu’auraient fait les Chinois aurait été réalisé avec une vitesse 100 000 milliards de fois plus rapide que l’ordinateur le plus puissant du monde... C’est dans ce domaine que la progression de la Chine a été la plus impressionnante, sachant qu’elle en était totalement absente il y a vingt ans. Médecine régénérative et édition génomique Le même constat vaut pour la médecine régénérative, qui consiste à utiliser ces cellules et des tissus fabriqués à partir de cellules souches dans le but de réparer et régénérer des organes, des tissus ou n’importe quelle autre partie du corps endommagée, mais aussi pour des maladies. La recherche est active depuis de nombreuses années et des essais cliniques ont déjà été réalisés pour le traitement de plusieurs pathologies graves comme les organes abîmés, les cancers, les maladies neurodégénératives, la colonne vertébrale, etc. Alors qu’en Occident, les états d’âme « éthiques » interdisent la culture médicale des cellules souches, ce qui bloque les progrès médicaux en matière de médecine régénérative, la Chine (mais aussi Taiwan), qui n’a pas ces scrupules, en a fait une priorité de la R&D. Ces dernières années, Pékin a financé très massivement les recherches. C’est ainsi que le douzième plan quinquennal (2011-2015) chinois a consacré 3 milliards de yuans (435 millions de dollars) sur les seules cellules souches et la médecine régénérative, et que le treizième plan (2016-2020) a lancé un vaste programme dénommé « Stem Cell and Translational Research » de 2,7 milliards de yuans (423 millions de dollars), consacré aux applications des cellules souches aux maladies neurologiques, vasculaires, du foie et de la reproduction 35 . En 2018, des médecins du Nanjing Drum Tower Hospital à Nankin ont réussi à soigner des patientes atteintes d’insuffisance ovarienne à l’aide de cellules souches et, en 2019, deux hommes ont été les premiers à recevoir un traitement à base de cellules souches « reprogrammées » pour une maladie cardiaque, une première mondiale. L’autre avancée majeure médicale a consisté à associer la médecine régénérative et l’impression 3D. La Chine a ainsi conçu la première bio- imprimante 3D capable de fabriquer des vaisseaux sanguins, mise au point par l’entreprise Sichuan Revotek qui utilise une encre biologique composée des cellules souches prélevées à partir de cordon ombilical humain. Cette technique biomédicale vise à modifier le génome d’une cellule, d’origine végétale, animale ou humaine (modification d’ADN). Les possibilités en fonction de l’avancement de la science sont multiples. Les chercheurs peuvent créer des mutations dans des gènes pour en observer les effets et corriger des problèmes en insérant des fragments d’ADN ou en modifiant des gènes. Là aussi, les avancées sont limitées dans les pays occidentaux qui posent la question éthique des risques d’abus ou tentatives de modifier des êtres humains directement dans leur ADN. Ainsi, lorsque des « bébés transgéniques » ont été expérimentés dans un laboratoire chinois, la communauté scientifique internationale – surtout occidentale – s’indigna quasi unanimement. Le scandale a révélé une fois de plus l’énorme choc culturel, éthique et déontologique qui oppose, d’une part, un Occident rempli de scrupules et de principes de précaution et, de l’autre un régime autoritaire sino-maoïste animé par la seule logique de l’efficacité et de la recherche de la puissance par tous les moyens. 1. Voir la polémique américaine autour des révélations de l’ex-conseiller médical de la Maison Blanche, Anthony Fauci : « États-Unis : le Dr Fauci exhorte la Chine à partager les dossiers médicaux des chercheurs malades de Wuhan », Le Figaro, 4 juillet 2021. 2. Institut de recherche sur les politiques publiques du Congrès des États-Unis. 3. CRS, Global Economic Effects of COVID-19, rapport, avril 2021. 4. « Our Annual Letter. The Year Global Health Went Local », site de la fondation Bill Gates, 27 janvier 2021. 5. Xavier Bazin, Big Pharma démasqué, de la chloroquine aux vaccins, la crise du coronavirus révèle la face noire de notre système de santé, Paris, Trédaniel, 2021. 6. Insee, « Emploi et chômage », note de conjoncture, 15 décembre 2020 ; Point de conjoncture, 2020. 7. « Quel monde en 2021 ? », Alternatives économiques, n o 122, janvier 2021. 8. Clément Fournier, « Et si les conséquences sanitaires de la crise économique étaient pires que celles du coronavirus ? », Youmatter, 28 octobre 2020. 9. « La Chine fait don de 200 000 doses de vaccin anti-COVID-19 à la Sierra Leone », Xinhuanet, 26 février 2021. 10. Publication de l’OCDE : « GDP Growth – Second Quarter of 2020, OECD », 26 août 2020. 11. Alternatives économiques, hors-série n o 122. 12. Cnuced, « Les investissements directs étrangers dans le monde ont chuté de 42 % en 2020 », 25 janvier 2021. 13. FMI, Perspectives de l’économie mondiale. Reprise : des situations divergentes à gérer, rapport, avril 2021. 14. Institute of International Finance, Global Debt Monitor. COVID Drives Debt Surge—Stabilization Ahead ?, 17 février 2021. 15. Banque mondiale, « Le niveau d’endettement dans le monde augmente avec une ampleur et un rythme sans précédent depuis 50 ans », 19 septembre 2019. 16. « États-Unis : “le niveau actuel de la dette est tout à fait viable”, selon la Fed », Le Figaro, 14 avril 2021. 17. Mayra Rodriguez Valladares, « U.S. Corporates Continue to Gorge at the Debt Trough », Forbes, 10 avril 2021. 18. IIF, Global Debt Monitor. Sharp Spike in Global Debt Ratios, rapport, 16 juillet 2020. 19. « La pandémie a fait exploser la dette de la zone euro en 2020 », Les Échos, 22 avril 2021. 20. Statistiques disponibles sur le site de l’Eurostat, www.ec.europa.eu. 21. Commission pour l’avenir des finances publiques, mars 2021 www.gouvernement.fr/sites/default/files/document/document/2021/03/rapport_- _commission_sur_lavenir_des_finances_publiques.pdf. 22. Marc Touati, « La France, premier fournisseur de dette publique de la zone euro », Acdefi, 8 décembre 2020. 23. Paul Louis, « Coronavirus : les trois scénarios de sortie de crise de la cour des comptes », BFM Business, 30 juin 2020. 24. Marc Touati, « La France est le premier fournisseur de dette publique... », op. cit. 25. Marc Touati, « Le coronavirus va-t-il sonner le glas de la zone euro à 19 ? », Capital, 15 mai 2020. 26. « GAFAM : La pandémie, qui a profité aux géants du numérique, pourrait accélérer leur régulation », Novethic, 5 novembre 2020. 27. « Ces incroyables profits d’Amazon pendant la pandémie », Capital, 30 juillet 2020. 28. « Power, Profits and the Pandemic » de septembre 2020, in art. cit. 29. « Gafam, actionnaires... Qui s’est le plus enrichi depuis le début de la pandémie ? », art. cit. 30. « Sciences du vivant et biotechnologie – Une stratégie pour l’Europe », communication de la Commission européenne, 23 janvier 2001. 31. Les nanotechnologies rassemblent un grand nombre de disciplines scientifiques traditionnelles comme la physique, la chimie, les sciences et technologies de l’information et de la communication (Stic), et biologie médicale. 32. Zhang Zhihao, « Chinese Researchers Head the Field in Nanoscience », China Daily, 19 août 2019. 33. Springer Nature, Small Science in Big China, août 2017. 34. « China’s Spending on R&D Rises to Historic High », Xinhua, 27 août 2020. 35. Ministère de l’Europe et des Affaires étrangères, « Éclairage sur la médecine régénérative en Chine », 19 juin 2018. Entre 1999 et 2018, la Chine a créé 30 centres de recherche en médecine régénérative. En nombre d’articles publiés, elle est, avec 2 091 articles (2008-2018), derrière les États-Unis (7366) mais devant la France, le Japon, la Corée, l’Allemagne. CHAPITRE XIV Démondialisation ou désoccidentalisation de la mondialisation ? « Tout pour nous et rien pour les autres, voilà la vile maxime qui paraît avoir été dans tous les âges, celle des maîtres de l’espèce humaine. » Adam Smith 1 L’évolution de l’échiquier géoéconomique mondial de ces dernières années et les crises de 2008 – financière – et de 2020-2021 – sanitaire et économique – ont porté un rude coup à la mondialisation heureuse, tant vantée par Alain Minc et les démocrates américains dans les années 1990. Longtemps indiscutable, cette doxa ne fait plus l’unanimité. Elle est même fortement combattue à l’intérieur de l’Empire américain par les adeptes du nouveau Parti républicain – et pas seulement par l’aile gauchisante du Parti démocrate autour de Bernie Sanders – depuis que le Grand Old Party a été métamorphosé et resouverainisé par les adeptes du Tea Party et Donald Trump, dont les électeurs s’autoqualifient fièrement de « Patriots ». Ces adeptes du « Make America Great Again » accusent ceux qui ont une lecture mondialiste de la globalisation marchande et financière d’avoir affaibli les États-Unis et appauvri les Américains anglo-saxons natifs en faisant subir aux ouvriers étatsuniens la concurrence déloyale mexicaine et asiatique ainsi que l’immigration incontrôlée. À l’opposé des partisans du libre-échangisme économique 2 , qui voient la mondialisation comme bénéfique en soi, les interventionnistes de droite et de gauche, adeptes de l’État stratège, prônent une altermondialisation ou une démondialisation qui passe par la réglementation, les cycles courts, la réindustrialisation et les relocalisations, voire par une forme de protectionnisme. Dans les années 1990-2000, ceux qui dénonçaient le plus la mondialisation marchande dite « néolibérale » étaient les anticapitalistes No Global (voir mouvement Attac), situés à gauche et à l’extrême gauche, marqués par un tiers-mondisme et un internationalisme prolétarien, qui proposaient un modèle alternatif à la mondialisation capitaliste néolibérale, donc une altermondialisation fondée sur le mantra paradoxal : act local (déglobaliser/renationaliser les entreprises, combattre les multinationales et le capitalisme financier) but think global (mondialiser les institutions publiques, c’est-à-dire supprimer des frontières qui empêchent les migrations – présentées comme bonnes en soi – et promouvoir une citoyenneté universelle). La contradiction résidait dans le fait qu’ils étaient identitairement mondialistes et économiquement nationalistes. Depuis que le monde est en voie de multipolarisation, ce sont des forces plus identitaires et nationalistes qui remettent le plus en question la mondialisation libérale à l’anglo-saxonne et qui œuvrent à une démondialisation. Ces puissances nationalistes ne se limitent pas à des États semi-autarciques comme la Russie. La plus hégémonique d’entre elles, la Chine mercantiliste, cherche plus à désidéologiser, désoccidentaliser et retourner la mondialisation contre ses protagonistes anglo-saxons qu’à la détruire. Les puissances montantes y voient en fait un gigantesque champ de concurrence, le théâtre d’une guerre géoéconomique et géocivilisationnelle qu’elles escomptent gagner face aux pays concurrents ou hégémoniques, notamment occidentaux. La démondialisation ne décrit donc pas, selon nous, l’aspiration – irréaliste et folle – à mettre fin aux échanges entre êtres humains, ni le « repli sur soi », qui provoquerait inéluctablement le retour des guerres et des nationalismes, d’après les adeptes de la mondialisation heureuse. Elle désigne la volonté des États de récupérer leur souveraineté – politique, économique et financière – et l’aspiration des peuples à défendre leur identité nationale. Celles-ci ont en effet été mises en danger par une mondialisation dérégulée à l’anglo-saxonne, une financiarisation excessive de l’économie, une désindustrialisation corrélative ainsi que par l’action des puissances supranationales et multinationales dont la croissance a semblé s’opérer au détriment des États-nation. Cette démondialisation, que nous pourrions aussi nommer la postmondialisation, signifie donc plutôt une redistribution des cartes économiques sur des bases géographiques plus cohérentes. Elle implique la réorientation des économies vers la priorité de la production destinée aux marchés locaux ; le rétablissement des « circuits courts » ; l’interdiction ou la limitation des délocalisations ; l’instauration d’un protectionnisme intelligent ; l’imposition de taxes douanières plus élevées aux pays à bas salaires qui pratiquent le dumping social et/ou – comme la Chine – une concurrence déloyale et des échanges inégaux. On peut également mentionner les dernières mesures instaurées sous l’impulsion de Joe Biden et de l’OCDE visant à taxer à une moyenne de 20 % minimum les multinationales et les Gafam. Les penseurs de la démondialisation ajoutent la règle d’une nette séparation entre banques d’investissement et de dépôts, la lutte contre les fraudes et même parfois l’abandon du dollar comme monnaie de réserve mondiale, grande requête des pays multipolaristes de l’OCS et des Brics. L’idée générale est qu’il serait possible de donner un autre contenu à la mondialisation, et empêcher que les délocalisations et la désindustrialisation ne continuent d’appauvrir les peuples et de rendre l’UE toujours plus dépendante, donc à la merci, des puissances commerciales asiatiques ou nord-américaines. La démondialisation, longtemps assimilée aux protectionnistes d’extrême gauche ou d’extrême droite, a commencé à être prise au sérieux depuis les effets dévastateurs de la crise financière de 2007-2008 et les mesures d’austérité insupportables pour les peuples qui ont suivi. Le terme est apparu pour la première fois en 2002, sous la plume du penseur philippin Walden Bello, auteur de l’ouvrage Deglobalization (2002), qui explique que la mondialisation s’est construite aux dépens des pays du sud de la planète et qui appelle à un contrôle politique des systèmes économiques ainsi qu’à un démantèlement des institutions financières internationales (notamment la Banque mondiale, le FMI, l’OMC), dans une logique assez tiers-mondiste et dirigiste. Outre-Atlantique, c’est le libéral-conservateur américain Donald Trump qui s’est fait élire en 2017 sur un programme de dénonciation des effets pervers de cette mondialisation jugée dangereuse, source de chômage et de perte de souveraineté au profit de l’ennemi géoéconomique chinois, notamment. Une idée jugée au départ belliciste dans la bouche de Donald Trump mais que Joe Biden semble reprendre à son compte en partie aujourd’hui. En Grande-Bretagne, le Brexit a triomphé grâce au vote des régions dévastées par la désindustrialisation et donc des souverainistes – conservateurs comme travaillistes – ainsi que par l’action de Nigel Farage, créateur de partis politiques eurosceptiques Ukip (Parti pour l’indépendance du Royaume-Uni, 2016), puis le Parti du Brexit (2019). Ses idées seront reprises par un autre leader non réputé pour son tiers-mondisme ou son étatisme, Boris Johnson, qui table non pas sur une démondialisation à la façon des No Global socialisants mais sur une canalisation de la mondialisation en fonction des intérêts premiers de sa nation redevenue souveraine et capable de sortir de tous les traités internationaux et supranationaux jugés attentatoires à la souveraineté. Il est intéressant de noter que chez ces personnalités occidentales, la logique qui a inspiré les travaux de Walden Bello est renversée : alors que chez le penseur philippin, les politiques de démondialisation devaient servir à protéger les pays du Sud de ceux du Nord, les démondialistes d’Occident veulent protéger les pays du Nord des logiques qui dépassent leur souveraineté nationale, des agressions économiques et du dumping social des anciens pays du Sud et de l’ex-tiers-monde devenus émergents ou même riches. En France, des personnalités issues de bords aussi différents que le politique Arnaud Montebourg (PS), l’économiste iconoclaste Jacques Sapir 3 , ou l’économiste et journaliste François Lenglet, ont adapté les thèses des démondialistes à la réalité française et européenne. Arnaud Montebourg, ancien ministre du Redressement productif de François Hollande, s’est emparé du thème du made in France et de la réindustrialisation à la suite de la crise financière de 2008 et des mesures d’austérité drastiques imposées par les dirigeants européens et les instances de Bruxelles, chantres de la mondialisation et de la financiarisation de l’économie. Montebourg rappelle que si les États-Unis dirigent l’ensemble de la technologie mondiale, c’est parce qu’ils protègent leurs technologies et donc leurs intérêts, parce qu’ils ont pratiqué la guerre économique et surtout parce qu’ils n’ont pas laissé faire le marché mondial chez eux, tout en l’exigeant des autres... Et le leadership dans le spatial (lanceurs) qu’ils sont en train de ravir aux Européens est selon lui dû au fait qu’ils ont subventionné Elon Musk et SpaceX, même si en réalité, SpaceX s’est aussi imposé grâce à une série d’innovations et à la supériorité de son business model qui a permis de baisser les prix de production en comparaison avec la Nasa sclérosée. L’homme politique plaide en faveur d’un État fort et reconnaît même que la politique économique de Donald Trump a fonctionné avant la Covid-19 grâce à cette reprise en main de l’économie par le politique en fonction des intérêts nationaux. Il affirme que la France et l’UE devraient suivre l’exemple de Trump face à la concurrence déloyale chinoise en surtaxant les importations de produits chinois et en rééquilibrant l’énorme déficit commercial par une forme de protectionnisme et la fin de la fermeture d’usines ou leur rachat afin de préserver notre capacité de production ainsi que les emplois. Il préconise un capitalisme à l’allemande, comme l’a incarné l’ex-chancelier Gerhard Schröder, aux antipodes du modèle dérégulé anglo-saxon, plus organisé autour de l’humain, des responsabilités, de la participation d’inspiration gaulliste, et il appelle à une reconstruction écologique de l’industrie et de l’agriculture qui favorise les relocalisations et les circuits courts. De son côté, François Lenglet, auteur de La Fin de la mondialisation 4 , explique que cette dernière a été durablement freinée depuis la crise financière et économique de 2008, phénomène renforcé par la crise sanitaire, au point de remettre en cause le « consensus de Washington », cette doxa mondialisante qui posait le primat des échanges commerciaux et des pouvoirs financiers, de moins en moins régulés par les États. L’auteur constate « l’ensablement » de l’OMC, l’Organisation mondiale du commerce – que la Chine a intégrée étonnamment vingt ans plus tôt que la Russie honnie mais dont les règles ont systématiquement été violées par Pékin –, et il voit dans le rapatriement des chaînes de production vers les États-Unis, notamment, le début d’une tendance lourde initiée sous l’ère Obama et poursuivie par ses successeurs. On peut, certes, lui répondre qu’il serait presque impossible de rapatrier la plupart des usines car cela conduirait à l’augmentation du coût de vie que la société américaine ne pourra pas accepter. Il pronostique par ailleurs que les cures de désendettement imposées aux pays touchés par la crise impliqueront un mouvement généralisé de « renationalisation » financière. Selon lui, la crise sanitaire aurait précipité la fin du cycle libéral enclenché dans les années 1960 avec la génération des baby-boomers et qui atteignit son apogée dans les années 1980-1990. Elle légitimerait la reprise en main de l’économie par les États, le retour d’une forme de souverainisme économique et même d’un protectionnisme raisonné. Postmondialisation ? Dans son livre La Démondialisation 5 , l’économiste hétérodoxe Jacques Sapir explique, quant à lui, que la mondialisation doit être complétée, régulée, reprise en main par les États et donc équilibrée par un « patriotisme économique ». Sapir conteste ce qui a été présenté depuis des décennies par les néolibéraux comme le mérite majeur de la mondialisation : les succès universels du libre-échange depuis les années 1990. Chiffres en main, l’auteur rappelle que ces échanges libéralisés dans le cadre de la mondialisation anglo-saxonne n’ont pas induit la forte croissance prophétisée au départ par ses promoteurs : l’impact sur les pays les plus pauvres a été en effet plutôt négatif, et surtout, les seuls cas où la concomitance de la mondialisation et du développement économique s’est vérifiée se situent dans les pays où des « politiques nationales puissantes » ont été instaurées. Pour limiter les échecs de la mondialisation, l’économiste plaide en faveur d’un nouveau Bretton Woods et de la mise en œuvre des idées et méthodes keynésiennes, comme celle consistant à pénaliser les déficits ou les excès de balance des paiements. Il rappelle à ceux qui n’ont qu’une lecture « progressiste » de Keynes et qui l’opposent aux partisans du patriotisme, que ce dernier n’était pas seulement un partisan de la coopération internationale mais d’abord un « farouche opposant aux mécanismes supranationaux qui privent les gouvernements de leur souveraineté ». Pour Jacques Sapir, « l’échec du FMI dans la crise asiatique de 1997 a redonné une vitalité significative aux politiques nationales souveraines ». Comme plusieurs Prix Nobel d’économie, Sapir affirme que la seule solution pour conjurer les conséquences de la crise née de la mondialisation serait d’abandonner l’euro, monnaie incapable de concurrencer le dollar s’il n’est pas soutenu par une Europe-puissance, d’autant que les divergences entre les stratégies économiques des pays de la zone euro sont presque impossibles à supprimer, ce qui compromet la constitution d’une zone économique et monétaire optimale, condition de la viabilité d’une monnaie unique. Sapir est toutefois favorable à une monnaie commune ou d’échange hors des frontières de l’Union européenne. Pour l’auteur, la fin de la mondialisation financière à l’anglo-saxonne, qui a atteint son apogée avant la crise financière de 2008, serait imminente : les indices les plus évidents de cette postmondialisation seraient notamment l’échec des négociations de Doha, le refus de la Chine d’assumer les responsabilités monétaires que la mondialisation était supposée lui imposer et, plus généralement, le retour massif des États stratèges désireux d’imposer à nouveau le primat du politique sur l’économie. Cette tendance, observable tant aux États-Unis, en Hongrie, en Russie, en Grande-Bretagne, qu’en Chine ou ailleurs, serait permise par le fait que le commerce mondial, qui avait augmenté jusqu’en 2011, n’a cessé de se contracter depuis lors, donc bien avant la crise sanitaire, les économies en développement, en transition et développées connaissant toutes un recul. À l’appui de ces constats, le rôle des pays du G7 les plus industrialisés (États-Unis, Canada, Japon, France, Allemagne, Italie et Royaume-Uni) sur le PIB mondial s’est fortement réduit depuis les années 2000 : les pays riches, traditionnellement très ouverts, n’ont cessé de perdre du poids dans le PIB mondial, cédant la place aux émergents et aux Brics les plus développés qui ont rejoint – et parfois dépassé – les pays occidentaux. Or la croissance de ces pays est de moins en moins due à l’extérieur, puisqu’elle repose toujours plus sur des facteurs internes, la Chine elle-même ayant pour objectif stratégique économique d’augmenter son marché domestique et de moins dépendre de l’étranger pour sa production de richesse, tout en continuant, certes, à « miser sur l’intégration à l’économie mondiale » comprise comme à sens de plus en plus unique et à son avantage (voir programmes Made in China 2025 et Obor). Le postulat des démondialistes est que les facteurs qui ont motivé l’ouverture de nombreux pays ont cessé et qu’il existerait maintenant des facteurs alternatifs qui déplaceraient l’intérêt vers l’intérieur. Ralentissement de la mondialisation chinoise et postmondialisation régionalisée Quelques constats relatifs à l’évolution de la mondialisation depuis des siècles et les dernières décennies sont éclairants : il est bon de rappeler que la mondialisation n’a jamais été un processus linéaire et éternel, pas plus qu’elle n’a été exclusivement occidentale. Jusqu’au XVII e siècle, en effet, ce fut la Chine, son argent métal, et ses routes de la soie qui portèrent la première mondialisation, avec les échanges de ses deux produits phares : la porcelaine et la soie. Pékin représentait alors une grande part de l’économie mondiale, jusqu’à ce qu’elle se ferme au monde de sa propre initiative, avec les conséquences dramatiques que l’on sait (guerres de l’opium et réactions impérialistes britanniques, françaises et occidentales). De la même manière, la mondialisation anglo-saxonne (McWorld), lancée par les États-Unis « vainqueurs » de la guerre froide à la fin des années 1980, n’a pas seulement été permise par la chute de l’URSS, l’ouverture consécutive de cet espace ainsi que de l’Amérique latine et de l’Asie du Sud-Est au commerce mondial, mais surtout par l’arrivée de la Chine. Celle-ci a en effet porté la mondialisation par son extraordinaire croissance économique à deux chiffres sur plusieurs décennies, à son immense marché et au fait qu’elle est devenue l’usine du monde. Or ce processus de mondialisation porté par la Chine est en train de s’estomper, après avoir atteint son apogée à la fin des années 2000. Ce constat d’une tendance lourde, qui va marquer les prochaines décennies, a été émis par des spécialistes des échanges internationaux et des chercheurs académiques peu soupçonnables de parti pris idéologique radical. Dans leur ouvrage collectif qui fait autorité, les Prs Peter J. Buckley, Peter Enderwick et Adam Cross, auteurs de l’ouvrage de référence International Business 6 , expliquent que le processus de mondialisation n’a plus de nouveaux grands marchés à intégrer, qu’après avoir été portée par Pékin, qui l’a accélérée durant des décennies, après avoir intégré son marché et son industrialisation au monde, la globalisation libérale à l’anglo-saxonne ne peut pas aller plus loin, d’autant que la Chine, devenue une superpuissance, a comme priorité de développer un marché domestique et de s’autonomiser en cessant de n’être que l’usine du monde des entreprises américaines et occidentales. Les auteurs estiment que ce mouvement de fond, qui n’est qu’à ses débuts, va conduire inévitablement à un ralentissement de la mondialisation, tandis que les échanges, qui ne vont pas s’arrêter, bien sûr, vont se développer sur un autre modèle, celui des économies régionalisées ou des grandes régions économiques mondiales (Union européenne ; marché du Sud-Est asiatique, Union eurasiatique et CEI russophones ex-soviétiques, marché nord-américain, voir cartes n o 3 et 4). Cette régionalisation marchande ou postmondialisation correspond en grande partie au paradigme des zones civilisationnelles de Samuel Huntington et elle annonce la consolidation de pan-regions fondée sur des intérêts économiques, des sphères d’influences géographiques communes qui vont de pair avec une multipolarisation géopolitique. Le monde va donc se décliner en zones géocivilisationnelles (voir cartes n o 2, 3 et 4) qui privilégient les échanges intrazones, sans supprimer les échanges intercontinentaux les plus incontournables. Ce constat est également émis par Chetan Sehgal et Michael Lai, analystes de la Franklin Templeton Emerging Markets Equity, qui prennent acte du fait que le coronavirus a accentué la fracture entre la Chine et le reste du monde, notamment occidental, puis intensifié un processus préexistant de démondialisation. Constatant que la crise a nettement aggravé la défiance entre la Chine et l’Occident, observée avant même l’apparition de la Covid-19, ils expliquent, chiffres à l’appui, que l’objectif du pouvoir chinois consiste à axer de plus en plus massivement la consommation sur son marché intérieur, passant ainsi du statut « d’usine du monde » à la production de biens technologiques de pointe (puces informatiques, etc.) et à une croissance à venir de plus en plus fondée sur le développement du marché domestique et la désexternalisation. Par ailleurs, la crise sanitaire a mis en lumière l’extrême fragilité des chaînes d’approvisionnement mondiales, ce qui a provoqué une prise de conscience des élites nationales des autres grands pays décidés eux aussi à atténuer la trop grande dépendance envers la Chine. La conclusion des auteurs est que le phénomène de mondialisation connu ces vingt-cinq dernières années, qui a largement été fondé sur l’intégration de la Chine dans l’économie capitaliste mondiale, s’estompe. En fait, si tous les facteurs lourds qui ont promu la Chine comme usine du monde sont loin d’avoir disparu, sachant que l’Europe et le monde ne pourront pas se passer d’elle du jour au lendemain et relocaliser des gigantesques usines et industries implantées ou utilisées par les firmes occidentales et multinationales depuis des décennies, Pékin est tout de même en train de perdre une part de son intérêt. Premièrement, les coûts de production et de main-d’œuvre sont moins compétitifs que jadis. Deuxièmement, les prix de revient en Chine vont continuer à augmenter progressivement en raison des pressions sur le respect des règles de travail exercées par l’OMT, en particulier, et par les entreprises occidentales clientes, en général, de plus en plus contraintes par les normes ESG (gouvernance et environnement) et par la prise en compte des externalités négatives (pollution, déchets...). Or ces externalités négatives, qui incluent notamment la valeur carbone, en pleine croissance, sont calculées sur l’ensemble de la chaîne d’approvisionnement, dont le transport, ce qui surenchérit les coûts. Cette tendance lourde va être déterminante dans les choix des entreprises clientes de la Chine, notamment dans les pays occidentaux à la pointe sur toutes ces normes. À cela s’ajoutent également les logiques de taxe carbone aux frontières, qui sont en train d’émerger un peu partout, notamment en Europe, ainsi que les tensions sino-américaines, loin d’être résolues malgré l’arrivée au pouvoir de Joe Biden, qui semble avoir repris à son compte la guerre économique déclarée par Donald Trump à la Chine, certes sans le dire aussi brutalement. De la troisième vague de mondialisation à la démondialisation Revenons maintenant sur le processus par lequel, après avoir connu son apogée dans les années 2000, la mondialisation marchande à l’anglo-saxonne, nommée par les académiques « troisième vague » de mondialisation, a commencé à être remise en cause et à décliner 7 . Cette troisième vague, qui date des années 1990 dans un contexte de chute de l’Empire soviétique, a été caractérisée par l’entrée de l’immense marché chinois et de l’usine du monde chinoise dans la mondialisation depuis les années 1980, puis par l’intensification de trois processus, aujourd’hui ralentis ou ayant connu leur apogée : des échanges commerciaux (marchandises et services : « mondialisation marchande ») et des flux de capitaux (transferts monétaires et investissements directs et indirects : « mondialisation financière ») ; des flux humains (immigration, tourisme, voyages d’affaires : « mondialisation des personnes ») ; et des flux d’informations (« mondialisation digitale »). L’erreur fondamentale a consisté, durant des années, à surestimer ces trois intensifications et à y avoir une fatalité qui aurait conduit à un processus inéluctable de désouverainisation et de dépossession des États de leurs prérogatives régaliennes, financières et économiques. En réalité, entre 1980 et 2020, l’intensification des échanges commerciaux n’a pas été aussi spectaculaire qu’on le dit, et la mondialisation a concerné avant tout celle des flux de capitaux, des flux humains et surtout des flux d’informations, mais n’a pas détruit les souverainetés des États puissants. Ces derniers l’ont au contraire instrumentalisée pour asseoir leur puissance et parfois même leur hégémonie. Essayons ici de faire justice de quelques idées reçues et confusions qui font croire que les adeptes de la démondialisation seraient hostiles aux échanges économiques et voudraient « revenir en arrière ». Avant 1980, l’abaissement des barrières douanières s’était réalisé de manière extrêmement progressive dans le cadre des négociations internationales du Gatt (actuel OMC) avec une seule exception régionale : l’Europe qui, à partir de 1957, abolissait ses barrières douanières au sein d’un marché intérieur de 6 pays, puis 9, puis 12, puis 19, puis les 28 pays qui composaient l’Union européenne jusqu’au Brexit. Cependant, à partir des années 1990, les accords de Marrakech et la création de l’OMC, qui ont regroupé 159 pays auxquels se sont jointes la Chine et la Russie, ont abouti à un abaissement généralisé des barrières douanières dans le monde et à la mise en place d’un tribunal des entraves au libre-échange, de sorte que, vu de l’Union européenne, hormis le contrôle du respect des normes et quelques taxes symboliques, il n’y avait plus de différence entre les importations venues d’Europe et celles venues de Chine. Or si l’on retire les échanges intra-européens des calculs du taux de pénétration des pays européens à l’extérieur, en réalité, nous sommes toujours restés bien moins dépendants de l’extérieur qu’on le dit, car près de 80 % des échanges globaux ont toujours été effectués en « intrazone ». Certes, en valeur, les marchandises qui traversent les océans grâce au recours massif aux containers sont au niveau mondial aujourd’hui le double de celui de 1980. Cette augmentation en valeur varie selon les zones géographiques : vue d’Asie, la valeur des marchandises exportées a été multipliée par quatre sur cette période, tandis que vue d’Europe, des États-Unis et d’Afrique, elle n’a crû que de 50 % dans l’intervalle. Ainsi, hormis l’Asie du Sud-Est, cette progression se situe en réalité dans la lignée de la croissance du commerce extérieur observée depuis 1950. Il y a eu donc surtout continuité plutôt qu’explosion du commerce extérieur. Doublement du commerce extérieur en valeur, mais augmentation très modérée du taux d’importation Les États ont en réalité toujours continué à échanger essentiellement les richesses à l’intérieur de leurs frontières ou d’une même zone régionale. Le taux de pénétration des économies (part des importations) a certes augmenté partout, mais pas du tout dans les proportions qu’on imagine. Pour information, un pays qui importe peu a un taux d’importation inférieur à 20 %, comme les États-Unis et la Chine, et un pays qui importe beaucoup, 50 %, ce qui est le cas des petits pays d’Europe comme le Benelux ou l’Autriche. Or entre 1980 et 2019, aucun pays n’a changé de catégorie, même si tous ont vu la part de leurs importations augmenter. Ainsi, en France, les importations sont passées de 25 % en 1980 à 32,8 % du PIB en 2019 8 , ce qui est peu. À l’échelle européenne, les importations de l’UE vis-à-vis du reste du monde sont passées de 15 à 20,3 % 9 , ce qui est finalement peu, d’autant qu’elles résultent essentiellement des importations de l’Allemagne. Aux États-Unis, les importations sont passées, entre 1980 et 2019, de 10 à 14,6 % du PIB, ce qui est encore plus faible. Quant à la Chine, soi-disant hypermondialisée, elle n’importait que 17,3 % de son PIB en 2019 10 . Certes, nous avons déjà vu plus haut que Pékin utilise la mondialisation marchande comme un vecteur d’accroissement et de projection de puissance, son objectif étant de remplacer les entreprises occidentales par des sociétés chinoises et de préparer l’éviction des États-Unis de la mer de Chine, de Taiwan, et du leadership mondial. La Chine a donc une lecture de la mondialisation totalement opposée à celle, « mondialiste », de l’Occident, et c’est dans ce contexte que les firmes digitales et multinationales chinoises BATX ont bloqué en Chine les Gafam américains. Ceci dit, après la crise sanitaire, la Chine devrait voir la part de ses importations diminuer de façon significative, notamment celles en provenance d’Europe, et donc se démondialiser. Par ailleurs, on assiste en Europe à des relocalisations permises par la robotisation, tandis que la Covid a permis de réfléchir sur les secteurs stratégiques. Toutefois, répondent les adeptes de la mondialisation marchande, l’Europe présente aujourd’hui un taux d’importation vis-à-vis de la Chine bien trop important pour permettre à ses industriels de s’en passer à court terme. Il est vrai que les mesures préconisées par Arnaud Montebourg, François Lenglet ou Jacques Sapir, fondées sur le protectionnisme raisonnable et la réindustrialisation, ne peuvent pas produire des effets immédiats. On peut, certes, répondre que, si elles ne sont pas adoptées par les responsables politiques et économiques des pays de l’UE, ce n’est pas en raison de leur impossibilité mais parce que ces élites occidentales, surtout européennes, sont inhibées par un mondialisme de principe et sont pieds et poings liés aux États-Unis, aux institutions à prétention supranationale, et aux multinationales qui n’y ont aucun intérêt. Or ceci n’est pas immuable. Par ailleurs, la globalisation est loin de se résumer aux échanges commerciaux et on peut même imaginer une postglobalisation avec bien moins d’échanges commerciaux transcontinentaux et constituée essentiellement de mouvements de capitaux, de personnes, de flux d’informations, de relocalisation et régionalisation des échanges. Des échanges de services demeurés localisés On distingue souvent les échanges de services des échanges commerciaux. En pratique, la catégorie des services est un fourre-tout, dans lequel on intègre aussi bien les prestataires de services financiers et de services d’information que les distributeurs de produits commerciaux. Or les distributeurs de produits commerciaux ne sont que le bras commercial d’échanges de produits, tels les magasins et les restaurants. Même avec Amazon et le commerce en ligne, il n’y a rien de plus local que les services de distribution 11 . Et dans l’avenir, de plus en plus de firmes modestes on-line vont agir comme Uber et les Gafam, mais à un niveau plus local, plus territorialisé, et plus contrôlable par les États. On peut mentionner les exemples d’applications locales concurrentes d’Uber dans des pays européens, comme Free Now, présente dans 100 villes en Europe ; Taxi EU, qui dessert 160 villes européennes, surtout allemandes ; Gett, actif dans 100 villes d’Europe occidentale et orientale ; G7, 100 % française, qui dessert Paris, d’autres métropoles françaises et 120 villes européennes ; LeCab, utilisable à Paris et environs ; Cabify, application espagnole de taxi desservant Barcelone, Alicante, Madrid, Valence, notamment. Maints exemples existent dans d’autres secteurs : l’appli de coiffure à domicile française Popmyday, le réseau immobilier Idealista (Espagne, Italie), ou encore, dans le domaine de l’alimentation, OptiMiam, l’application française antigaspillage qui met en relation restaurateurs et consommateurs. Le retour du bilatéralisme, reflux des investisseurs internationaux et reréglementation financière À l’échelle planétaire, et si l’on sort de l’occidentalo-centrisme déformant, véritable biais cognitif, on constate que les échanges commerciaux ne se réalisent plus dans un contexte multilatéral sous le regard du tribunal de l’OMC, mais essentiellement dans le cadre d’accords bilatéraux entre États souverains, souvent méfiants vis-à-vis des accords internationaux contraignants. Ainsi, le projet de traité commercial transatlantique avait été une première tentative de bilatéralisme entre l’Europe et les États-Unis 12 . Le but n’était pas de baisser les droits de douane – désormais quasi inexistants – mais de diminuer les obstacles normatifs aux échanges. L’échec de ce traité a été contourné avec l’accord Canada-Europe qui permet aux États-Unis – eux-mêmes liés au Canada au travers de l’Alena – de mettre un pied en Europe. C’est donc plus ici du bilatéral que du multilatéral, une logique de blocs bien plus qu’une logique universelle à la Fukuyama (voir cartes n o 2, 3 et 4). Bref, des échanges économiques entre nations souveraines et blocs géocivilisationnels et des accords régionalisés entre États souverains jaloux de leurs intérêts. Plusieurs exemples montrent que les logiques nationales priment et que seuls les dindons de la farce prennent encore les accords internationaux de libre-échange pour des textes sacrés que personne n’oserait contourner ou trahir : si l’accord sur le Brexit de décembre 2020 a donné l’idée aux États-Unis de l’ex-président Trump de conclure un accord bilatéral avec le Royaume-Uni afin de poursuivre leur implantation en Europe, celui entre l’Union européenne et la Chine sur les investissements, adopté lui aussi en décembre 2020, a essentiellement permis à la Chine de contourner d’importants obstacles normatifs au commerce et aux investissements en Europe, à son seul avantage... Le passage du multilatéralisme de l’OMC au bilatéralisme avec les États-Unis, le Canada, le Royaume-Uni ou la Chine ne signifie pas nécessairement que l’Europe gagnera à ce changement de régime, mais cela démontre par la négative que Lenglet, Montebourg et Sapir, et avec eux ceux que l’on classe dans la catégorie de souverainistes, n’ont pas tort de dire qu’un patriotisme économique pourrait mieux préserver la santé des économies européennes. Tout se passe donc comme si l’Europe du XXI e , tiraillée par des intérêts nationaux différents, subissait le même sort que la Chine au XIX e avec les traités inégaux. À l’inverse, les États-Unis de Donald Trump se sont lancés dans un conflit commercial avec la Chine que Joe Biden n’a pas l’air de contredire dans les faits, intérêt national oblige... Il est vrai que l’économie américaine a un taux d’importation moins élevé que l’Europe. L’administration Biden ne peut que poursuivre cette politique, car les États-Unis sont une vraie puissance souveraine, et Joe Biden ne semble pas se laisser dicter sa conduite économique par les groupes de pression californiens de la Silicon Valley ou les Gafam, récemment recadrés et visés par des politiques de réajustement de taxes à la hausse. L’intensification des mouvements de capitaux a été le phénomène le plus marquant de la mondialisation, résultat de politiques publiques des années 1980. Cette mondialisation financière, accompagnée d’une extrême financiarisation de l’économie et de dérégulations, a donné lieu à des phénomènes incontrôlables comme les subprimes, à l’origine de la crise financière de 2008, fruit de l’irresponsabilité des gouvernements, des banques et des agences de notation. Derrière l’internationalisation de la dette publique, on trouvait alors une volonté délibérée des États d’élargir le nombre de leurs créanciers et d’attirer des capitaux étrangers, ceci dans le cadre d’un vaste mouvement de dérégulation de la finance internationale, de privatisation de facto des banques centrales et des dettes qui ont rendu les États tributaires d’intérêts financiers privés au détriment de leur souveraineté. Ce processus a connu un ralentissement en 2008. Depuis lors, tirant les leçons de la crise financière, les États et leurs banques centrales se sont appliqués à défaire les mesures de dérégulation qu’ils avaient encouragées entre 1985 et 2008. Ce mouvement de reprise en main et de rerégulation de la finance mondiale par les États a été également porté par les mécontentements des peuples scandalisés par le fait que les mêmes dirigeants qui leur ont imposé une austérité insoutenable ont sauvé des banques qui avaient précipité la crise des subprimes. Jusqu’à 2008, les géants américains des agences de notation de crédit ont fait la pluie et le beau temps, dans un contexte de dérégulation et de soumission des États aux agences et institutions de crédit privées, phénomène aujourd’hui critiqué et remis en cause. Connues pour avoir contribué à cautionner des endettements massifs d’États insolvables et coupables d’avoir falsifié leurs comptes publics, comme la Grèce, on peut citer principalement les trois grandes agences de notation Fitch Ratings, Moody’s et Standard & Poor’s (S&P), qui ont un véritable monopole dans la notation des États en matière d’endettement 13 . Ces agences détiennent à elles seules 90 % des parts de marché en Europe, selon l’Autorité européenne des marchés financiers (AEMF). La dépendance est unanimement considérée problématique, car les notes qu’elles attribuent aux titres des dettes déterminent leurs achats sur les marchés par la Banque centrale européenne. Or ces agences, fort liées aux pouvoirs et aux intérêts anglo-saxons, ont maintes fois brillé par leur manque de déontologie, notamment lors de la crise de 2008 qu’elles ont contribué à faire éclater, puisqu’elles ont accordé des notations favorables aux fonds de titrisation (subprimes), ces créances douteuses qui ont affaibli les banques et fait trébucher l’économie financière mondiale. Derrière les « Big Three », trente petites agences de notation spécialisées européennes existent, mais elles ne comptent que pour très peu et les Européens peinent à rééquilibrer cette situation léonine qui rend l’Europe vulnérable aux intérêts américains et de la mondialisation anglo-saxonne. Malgré tout, le fait que l’UE et d’autres États aient décidé de réglementer ces agences de notation est une tendance lourde depuis 2010, date à laquelle une nouvelle réglementation a été adoptée à l’échelle européenne, l’AEMF s’occupant de la surveillance des agences opérant en Europe. Celles-ci doivent désormais rendre leurs modèles et analyses publics et les obligations imposées sont désormais juridiquement plus contraignantes. De plus, un investisseur ne peut plus détenir plus de 5 % du capital de deux agences de notation différentes, et une agence ne peut plus noter une entité dont elle possède plus de 10 % du capital. Dans l’avenir, les États n’auront pas d’autres alternatives que de renforcer cette tendance et les Big Three anglo-saxonnes finiront tôt ou tard par voir leur règne disparaître. La déréglementation financière, remise en cause depuis 2018, avait consisté en une série de textes adoptés dans les années 1980 tendant à assimiler le monde des marchés (les titres échangés en Bourse) et le monde du crédit (la monnaie prêtée) qui étaient jusque-là séparés. Elle avait eu pour effet de rendre les titres presque aussi fongibles que la monnaie, grâce à leur dématérialisation (plus de titres papier) et leur valorisation permanente (principe de la fair value). Initiée au début dans un cadre national, elle s’était propagée grâce à la levée du contrôle des changes, la suppression des restrictions à la création d’entreprises par des étrangers (investissements directs) et à l’entrée d’étrangers dans le capital de sociétés existantes (investissements indirects), puis par l’autorisation, en 1985, des banques à effectuer des opérations de marché (appelé en France et en Grande-Bretagne le « big bang »). Les investissements indirects s’étaient multipliés avec l’essor des Bourses dans les années 1980. En France, la veille de la crise de 2008, la part des actionnaires étrangers frôlait les 50 % des entreprises du CAC 40, en partie issue de privatisations, et elle est tombée ensuite à 35 % après la crise. Ce ne sont toutefois pas les privatisations qui sont à l’origine de la prise de contrôle de nos entreprises par des étrangers, mais une déconnexion des marchés financiers de la sphère réelle. Ainsi, l’attrait des investisseurs internationaux pour les produits financiers des autres pays résulte du développement de « clones » de titres au travers de la pratique des produits dits « dérivés », de la « titrisation » et de la « collatéralisation 14 », trois pratiques qui permettent aux investisseurs internationaux de mettre un pied sur un marché étranger tout en pouvant le fuir rapidement en cas de crise et qui mêlent étroitement banques et marchés, dans ce que l’on appelle officiellement depuis la crise de 2008 la « finance de l’ombre » (shadow banking). Ces trois pratiques sont aujourd’hui remises en question et bien plus encadrées par les États que jadis, voire parfois prohibées. Reréglementation financière, effets du Brexit et renationalisations tous azimuts La tendance à la démondialisation a en fait commencé dès la crise de 2008 avec une vague de réglementation aux États-Unis (Dodd-Frank Act de 2012, grande loi financière d’Obama qui régulait la finance et fit réduire d’un tiers les dérivés dans le monde), puis en Europe, avec le paquet réglementaire de Michel Barnier qui a entraîné une décrue sensible, dès 2014, du volume des dérivés. La crise des subprimes a terni l’image de la titrisation qui a également décru. Quant à la collatéralisation, elle a perdu beaucoup de sens depuis que les banques centrales acceptent comme « collatéraux 15 » des titres privés moins cotés que les titres publics. Un début de séparation des banques de détail et des banques d’affaires (Volcker Rule aux EU, rapport Vickers au Royaume-Uni, lois de séparation des activités de marché françaises et allemandes) a ainsi été mis en place afin de réduire la contagion des activités de marché vers les activités de crédit. Cette séparation efface en partie les effets du big bang de 1985 et abîme la gradation continue des taux entre les crédits bancaires et les financements de marché sur laquelle se fondait l’efficacité des politiques monétaristes depuis les années 1980 jusqu’à la crise de 2008. Le Brexit a quant à lui scellé la perte d’influence de la City sur la réglementation financière européenne. En réalité, cette perte d’influence avait commencé dès 2010 avec l’arrivée de Michel Barnier au poste de commissaire au marché intérieur en remplacement du très libéral Charlie McCreevy. Une législation européenne très favorable aux contrôles a été alors mise en place sous son mandat. Paradoxalement, les Anglais se sont mis à jouer sur le même terrain et, à la suite du rapport Vickers, ont séparé notamment beaucoup plus fortement que la France et l’Allemagne les activités bancaires pour les particuliers et les PME des activités de marché. C’est comme si la suppression de la mise en concurrence de Londres, Paris et Francfort avait eu pour effet de favoriser la reréglementation dans chacun de ces pays. Le désintérêt pour la City s’est exprimé notamment dans les positions en faveur d’un hard Brexit de Boris Johnson. L’accord final négocié en décembre 2020, s’il maintient l’Angleterre dans l’Union douanière, empêche toutefois la City d’offrir ses services sur le continent. Certes, cela n’empêchera pas les capitaux du continent de traverser la Manche pour bénéficier de services financiers sur mesure, mais même sur ce terrain, on pourrait s’attendre à un retour du contrôle des changes. Sur le plan des rachats d’entreprises, la démondialisation s’exprime également par des décisions visant à protéger un marché domestique vis-à-vis de tentatives de prise de contrôle par des puissances étrangères. En France, par exemple, le rachat par le groupe canadien Couche-Tard de Carrefour, premier employeur français, a été empêché au motif de la défense de l’intérêt national. De la même manière, celui du fleuron français de la vision nocturne, Photonis, fournisseur de l’armée française, par l’américain Teledyne, a été interdit par Bercy. Les récurrents veto de l’État français sur des rachats de sociétés françaises par l’étranger ont été favorisés notamment par le décret de 2014, à l’initiative d’Arnaud Montebourg, qui soumet les achats de grandes entreprises françaises liées aux secteurs stratégiques (transports, aérospatial, high-tech, etc.) à l’autorisation de Bercy. Sur le plan européen, des voix politiques de plus en plus fortes réclament un « Buy European Act » sur le modèle du Buy American Act des États-Unis pour réserver aux entreprises européennes une part substantielle des marchés publics, systématiquement ouverts aux entreprises d’États étrangers parfois hostiles et souvent concurrents. Monétisation et nationalisation de la dette publique Un autre effet du quantitative easing des banques centrales a été de réduire l’internationalisation de la dette publique. En effet, dans le cadre des politiques monétaires, les banques centrales reçoivent traditionnellement des titres de dette publique en échange des injections de liquidité, ce que l’on appelle la collatéralisation. Or l’augmentation considérable de ces injections des banques centrales les a amenés à récupérer d’énormes quantités de dette publique. Aux États-Unis, la Fed a ainsi souscrit, en 2020, 65 % des nouvelles émissions de dette publique et ceci s’est poursuivi en 2021. Ce phénomène s’observe même au sein de la zone euro, où la BCE demande à la Banque de France de recevoir en collatéral les bons du Trésor et les OAT français, et à la Bundesbank de prendre exclusivement du Bund allemand. En zone euro, l’année 2021 devrait voir franchir le taux de 50 % de la dette publique détenue par leurs banques centrales respectives. Cette situation engendre de nombreux débats sur l’opportunité ou non d’annuler cette part de dette publique qui est en quelque sorte autodétenue. Il est probable que cette annulation se fera, sous des formes plus ou moins masquées. Par exemple, même sans éteindre la dette publique, il suffit de présenter dans les comptes nationaux les banques centrales dans la rubrique « administration publique » pour que la dette détenue par elles disparaisse des statistiques. Bien entendu, ce genre d’entourloupe risque d’entraîner l’illusion d’un refinancement indéfini de l’État à partir de la planche à billets et donc – à terme – de l’inflation, avec également des risques de variation de changes forts, ce qui va détourner les investisseurs étrangers à la recherche de placements sûrs. Cela signifie-t-il que souverainistes et marxistes étatistes et antiaustérité ont raison de dire que l’on pourra ne pas payer les dettes ? Oui ! répondent certains économistes. Mais à condition de dire clairement que ce sera la seule et dernière fois pour les cinquante ans à venir, afin de ne pas relancer les anticipations d’inflation, et tous en même temps : UE, États-Unis, Suisse, Royaume-Uni, Japon, afin de ne pas entraîner de fuites de capitaux. Flottement des changes et retour au contrôle des changes La suppression du contrôle des changes dans les années 1980 a été un puissant facteur de mondialisation. Depuis quelques années, le retour du contrôle des changes résulte en premier lieu de la lutte contre le blanchiment et le terrorisme harmonisée au niveau mondial par le Gafi à la suite des attentats du 11 septembre 2001. Il se double d’une coopération fiscale renforcée, mise en place de manière multilatérale entre les États européens et surtout de manière unilatérale, voire particulièrement intrusive, par les États-Unis avec la loi Fatca 16 . Par ailleurs, depuis décembre 2020, le Congrès américain a adopté une loi imposant aux propriétaires de sociétés-écrans de divulguer leur nom au fisc. Ces sociétés-écrans, basées aussi bien au Delaware que dans les Caraïbes, sont les coffres-forts des investisseurs en private equity. Ce contrôle des différentes formes de blanchiment et d’évasion fiscale freine les investissements étrangers privés. Seuls les investissements à l’étranger passant via des entités « régulées » comme les banques ou les grands fonds d’investissement (ces derniers sont encore peu régulés, mais devraient l’être prochainement dans le cadre de la lutte contre le shadow banking) pourront continuer, et à condition de ne plus permettre d’évasion fiscale. La suppression de la convertibilité des dollars en or en 1972 avait entraîné à partir de 1976 une brève période de flottement qui a été stoppée en 1986 par les accords du Plaza. À compter de cette date, un système de change plus ou moins fixe a été mis en place avec la constitution de zones de change fixe (rattachement des monnaies émergentes au dollar) ou à monnaie unique (création de l’euro). Cela avait, malgré les nombreuses crises de change, donné confiance aux investisseurs étrangers qui ne craignaient plus de voir leurs investissements se déprécier à la suite d’un effondrement du cours de la monnaie du pays dans lequel ils avaient investi. Cependant, ce système de change fixe a eu un coût social très élevé, notamment dans les pays émergents (crise argentine de 2001). La crise de 2009 a définitivement découragé les pays émergents à se raccrocher à une zone monétaire forte. La Chine a toujours refusé d’arrimer sa monnaie à une autre, ce qui lui a permis de pratiquer une sous-évaluation systématique de sa monnaie et donc de vendre ses produits moins cher. Les pays d’Europe de l’Est continuent pour le moment d’indexer leur monnaie sur l’euro car, en échange, ils bénéficient des délocalisations des groupes allemands et français. Mais cette délocalisation commence à refluer et les tensions peuvent remettre en cause le lien de change fixe (currency peg) avec l’euro. En 2020, les États francophones d’Afrique centrale et occidentale ont décidé d’abandonner le couplage du franc CFA à l’euro et ont créé une nouvelle monnaie commune, l’eco, qui sera à terme gérée en change flottant tant par rapport à l’euro que par rapport au dollar. La généralisation de change flottant implique une augmentation du risque de change pour les investisseurs étrangers qui retirent leurs billes, mais en même temps, une plus grande autonomie pour l’industrie locale qui peut se développer à moindres frais. Ceci participe également du processus de démondialisation car les investisseurs étrangers ont horreur du change flottant qui présente le risque de déprécier leurs actifs. L’arrêt durable des voyages d’affaires et du tourisme de masse Les voyages d’affaires et le tourisme de masse ont été stoppés net par les différents confinements. Dans les aéroports français, la fréquentation est tombée à 5 % pendant les périodes de restriction et n’est remontée qu’à 19 % pendant les périodes de déconfinement. Le recours aux téléconférences a offert aux grandes entreprises le prétexte idéal pour réduire drastiquement les frais de représentation (environ 30 % de la masse salariale des cadres). La nécessité d’adapter les aéronefs aux normes sanitaires va renchérir au moins pour plusieurs années le coût des voyages aériens. Dès mai 2020, Boeing a démantelé une grande partie de ses avions en construction et installé leurs carcasses en Arizona en attendant l’édification de nouveaux types d’avions garantissant la non-contamination. Quant à Airbus, il n’a pu tenir que grâce à ses commandes passées. Combiné avec les restrictions aux frontières (certificats de vaccination), il pourrait en résulter une diminution de long terme du tourisme transfrontalier ou tout au moins du tourisme nécessitant un transport aérien, lequel redeviendrait, comme dans les années 1970, le privilège des classes aisées et ne serait plus accessible aux classes moyennes tant d’Occident que d’Orient. La démondialisation est ici également pleinement en œuvre. 1. 1723-1790, Recherche sur la nature et les causes de la richesse des nations, livre 2, 1776. 2. Francisco Vergara, Les Fondements philosophiques du libéralisme, La Découverte, 14 février 2002. 3. Arnaud Montebourg, Votez pour la démondialisation, préface d’Emmanuel Todd, 2011. 4. François Lenglet, La Fin de la mondialisation, Paris, Fayard, 2013. 5. Paris, Seuil, 2012. 6. Oxford University Press, 2018, p. 652-665. 7. La première mondialisation remonte aux routes de la soie et à l’empire de Gengis Khan (1165-1227) puis à ses successeurs mongols au XIII e siècle. Elle s’est intensifiée avec les découvertes du Portugal et son projet d’expansion globale. La deuxième vague a commencé avec la mise en service du canal de Suez en 1869, point stratégique d’ouverture d’une nouvelle route vers les Indes. Ceci a coïncidé avec l’âge d’or de l’impérialisme européen fondé sur l’exploitation et le commerce des ressources naturelles. La troisième vague a été favorisée par l’abandon de l’étalon or par Nixon en 1971, la chute de l’ex-URSS et l’ouverture de la Chine et des pays d’Europe orientale au commerce mondial et au capitalisme. 8. Insee, comptes nationaux 2020. 9. Parlement européen : PIB de 14 000 milliards d’euros et 2 842 milliards d’importations de biens et services. 10. Banque mondiale, voir https://donnees.banquemondiale.org. 11. Amazon et Uber sont globalisées, mais la logistique est assurée de manière locale par des entrepôts et des VPC locaux. 12. Contourné par le traité avec le Canada et sans doute via le RU grâce à l’accord sur le Brexit. 13. Les dettes publiques des États développés sont cotées par les agences de notation entre AAA (Allemagne) et BBB – (Grèce). Les particuliers ont une espérance de vie de 80 ans et leur dette est moins bien cotée (par les banques prêteuses), entre simple A et B+, rarement C (en cas de surendettement) et jamais D. Les dettes des entreprises sont cotées A+ C, ou D. 14. Un dérivé consiste à créer un actif qui représente le droit d’en acheter un autre (« sous-jacent »). La titrisation consiste à créer un actif regroupant plusieurs sous-jacents. La collatéralisation (« rehypothécation ») vise à remettre temporairement en garantie un actif à un tiers qui le remettra à un autre tout en l’inscrivant à son actif. 15. Les collatéraux sont des titres d’État donnés aux banques entre elles ou à la banque centrale pour obtenir de l’argent. 16. La loi Fatca, adoptée en 2010 sous l’administration Obama, obligera certains expatriés américains à abandonner leur nationalité américaine afin de ne pas subir des peines de prison ou d’amendes disproportionnées. Conclusion Gouverner c’est prévoir, le désordre actuel était prévisible... Le 31 juillet 2019, le général Thierry Burkhard, chef d’état-major de l’armée de terre (Cemat), déclarait : « Il faut être prêt à s’engager pour un conflit de survie [...]. Le rapport de force redevient le mode de règlement des différends entre nations [...], nous devons résolument nous y préparer en gardant à l’esprit que le combat de haute intensité devient une option très probable... » Rien de très rassurant... Mais un homme – ou une nation – averti en vaut deux, d’autant que notre général précise à juste titre que « préparer la guerre ne peut souffrir aucune approximation »... Les guerres peuvent être, certes, évitées. Cependant, on a plus de chance d’y parvenir en s’y préparant – si vis pacem, para bellum – qu’en assénant des lieux communs pacifistes et multiculturalistes assortis de « nous sommes tous des citoyens du monde » ou « les frontières sont meurtrières », ce qui est d’ailleurs souvent tout le contraire car les prédateurs géopolitiques (impérialistes, totalitaires nazis ou communistes, islamistes, etc.) se nourrissent de leur absence ou de leur porosité... Cette nécessité de la préparation a été rappelée de façon tragique par la crise sanitaire, que certains ont assimilée à une guerre. Nous l’avons vu tout au cours de cet ouvrage : si la politique consiste à préserver le bien commun, donc la communauté nationale, la pérennité de la nation, de ses valeurs, de son intégrité territoriale et la sécurité de ses citoyens (les trois grandes composantes de toute entité géopolitique : territoires, population et valeurs fondamentales défendues par les institutions gouvernementales), alors la politique, comme la géopolitique, ne consiste pas seulement à gérer, comme on l’entend trop souvent (« gestion de la Cité »). Cette vision réduite, dépolitisée et, en fin de compte, bureaucratique de la politique, est loin d’être complète. Car la Politique avec un grand P consiste avant tout à prévoir, à anticiper les risques et menaces, et donc à concevoir des stratégies de long terme pour défendre la cité au sens de patrie ou de nation, et pas seulement au sens de vie politicienne ou de géographie électoraliste. Nous avons vu plus haut que dans ce domaine, les démocraties occidentales, paralysées par le court-termisme de leur vie politique très polarisée – de plus en plus soumise à la tyrannie des médias et réseaux sociaux sans contre-pouvoirs puis des lobbys ou institutions extraterritoriales –, ont le plus grand mal à défendre les intérêts de leurs citoyens. Les crises économique et financière de 2007-2008, sanitaire et économique de 2020-2021, comme les risques migratoires, les nouvelles menaces terroristes, séparatistes, fondamentalistes islamistes, sans oublier les risques environnementaux, « cyber » et autres, ont démontré depuis des années que lorsque des dirigeants ne jugent pas primordial de prévoir, c’est l’ensemble de la communauté qui finit par subir. Le même manque de prévision et d’éthique de responsabilité, pour paraphraser Max Weber, a été confirmé ces dernières décennies au niveau des institutions internationales elles-mêmes, trop souvent pavées de toutes les vertus aux yeux des multilatéralistes qui oublient qu’elles ne sont que le fruit et l’expression de la volonté « originaire » des États souverains. Ces institutions (ONU, FMI, OMS, etc.) sont instrumentalisées tantôt par les puissances souverainistes les plus proactives et les plus soucieuses de leurs intérêts nationaux, tantôt par des intérêts économiques privés et des puissances transnationalistes. Le projet de gouvernance mondiale, utopie dangereuse portée par les États-Unis, l’Union européenne et les adeptes du Village mondial, ne peut qu’accentuer la nouvelle ligne de fracture qui oppose multipolaristes et occidentalistes. Les institutions multilatéralistes ne sont pas inutiles si elles demeurent des instances de dialogue, mais elles ne remplaceront jamais les pouvoirs nationaux qui représentent les volontés et les identités des peuples souverains et qui sont la source même de leur pouvoir aucunement inamovible. Car aucun État n’est obligé de demeurer membre ad vitam aeternam d’une institution internationale, surtout si celle-ci est pilotée par des élites qui ambitionnent de réduire la souveraineté pourtant première d’un État. Même la question de l’énergie et de l’environnement en est une illustration, comme nous l’avons vu plus haut : si la Chine est devenue le leader mondial des énergies renouvelables et a mis en œuvre une stratégie de décarbonation et d’économie verte pour 2060, ce n’est pas sous pression des organisations internationales, dont elle bafoue le plus souvent ou détourne les dispositions et règles, mais par intérêt national afin d’atteindre l’autosuffisance énergétique, de ne pas succomber à la pollution de masse et de dominer l’économie mondiale de demain dont la décarbonation sera une source de croissance et d’innovations nouvelles majeures. Les dirigeants des États occidentaux n’ont pas su s’adapter à la nouvelle réalité du monde polycentrique. Ils n’ont pas anticipé la crise sanitaire alors que des rapports des services secrets français, de la CIA ou des fondations comme celle de Bill Gates avaient tiré la sonnette d’alarme depuis le milieu des années 2000. Et concernant l’islamisme radical, qui gangrène les sociétés occidentales ouvertes à tous les vents, ou l’immigration de masse hors contrôle, avec ses conséquences en termes de chocs culturels, de sécurité et de difficulté d’intégration, ces dirigeants prisonniers de leur utopie multiculturaliste et de leur court-termisme politique n’ont rien su ou voulu prévoir non plus, faute d’éthique de responsabilité et de dévotion au bien commun national. Sur le plan géopolitique mondial 1 , le même esprit de non-responsabilité et de court-termisme a contribué au désordre mondial actuel qui participe de plus en plus d’une anarchie internationale : les zones de conflit ne cessent de s’élargir, avec des arcs de crises de milliers de kilomètres, de l’Afghanistan à l’Éthiopie, du Mali à la Libye, de la Syrie à l’Ukraine, peut-être bientôt à l’Estonie (tensions accrues entre l’Otan et la Russie, voir chapitre III), de la Corée du Nord aux îles Senkaku-Diaoyu et Paracels (Chine-Japon-États-Unis et pays d’Asie du Sud-Est alliés, voir chapitres II et XI), de la République centre africaine à la Turquie, sans oublier, bien sûr, l’hyperterrorisme, fruit d’un islamisme radical longtemps encouragé par les pays occidentaux pour lutter contre l’URSS sous la guerre froide et ensuite pour endiguer la Russie et ses alliés dans les Balkans et dans le monde arabe. Les Occidentaux demeurent d’ailleurs plus que jamais les obligés des mêmes puissances islamistes économiquement alliées (Turquie, pays du Golfe, Pakistan, etc.) mais civilisationnellement ennemies... La crainte d’une escalade conduisant à un conflit généralisé est de ce fait désormais plausible. Heureusement, « le pire n’est jamais certain », et des contre-feux existent, mais l’homme et les nations agissent-ils toujours de façon rationnelle ? En dépit des indispensables précautions que tout géopolitologue doit prendre pour tenter de se projeter dans l’avenir, trois constats nous semblent donc peu discutables : le monde occidental lato sensu et l’Europe en particulier nous semblent promis, à court et moyen terme, à un indéniable déclin ; du fait de la gigantesque course technologique qui constitue un élément incontournable de la toile de fond du nouveau désordre international, les fondements séculaires de la géopolitique, de la géoéconomie et de la géostratégie mondiales sont aujourd’hui profondément perturbés ; mais le dieu Janus, en revanche, face aux grands défis décrits dans cet ouvrage et auxquels est confronté le monde contemporain, est plus que jamais présent. En d’autres termes, l’avenir à moyen terme de la planète semble s’orienter, pour de nombreux exégètes, soit vers une exacerbation des tensions qui pourrait aboutir à un troisième conflit mondial, soit, hypothèse certes plus séduisante évoquée par les disciples d’Emmanuel Kant, emprunter, sous l’égide des organisations internationales, les voies de la paix universelle. La première option, inhérente à la spécificité de l’arme nucléaire et au processus de prolifération, ne pourrait aboutir qu’à l’Apocalypse. L’autre, eu égard aux piètres résultats obtenus par les organisations internationales en général et l’ONU en particulier, nous paraît baigner au cœur de l’utopie. Alors, une troisième voie ? On peut aussi parier en changeant d’échelle, sur la réapparition au premier rang des relations internationales, des États-nations qui jouent simultanément les cartes de la Realpolitik et du soft power. Ou voir se concrétiser la prophétie (naguère vivement critiquée par maints de ses contemporains) d’un André Malraux qui déclarait que « le XXI e siècle sera spirituel ou ne sera pas ». À ce propos, le désenchantement du monde opéré en Europe depuis deux siècles et mué depuis des décennies en une déspiritualisation généralisée qui a conduit, parallèlement à l’action nihiliste de McWorld, à une anomie et donc à un vide de sens et d’identité risque de laisser la place à l’islamisme conquérant. Cette situation ne peut à son tour que favoriser l’ascension de forces radicales nationalistes identitaires qui le combattent. Ce vide moral ou cette anomie de l’Occident libéral-libertaire est probablement le pire des défis pour les sociétés européennes, dont les terres et populations, assignées à la désidentarisation et moralement affaiblies par McWorld, sont plus que jamais convoitées par les Empires turco-islamistes, chinois et américains. En fin de compte, le plus dangereux ennemi de l’Europe ne sont pas les prédateurs extérieurs chinois ou islamistes, les narcopuissances, ou l’Empire étatsunien, mais sa « volonté d’impuissance ». L’Europe, « homme malade du monde », civilisation fatiguée, lasse, complexée et désabusée, préfère-t-elle risquer de disparaître de l’Histoire plutôt que de continuer à se battre pour survivre ? Le Vieux Continent sortira-t-il de sa léthargie et conjurera-t-il le déclin prophétisé par Spengler ? Tout dépendra de la décision ou du refus des dirigeants européens de renouer avec une politique de civilisation et de souveraineté. McWorld versus Europa. 1. Aldo Giannuli, « Elogio del disordine mondiale », Limes, n o 2, 2017. Cartes géopolitiques 1/ Le « Heartland » de Halford Mackinder et le « Rimland » de Nicholas Spykman Source : Hérodote, n o 146. 2/ Les grands blocs géoéconomiques du XXI e siècle et sous-ensembles du « Bloc euro-occidental » Source : Alexandre Del Valle, Guerres contre l’Europe, Paris, Les Syrtes, 2000. 3/ Les grands blocs géopolitiques, et organisations stratégiques/géocivilisationnelles 4/ Les grandes organisations d’intégration régionale et alliances régionales 5/ Les civilisations selon Samuel Huntington Source : Samuel Huntington, Le Choc des civilisations, Paris, Odile Jacob, 1997. 6/ Tensions entre Pékin et ses voisins autour de la mer de Chine et de ses ressources 7/ Tensions géoénergétiques entre la Turquie et ses voisins en Méditerranée orientale 8/ Le projet califal de Daech (État islamique) 9/ Sultanat et califat turco-Ottomans Source : Alexandre Del Valle, La Turquie dans l’Europe. Un cheval de Troie islamiste ?, Paris, Les Syrtes, 2003. 10/ Accords du 10 novembre 2020 relatifs au conflit du Haut- Karabagh 11/ Nations turcophones d’Asie centrale et du Caucase après la disparition de l’ex-URSS 12/ Statut du nord de l’île de Chypre : territoire de l’UE et de la république de Chypre occupé par la Turquie Source : Alexandre Del Valle, Le Dilemme turc, op. cit., carte conçue par Viatcheslav Avioutskii. 13/ Rivalités géopolitiques autour des gazoducs européens et méditerranéens 14/ L’Ukraine déchirée et la place stratégique de la mer Noire et de la Crimée 15/ Pays les plus touchés par le virus de la COVID 19 Bibliographie des ouvrages cités Agnew, John, Geopolitics. Re-Visioning World Politics, Londres/New York, Routledge, 2003. Allison, Graham, Vers la guerre. L’Amérique et la Chine dans le piège de Thucydide ?, Paris, Odile Jacob, 2020. Baker, Peter, Days of Fire. Bush and Cheney in the White House, Washington, Anchor, 2013. Barber, Benjamin R., Djihad versus McWorld, Paris, Desclée de Brouwer, 1996. Bazin, Xavier, Big Pharma démasqué, de la chloroquine aux vaccins, la crise du coronavirus révèle la face noire de notre système de santé, Paris, Trédaniel, 2021. Bello, Walden, Deglobalization. Ideas for a New World Economy, New York, Zed Books, 2002. Bouthoul, Gaston et Carrère, René, Le Défi de la guerre. 1740-1974 : deux siècles de guerre et de révolution, Paris, PUF, 1976. Bouthoul, Gaston, Traité de polémologie. Sociologie des guerres, Paris, Payot, 1970. Braillard, Philippe, Théories des relations internationales, Paris, PUF, 1977. Brzezinski, Zbigniew, Le Grand Échiquier. L’Amérique et le reste du monde, Paris, Bayard, 1997. Buckley, Peter J., Enderwick, Peter et Cross, Adam R., International Business, Oxford University Press, 2018. Caillet, Romain et Puchot, Pierre, Le combat vous a été prescrit, Paris, Stock, 2017. Chevalier, Jean-Marie Geoffron, Patrice, Les Nouveaux Défis de l’énergie, Paris, Economica, 2011. Del Valle, Alexandre, Le Totalitarisme islamiste, Paris, Les Syrtes, 2002. Del Valle, Alexandre, La Turquie dans l’Europe. Un cheval de Troie islamiste ?, Paris, Les Syrtes, 2003. Del Valle, Alexandre, Le Complexe occidental. Petit traité de déculpabilisation, Paris, Toucan, 2014. Del Valle, Alexandre, Les Vrais Ennemis de l’Occident. Du rejet de la Russie à l’islamisation des sociétés ouvertes, Paris, L’Artilleur, 2016. Del Valle, Alexandre, La Stratégie de l’intimidation. Du terrorisme jihadiste à l’islamiquement correct, Paris, L’Artilleur, 2018. Del Valle, Alexandre et Razavi, Emmanuel, Le Projet. Stratégie de conquête et d’infiltration des Frères musulmans en France et dans le monde, Paris, L’Artilleur, 2019. Diaz, Xavier, « Le tsunami de la dette atteint un nouveau record mondial », L’Agefi, 18 novembre 2011. Djalili, Mohammad-Reza, Diplomatie islamique, Paris, PUF, 1989. Éthier, Diane, Introduction aux relations internationales, Montréal, Presses de l’université de Montréal, 2010. Étienne, Bruno, L’Islamisme radical, Paris, Hachette, 1987. Fukuyama, Francis, La Fin de l’histoire et le dernier homme, Paris, Flammarion, 2009. Gallois, Pierre Marie, Stratégie de l’âge nucléaire, Paris, Calmann-Lévy, 1960. Gallois, Pierre Marie, Géopolitique. Les voies de la puissance, Paris, Plon, 1990. Gallois, Pierre Marie, Le soleil d’Allah aveugle l’Occident, Lausanne, L’Âge d’Homme, 1995. Gallois, Pierre Marie, Géopolitique. Les voies de la puissance, Lausanne, L’Âge d’Homme, 1998. Gallois, Pierre Marie, La France sort-elle de l’histoire ?, Paris, L’Âge d’Homme, 1999. Gallois, Pierre Marie, Le Sang du pétrole. Les guerres d’Irak, 1990-2003, Lausanne, L’Âge d’Homme, 2002. Gallois, Pierre Marie, L’Heure fatale de l’Occident, Lausanne/Paris, L’Âge d’Homme, 2004. Geoffroy, Michel, La Nouvelle Guerre des mondes, Paris, Via Romana, 2020. Giannuli, Aldo, « Elogio del disordine mondiale », Limes, n o 2, 2017. Giblin, Béatrice (avec entre autres Avioutskii, Viatcheslav), Les Conflits dans le monde, Paris, Armand Colin, 2016. Hagège, Claude, Contre la pensée unique, Paris, Odile Jacob, 2012. Harbulot, Christian et Pichot-Duclos, Jean, La France doit dire non, Paris, Plon, 1999. Hughes, Barry B., Continuity and Change in World Politics. Competing Perspectives, 3 e éd., Upper Saddle River, NJ, Prentice Hall, 1997. Huntington, Samuel, Le Choc des civilisations, Paris, Odile Jacob, 1997. Kaplan, Robert D., La Revanche de la géographie. Ce que les cartes nous disent des conflits à venir, Paris, Toucan, 2014. Karmon, Ely et Barak, Michael, « Erdogan’s Turkey and the Palestinian Issue », Perspectives on Terrorism, vol. 12, n o 2, avril 2018. Kassis, Randa et Del Valle, Alexandre, Comprendre le chaos syrien, Paris, L’Artilleur, 2016. Kateb, Alexandre, Les Nouvelles Puissances mondiales. Pourquoi les BRIC changent le monde, Paris, Ellipses, 2011. Kepel, Gilles, Le Prophète et Pharaon. Aux sources des mouvements islamistes, Paris, Gallimard, coll. « Folio histoire », 2012. König, Claire, « L’eau, futur or bleu ? La mer d’Aral et son évolution en Asie centrale », Futura-Sciences, 3 juin 2016. Kraemer, Johann-Ewald, L’Euro. Dans les coulisses de la monnaie unique, Paris, Les Syrtes, 2001. Kupchan, Charles, The End of the American Era. US Foreign Policy and the Geopolitics of the Twenty-First Century, New York, Knopf, 2002. Lacoste, Yves, Dictionnaire de géopolitique, Paris, Flammarion, 2002. Lacoste, Yves, Géopolitique. La longue histoire d’aujourd’hui, Paris, Larousse, 2006. Lenglet, François, La Fin de la mondialisation, Paris, Fayard, 2013. Mackinder, Halford John, « Le pivot géographique de l’Histoire », The Geographical Journal, vol. 23, n o 4, avril 1904, p. 421-437. McLuhan, Marshall, The Gutenberg Galaxy. The Making of Typographic Man, Toronto, Canada, University of Toronto Press, 1962. Merry, Robert W., Sands of Empire. Missionary Zeal, American Foreign Policy, and the Hazards of Global Ambition, New York, Simon & Schuster, 2005. Milanovic, Branko, Inégalités mondiales. Le destin des classes moyennes, les ultra-riches et l’égalité des chances, Paris, La Découverte, 2019. Minc, Alain, La Mondialisation heureuse, Paris, Pocket, 1999. Montebourg, Arnaud, Votez pour la démondialisation, Paris, Flammarion, 2011. Nikonov, Viatcheslav, Comprendre la Russie, Paris, Apopsix, 2018. Pitron, Guillaume, La Guerre des métaux rares. La face cachée de la transition énergétique et numérique, Paris, Les Liens qui libèrent, 2018. Pourtier, Roland, Afriques noires, Paris, Hachette, 2001. Quatrepoint, Jean-Michel, Le Choc des empires. États-Unis, Chine, Allemagne : qui dominera l’économie-monde ?, Paris, Gallimard, 2014. Ross, Michael L., The Oil Curse. How Petroleum Wealth Shapes the Development of Nations, New York, Paperback, 2012. Sapir, Jacques, La Démondialisation, Paris, Seuil, 2012. Schooyans, Michel, Le Crash démographique, Paris, Le Sarment-Fayard, 1999. Soppelsa, Jacques, Des tensions et des armes, Paris, PUF, 1984. Soppelsa, Jacques, Lexique de géopolitique (en coll.), Paris, Dalloz, 1997. Soppelsa, Jacques, Les Dates-clefs du dialogue régional en Amérique latine, Paris, Ellipses, 2002. Soppelsa, Jacques, Les États-Unis. Une histoire revisitée, Paris, La Martinière-Seuil, 2004, 413 p. Soppelsa, Jacques, Géopolitique du monde contemporain, Paris, Nathan, 2008. Soppelsa, Jacques, Les Sept Défis capitaux du nouvel ordre mondial, Paris, A2C Médias, 2009. Thual, François, La Crise du Haut-Karabakh. Une citadelle assiégée ?, Paris, PUF, 2002. Touati, Marc, Un monde de bulles, Paris, Bookelis, 2018. Vernier, Éric, Technique de blanchiment et moyens de lutte, Paris, Dunod, 2017. Wallerstein, Immanuel, « Globalization or the Age of Transition? A Long-Term View of the Trajectory of the World System », International Sociology, vol. 15, n o 2, 2000, p. 251-267. Yégavian, Tigrane, Les Diasporas turque et azerbaïdjanaise de France : instruments au service du panturquisme, rapport n o 27 du CF2R. Zeller, Louis-Marie et Alidra, Wassim, « Terres rares : des enjeux de la transition énergétique aux enjeux géopolitiques ? », Les Jeunes IHEDN, octobre 2019. Ziegler, Jean, La Haine de l’Occident, Paris, Albin Michel, 2008. Index des noms propres Abdallah al-ash-Sheikh, Suleiman (ibn) 162 ‘Abd al-Wahhāb, Muhammad (ibn) 162, 201 Aboud Rogo, Mohammed 201 Ahmadinejad, Mahmoud 213 al-Adnani, Abou Mohammed 173 al-Assad, Bachar 70, 83, 96, 109, 171-172, 197 al-Baghdadi, Abou Bakr (calife) 174 al-Banna, Hassan 158-159, 408 Allison, Graham 42, 46, 48-49, 55, 114, 497 al-Maqdissi, Abou Muhammed 192, 201 al-Masri, Abou Mohammed 177 al-Qardaoui, Youssef 196, 408 al-Qarni, Ayid 407 al-Salbi al-Mawla, Amir Mohammed Saïd 174 al-Shugairi, Ahmad 408 al-Souri, Abou Moussab 167, 191 al-Turkmani, Abou Omar 174-175 al-Zawahiri, Ayman 177 Atran, Scott 173, 201 Avioutskii, Viatcheslav 78, 493, 498 Ban Ki-Moon 198 Barber, Benjamin 18, 27, 42, 52-55, 155, 388, 497 Barnier, Michel 474 Bello, Walden 456, 497 Ben Laden, Hamza 175-176 Ben Laden, Oussama 176, 178, 188 Benyettou, Farid 162, 201 Bertrand, Badie 20, 375 Biden, Joe 53, 77-78, 80-81, 97, 215-216, 229, 243, 294-296, 300, 308, 316, 337, 389, 417-418, 421, 435-436, 438, 455-456, 464, 470 Bourguiba, Habib 146 Bouteflika, Abdelaziz 194 Bouthoul, Gaston 61, 73, 94, 341, 360-361, 364, 374, 497 Branko, Milanovic 499 Brzezinski, Zbigniew 21, 30-31, 37, 42, 46-48, 55, 81, 110-111, 117, 497 Burkhard, Thierry 1, 56, 481 Bush, George H. 41-42, 228 Bush, George W. 42, 45, 90, 102-104, 228, 235, 289 Cabirol, Michel 235 Carrère, René 61, 94, 497 Carter, Ashton 108 Carter, Jimmy 35, 227 Castro, Fidel 191 Charlie, McCreevy 474 Chávez, Hugo 406 Chevalier, Jean-Marie 497 Churchill, Winston 35, 41 Clinton, Bill 35, 42, 44 Cody, Wilson 279 de Gaulle, Charles 35, 309, 373 Del Valle, Alexandre 37, 55, 94, 112, 138, 201, 285, 337, 488, 492-493, 497-498 de Maillard, Jean 237, 285 Denécé, Éric 57, 94, 281, 285 Dicko, Mahmoud 185 Disraeli, Benjamin 56 Dunford, Joseph 107 Duroselle, Jean-Baptiste 42, 114 El Chapo (Joaquim Guzmán) 252, 254, 285 El Karoui Hakim 168 El Mencho (Nemesio Oseguera Cervantes) 255 Eltsine, Boris 67, 95, 101, 125, 228, 256 Erdoğan, Recep Tayyip 15, 24, 57, 59, 63, 70, 73, 78, 94, 158-159, 175, 197, 199-201, 269, 272, 285, 327, 332-333, 402, 404-405, 498 Étienne, Bruno 159, 498 Freeman, Morgan 337 Frezat, César 235 Friedman, Thomas 19, 26, 112, 155 Fukuyama, Francis 19, 37, 41, 43-44, 46, 48, 55, 125, 469, 498 Galacteros, Caroline 113, 126, 138 Gallois, Pierre Marie 24, 32, 36-37, 61, 91, 122, 130, 138, 202, 206-207, 226, 235, 498 Gates, Bill 423-424, 428, 452, 483 Gazzane, Hayat 285 Gengis, Khan 479 Georgieva, Kristalina 412, 419 Gomart, Thomas 420 Gorbatchev, Mikhaïl 220, 228 Grézaud, Pierre-Xavier 285 Haftar, Khalifa 83, 175 Hagège, Claude 139, 151, 498 Harpon, Mickaël 167 Haski, Pierre 285 Hassan II 373-374 Hitler, Adolf 168 Hughes, Barry 156, 161, 200-201, 498 Huntington, Samuel 21, 28, 42, 48-52, 55, 74, 87, 94, 114, 125, 356, 462, 489, 498 Hussein, Saddam 91, 201 Ibrahim Boubacar Keïta (IBK) 85, 185 James, Deborah 108 Jong-un, Kim 89, 91, 205 Kadhafi, Mu’ammar 83, 91, 182 Kaplan, Robert D. 21, 37, 498 Kassis, Randa 498 Kennan, George 48, 111-112 Kennedy, Paul 41-42, 55, 114 Kerchove, Gilles (de) 163, 403 Khamenei, Ali (guide) 406 Khomeiny, Rouhollah (ayatollah) 194 Kissinger, Henry 129, 222, 375, 419 Koufa, Hamadoun 187 Kozyrev, Andrei 101 Kupchan, Charles 116, 138, 499 Lacoste, Yves 32, 37, 499 Lagarde, Christine 285 Laqueur, Walter 189-190, 201 Live Matters Blacks 115 Luttwak, Edward 116 Macron, Emmanuel 78, 97, 161, 197, 199, 405-406 Maduro, Nicolás 395-396, 406 Mahathir, bin Mohamad 402, 405 Ma, Jack 54-55, 416 Malraux, André 51, 146, 485 Mao, Zedong 191, 204 Mawdoudi, Abou Ala (al) 158-159 McFaul, Michael 103 Meng, Wanzhou 413 Merkel, Angela 197, 272, 308, 442 Merry, Robert W. 125, 138, 499 Michari, Rachid al-Alafassi 408 Monnet, Bertrand 285 Montaigne, Institut 168, 374, 407, 419 Naji, Abou Bakr 167, 170, 184, 201 Nataf, David 394 Nogueroles, Jean-Michel 360, 374 Nye, Joseph 41 Obama, Barak 42, 44-45, 53, 78, 99-100, 214, 228, 294-295, 305, 458, 474, 479 Paty, Samuel 193, 200, 405-406 Pécresse, Valérie 372 Pérez, Juan Martín 266 Pitron, Guillaume 337, 499 Pons, Noël 236 Poutine, Vladimir 16, 48, 69, 72-73, 76, 78-79, 81, 95, 97, 100-105, 107, 109, 112, 121, 228, 234, 348, 431 Qutb, Sayyid 158-159, 201 Ramadan, Hani 408 Ramadan, Tariq 408 Reagan, Ronald 55, 220 Reza Djalili, Mohammad 156-157, 201, 498 Rhoda, Weeks-Brown 239, 285 Rice, Condoleezza 105, 112, 137 Ross, Michael 93-94, 499 Salih al-‘Uthaymin, Muhammad (ibn) 162 Sanders, Bernie 453 Santo, Vincenzo 272-273 Sauvy, Alfred 341, 372 Schooyans, Michel 346, 374, 499 Sékou, Amadou Barryi 201 Senghor, Léopold Sédar 146 Sihanouk, Norodom 146 Smith, Adam 453 Soppelsa, Jacques 37, 55, 94, 235, 374, 499 Stefanini, Patrick 368, 374 Stoian, Karadeli Andreea 430 Tamim, Al Thani 406 Tedros, Adhanom Ghebreyesus 427 Touati, Marc 440, 442-443, 452, 500 Tribalat, Michèle 364, 366-367, 374 Trump, Donald 37, 42, 53, 89, 91, 97, 100, 114-115, 135, 214-216, 232, 243, 293-297, 306, 308, 316, 402, 404-405, 407, 411-413, 417-418, 426, 436, 453, 456-457, 464, 470 Vernier, Éric 236-237, 253, 264-266, 281-283, 285, 500 Wallerstein, Immanuel 500 Warren, Christopher 44 Waszczykowski, Witold 108 Weber, Max 482 Work, Robert 109 Xi Jinping 16, 48, 80, 124, 137, 297-299, 316, 425-427 Zarqaoui, Abou Moussa al- 174, 192, 201 Zelensky, Volodymyr 78, 97-98 Zhihao Zhang 452 Ziegler, Jean 130-131, 138, 500 Remerciements Nous tenons à remercier tous ceux qui ont contribué, directement ou indirectement, à la réalisation de cet ouvrage : l’entrepreneur M. Y. Maestroni ; Patricia Mamet, membre honoraire du CESE ; les professeurs Viatcheslav Avioutskii – géopolitologue disciple d’Yves Lacoste, spécialiste de l’espace ex-soviétique –, Éric Vernier – directeur de l’école de commerce Iscid-Co, spécialiste des questions de blanchiment –, Drissa Kananbayé – chercheur à l’ULB, expert du Sahel et du djihadisme –, Turab Gurbanov ; Simon Petermann ; puis Éric Dénecé, président du Centre français de recherche sur le renseignement (CF2R) ; Jean-Ewald Kramer, haut fonctionnaire international ancien de la BCE ; Vincent Sinacola, ingénieur-chercheur ; Tigrane Yégavian, géopolitologue du Caucase et contributeur de la revue Conflits ; Edoardo Secchi, économiste et président d’Italy-France Group ; et Guglielmo Janello. Leurs conseils, apports, aides à la relecture et suggestions ont été précieux. |
DOCUMENTS DE 2000 CARACTERES AU MAXIMUM | TP N°1 D’EDUCATION A LA PAIX Le Mahatma GANDHI KRAME KADURHA David (Matricule : 14167) Tech 1 - Génie Informatique Le 21 Août 2022 0.1 Introduction Le Mahatma Gandhi ! Qui ne connaît pas ce grand homme ? Sa pensée est connue et citée partout au monde. Plus d’un sont les hommes, et pas des moindres, qui se réclament de sa pensée. Il demeure une icône centrale de la non-violence et en est sans doute un parfait pionnier. La force de sa personnalité et des idées qu’il défend réside, non seulement en leur beauté mais surtout en leur pouvoir transformateur. Sa pratique d’une philosophie constamment mise à l’épreuve le distingue des idéalistes purs. Mais sa pensée toujours justifiée par des grands idéaux, le rapproche encore paradoxalement des idéalistes modérés. Son impact sur le monde a largement dépassé sa seule terre natale. 0.2 Brève biographie de Gandhi [1, 2] Mohandas Karamchand Gandhi est un dirigeant politique indien, important guide spirituel et icône de la non-violence. Né à Porbandar (Gujarat) le 2 octobre 1869 et mort assassiné à Delhi le 30 janvier 1948, il est communément connu et appelé en Inde et dans le monde comme Mahatma Gandhi (grande âme). Toutefois, il refusera le titre de Mahatma durant toute sa vie. Comme il a été élevé dans les valeurs hindouistes, il apprend à connaître les autres religions et la tolérance envers elles. D’ailleurs, la Baghavad-Gita est un texte de l’hindouisme qui aura une très grande influence sur lui. Suivant les coutumes de sa caste, il s’est marie à l’âge de 14 ans avec Kasturbai qui restera son épouse jusqu’à sa mort en 1942. Après ses études de droit à Londres, Gandhi est retourné dans son pays mais les affaires juridiques n’y tournent pas très bien pour lui. En 1893, il est employé comme conseiller juridique pour une société indienne en Afrique du Sud. Il y découvre comment les noirs ainsi que les indiens y sont privés de nombreux droits civiques et sont victimes de l’intolérance et du racisme. Il entreprend alors, pendant les vingt années qui suivent, un combat de résistance non violente et de non-coopération face aux autorités d’Afrique du Sud. Influsencé par l’écrivain américain Henry David Thoreau (1817-1862), il développe en 1909 ses théories du combat par la non-violence et la désobéissance civile de masse, la 2 0.3. PREMIERS PAS DANS LA NON VIOLENCE [?, ?] satyagraha, dans un ouvrage intitulé Hind Swaraj. L’Afrique du Sud a été à la foiscomme un terrain de croissance, de mûrissement, mais aussi de mise en pratique préparatoire des théories de non violence qu’il mettait au point. Ayant obtenu des avancées significatives en 1914 de la part du gouvernement sud-africain, Gandhi retourne en Inde, qu’il parcourt pour mieux la connaître. Après la Première Guerre mondiale, Gandhi, vite rejoint par des millions d’Indiens, s’oppose aux Britanniques en organisant la résistance civique et des campagnes de non-coopération (boycott des autorités, des tribunaux et des écoles,...). Gandhi conduisit ensuite aussi la marche du sel, célèbre opposition à la taxe sur le sel, et pendant la seconde guerre mondiale, refusant de soutenir les Britanniques sans la contrepartie d’indépendance immédiate, il lance un appel pour que ceux-ci quittent l’Inde : Quit India. Il s’ensuit la plus radicale révolte pour l’indépendance et de terribles répressions. Il fut emprisonné plusieurs fois en Afrique du Sud et en Inde pour ses activités ; il passa en tout six ans en prison. L’Inde accède finalement à l’indépendance le 15 Août 1947 malgré sa partition en Inde et Pakistan (partition à laquelle Gandhi s’oppose de toutes ses forces mais est obligé de l’accepter pour garantir la paix intérieure). Il ne peut empêcher le déchaînement de violence entre les musulmans et les hindous et meurt assassiné le 30 janvier 1948 par un fanatique hindou. Les combats non violents de Gandhi pour la défense des droits de l’homme eurent une influence importante sur les mouvements de libération et de défense des droits civiques dans le monde entier, notamment pour les noirs en Amérique du Nord avec Martin Luther King. Gandhi est reconnu comme le Père de la Nation en Inde, où son anniversaire est une fête nationale. Cette date a également été déclarée « Journée internationale de la non-violence » par l’Assemblée générale des Nations unies en 2007. 0.3 Premiers pas dans la non violence [1, 3] Lorsque Gandhi débarqua en Afrique du Sud, au mois de mai 1893, il avait uniquement pour mission de gagner un procès, de se procurer un peu d’argent et, peut-être, en fin de 3 compte, de commencer sa carrière : « Je tente ma chance dans l’Afrique du Sud. » Le procès exigeait la présence de Gandhi à Prétoria, capitale du Transvaal. On acheta pour lui à Durban un billet de première classe et il prit le train pour un voyage de nuit. A Maritzbourg, un blanc entra dans le compartiment et, voyant l’intrus à peau brune, se retira pour reparaître un moment plus tard avec deux employés du chemin de fer qui ordonnèrent à Gandhi de déménager dans le fourgon. Gandhi protesta en disant qu’il avait un billet de première. Cela ne fit aucun effet. Il fallait qu’il sortît. Il refusa et resta. Alors on alla chercher un policier qui le jeta dehors avec ses bagages. Gandhi aurait pu rentrer dans le train et trouver une place dans le wagon de troisième. Il préféra rester dans la salle d’attente. Il faisait froid dans ces montagnes. Son pardessus était dans sa valise que retenaient les gens de la gare; par peur d’être de nouveau injurié, il n’alla pas le réclamer. Il resta là assis toute la nuit, grelottant et dépité. Devait-il retourner aux Indes? Cet épisode était le reflet d’une situation bien plus importante. Fallait-il en prendre son parti ou simplement chercher une réparation pour son injure personnelle, terminer le procès et retourner chez lui dans l’Inde? Il s’était heurté au terrible fléau du préjugé de la couleur. Son devoir était de le combattre. Fuir en abandonnant ses compatriotes dans cette mauvaise situation aurait été lâche. Bien des années après, aux Indes, le Dr John R. Mott, un missionnaire chrétien, demanda à Gandhi : « Quelles ont été les expériences les plus décisives de toute votre vie? » En réponse, Gandhi lui raconta ce qui s’était passé cette nuit-là à la gare de Maritzbourg. Au cours de cette nuit glaciale à Maritzbourg le germe, de la protestation sociale était né en Gandhi. Mais il ne fit rien encore. Il poursuivit son travail à Prétoria. Une fois son procès terminé, Gandhi retourna à Durban et se prépara à prendre le bateau pour les Indes. Il avait séjourné dans l’Afrique du Sud douze mois environ. Avant son départ, ses associés donnèrent en son honneur une fête d’adieu. Pendant cette fête quelqu’un lui remit le Natal Mercury du jour, où il découvrit un bref écho concernant une loi proposée par le gouvernement de Natal en vue de priver les Indiens du droit d’élire les membres du corps législatif. Gandhi comprit la nécessité de résister à cette tendance. Ses amis y étaient 4 0.3. PREMIERS PAS DANS LA NON VIOLENCE [?, ?] disposés, mais sans lui, disaient-ils, « ils étaient ignorants, incapables et sans force ». Il consentit à rester un mois de plus. Il resta vingt ans, luttant pour la défense des droits des Indiens. Il remporta la victoire. Au début de la Deuxième Guerre des Boers, en 1899, Gandhi déclare que les Indiens doivent soutenir l’effort de guerre s’ils veulent légitimer leur demande de citoyenneté. Il organise un corps d’ambulanciers volontaires de 300 Indiens libres et de 800 coolies indiens, appelé le Indian Ambulance Corps, une des rares unités médicales qui secouraient les Sud-Africains noirs. Gandhi lui-même est porteur de civière à la bataille de Spion Kop. Il est décoré à cette occasion. Malgré tout, à la fin de la guerre, la situation des Indiens ne s’améliore pas, et continue même à se détériorer. En 1906, le gouvernement du Transvaal vote une nouvelle loi demandant l’enregistrement de toute la population indienne. Lors d’une rencontre de protestation à Johannesbourg le 11 septembre 1906, Gandhi met en pratique pour la première fois sa méthodologie du satyagraha (attachement à la vérité), ou protestation non violente, dont il avait exposé la théorie en 1904. Il appelle ses compagnons indiens à défier la nouvelle loi et à subir les punitions qui en résulteraient au lieu de résister par la violence. Il s’inspire en cela des préceptes, de son ami indien Shrimad Rajchandra, un ascète jaïn avec lequel il correspond jusqu’à la mort de celui-ci, et considéré comme son premier maître spirituel. Ce plan est adopté, ce qui mène à une lutte de sept ans au cours de laquelle des milliers d’Indiens et de Chinois sont emprisonnés (incluant Gandhi lui-même en de nombreuses occasions), fouettés ou même abattus pour avoir fait grève, refusé de s’enregistrer, brûlé leur carte d’enregistrement ou avoir résisté de manière non violente. C’est durant cette période que Gandhi entame une correspondance avec Léon Tolstoï, où ils échangent leurs vues sur la non-violence et la politique globale jusqu’à la mort de l’écrivain russe. La désobéissance civile culmine en 1913 avec une grève des mineurs et la marche des femmes indiennes. Bien que le gouvernement sud-africain réprime les manifestants indiens avec succès, l’opinion publique réagit violemment aux méthodes extrêmement dures employées contre les manifestants asiatiques pacifiques. Finalement le général Jan Christiaan Smuts est forcé de négocier un compromis avec Gandhi. Les mariages non chrétiens redeviennent 5 légaux et une taxe de trois livres qui représentait six mois de salaire, imposée aux Indiens qui voulaient devenir des travailleurs libres (c’est-à-dire les coolies), est abolie. C’étaient ses débuts dans la lutte non violente. L’Afrique du sud a servi de premier plateau d’application des principes qui mûrissaient en lui. 0.4 Approche de la lutte non violente [4, 5] La puissance du Mahatma prenait racine dans l’action. Il ne demandait jamais à quiconque de faire quoi que ce soit qu’il ne faisait pas lui-même. Il ne faisait que ce qu’il croyait devoir faire. Les exemples sont nombreux : la marche du sel, le rouet, le satyagraha, la destruction des vêtement de style européen, la libération des femmes et des intouchables... Il entraînait des millions de personnes dans son action. Il ne prêchait pas, il agissait, il faisait ce qu’il croyait devoir faire et les foules le suivaient par milliers, par million ou par centaines de millions. La pensée de Gandhi n’émerge pas de manière spontanée. Elle se nourrit notamment des ouvrages de Henry David Thoreau, de Léon Tolstoï ou encore de John Ruskin. Gandhi ne peut que se reconnaître dans l’expérience de Thoreau, incarcéré parce qu’il refusait de payer tout impôt à un État esclavagiste et portant la guerre au Mexique. Il reprend à son compte l’idée de désobéissance civile, laquelle résonne avec les moyens de lutte qu’il adopte en Afrique du Sud pendant le combat contre les lois sur l’immigration. Il la transforme aussi. Non sans grandes difficultés, il cherche à en faire une pratique collective. Il désire, en outre, la disjoindre absolument de toute violence, alors que l’écrivain américain, Thoreau, sans être un apôtre de la violence, n’hésitait aucunement à justifier son usage. Sur cette question, c’est l’influence de Tolstoï que l’on perçoit. Ne laissant planer aucun doute à ce propos, Gandhi affirme : « Lorsque je suis allé en Angleterre, j’étais un défenseur de la violence, je croyais en elle, et aucunement en la non-violence. Mais après que j’ai lu Le Royaume de Dieu est en vous de Tolstoï, cette absence de foi en la nonviolence s’est volatilisée. » En 1909, les deux hommes échangent quelques lettres. Dans la dernière de celles-ci, le romancier russe offre une véritable consécration à l’entreprise de 6 0.4. APPROCHE DE LA LUTTE NON VIOLENTE [?, ?] son correspondant : « Votre activité au Transvaal (Afrique du Sud), pays qui semble être aux confins de la Terre, est une réalisation centrale, l’accomplissement le plus important parmi tous ceux qui ont actuellement lieu dans le monde. » Quelque temps plus tard, Gandhi baptisera « ferme Tolstoï » son second projet de vie communautaire. On en arrive à Ruskin. Unto This Last est pour Gandhi une révélation. L’ouvrage le pousse à quitter la ville pour la campagne. En 1904, avec son ami Hermann Kallenbach, il acquiert à cette fin plusieurs hectares de terrain près de Durban et crée la communauté de Phoenix. Il s’agit là de faire l’expérience d’une vie collective où la simplicité règne. Les positions que chacun occupe au sein de la société doivent s’effacer, le travail agricole et artisanal doit acquérir une place centrale. Les locaux d’Indian Opinion sont aussi installés à cet endroit. Au fil des textes, on verra le choix d’un tel mode de vie se joindre à l’argumentaire sur le combat non violent ; il sera présenté comme son aspect constructif. Ces auteurs, Gandhi ne se contente pas de les lire : il étaie ses arguments en les citant abondamment et traduit certaines de leurs œuvres en gujarati. La traduction, chez Gandhi, n’est pas simplement une pratique textuelle, c’est aussi l’une des opérations fondamentales grâce auxquelles les concepts s’affinent et la pensée chemine. Pour qualifier la lutte qu’il invite à mener en Afrique du Sud, il parle d’abord de « résistance passive ». Mais l’expression, selon lui trop étriquée, a des connotations ambiguës : elle semble désigner « l’arme des faibles ». Invoquer, à l’instar de Thoreau, la « désobéissance civile » s’avère plus pertinent. Une telle appellation, néanmoins, malgré le génie de son auteur, ne suffit pas à décrire toute la portée de la révolte en cours. Comme « résistance passive », en outre, elle provient de la langue des colons. Si Gandhi utilise abondamment l’anglais, c’est à son grand dam ! Le respect de sa langue maternelle et de la pensée qui s’y déploie lui commande de ne pas employer de termes qui ne s’y laisseraient traduire. Gandhi organise donc en 1907, prix à la clef, un concours dans lequel il invite à trouver des équivalents à « résistance passive », « désobéissance civile » et leurs dérivés. L’appel est lancé, en gujarati, dans Indian Opinion. Avec sa précision de juriste, Gandhi commente l’ensemble des propositions qui lui sont faites, et n’en retient qu’une : la sienne. Satyagraha [être arrimé à la vérité], ainsi seront condensés en un mot les multiples aspects de la lutte non violente qu’il entend mener. Ironie de l’histoire, celui-là sonnera si juste à ses oreilles 7 que fréquemment, lorsqu’il s’exprimera en anglais, il le restituera tel quel. Il en viendra même à distinguer satyagraha et désobéissance civile, invitant à imaginer le premier comme un arbre et la seconde comme l’une de ses multiples branches. En bref donc, par satyagraha on entend le refus de se soumettre à une loi, un règlement ou aux autorités, tout en menant un combat et une action pacifiques. Le but d’une « action de satyagraha » est de vaincre l’injustice et de se libérer de l’oppresseur. L’idéologie non violente de Gandhi revient à rejeter tout ce qui détruit la personne humaine. Pour ce faire, elle emprunte plusieurs voies : la vérité, la justice, l’amour et le sacrifice de soi. Cette forme de résistance a été instaurée par Gandhi afin de lutter pour la libération de son peuple face à la couronne britannique et de la diaspora indienne, victime d’apartheid, en Afrique du Sud. Gandhi perçoit la lutte armée comme un acte de barbarie car celle-ci utilise la force des armes afin de faire taire l’adversaire ou de lui imposer son point de vue. Cause de souffrances et de nuisances, la violence est l’expression du mal. Elle entraîne une réplique de la part de celui qui la subit, s’engage alors un cycle infernal de violences successives. A l’inverse, la non-violence prônée par le Mahatma Gandhi est l’absence totale de malveillance à l’égard de tout ce qui vit. Par sa stratégie, Gandhi propose une autre façon de résoudre les conflits. Pourtant l’homme accorde aujourd’hui encore une plus grande confiance dans la lutte armée. Peut-on au contraire considérer avec Gandhi que la non-violence est une forme de lutte plus efficace que la lutte armée ? Selon Gandhi, la non-violence est préférable à la lutte armée évidemment car toute violence, de quelque nature qu’elle soit, est contraire à la vérité. 0.5 Retombées sur le plan politique et social [6] L’importance et l’influence de Gandhi sur le monde contemporain ne font aucun doute. Il est parmi les personnes ayant marqué le XXe siècle et cette influence ne s’est pas tarie avec le temps. Il s’agit d’une pensée riche et complexe qui n’a pas encore été totalement épuisée malgré les très nombreux commentaires dont elle n’a cessé de faire l’objet. 8 0.5. RETOMBÉES SUR LE PLAN POLITIQUE ET SOCIAL [?] Si l’on considère Gandhi comme l’homme qui a mené le pays à l’indépendance et voulait proposer un mode original de développement du pays, force est de déplorer un bilan plus que négatif. La condamnation à mort et l’exécution de ses assassins constituaient en elles-mêmes les preuves d’un rejet de ses idées. Au sens strict, l’Inde n’a adopté aucune des options politiques, économiques et sociales propres à la pensée de Gandhi : si l’on s’en tient à ce constat, on peut légitimement parler d’échec. Néanmoins, de son vivant, il a énormément réussi. De l’abolition des lois ségrégationnistes à l’égard des indiens en Afrique du Sud à l’indépendance de son pays, en passant par l’obtention d’une adoption unanime de ses vues, Gandhi a énormément aidé son peuple et l’humanité en général, par l’espoir qu’il fit renaître auprès des opprimés. La pensée de Ganghi est une inépuisable source de réflexion pour des millions de gens et, parmi ces derniers, de très nombreuses personnalités de toute sorte, qu’elles soient activistes, philosophes voire politiques. Parmi ces derniers, une figure vient immédiatement à l’esprit dont l’action et la personnalité furent inlassablement associées à Gandhi. Aux États-Unis, en effet, Martin Luther King est considéré comme une personnalité de premier plan et la pensée gandhienne est très présente dans son approche, justifiée aussi par les évangiles. Il fut impliqué dans le mouvement d’émancipation des noirs américains et y joua un rôle remarquable. On peut également évoquer Nelson Mandela, une autre grande figure de la non violence et de la libération des peuples. Ainsi, l’héritage de Gandhi n’est pas moindre. Une autre grande figure, et pas des moindres, inspiré fortement de la pensée gandienne est léconomiste Ernst Friedrich Schumacher. Selon Schumacher, l’économie doit se plier aux besoins de la nation et le libéralisme n’est pas adapté aux pays en développement. Elle doit aussi tenir compte de l’ensemble des ressources de la planète et c’est ainsi qu’il fut un des premiers à parler de « développement durable », concept qui fait florès aujourd’hui. Gandhi, poursuit-il, proposait trois remèdes à la maladie de l’économie : taille réduite (smallness), simplicité et non-violence. Et il prend pour autre fondement ce principe énoncé par Gandhi lui-même : « La Terre fournit assez pour satisfaire les besoins de chaque homme, mais pas pour l’avidité de chacun ». C’est encore Gandhi qui considérait qu’il fallait privilégier la production pour les masses davantage 9 que la production de masse. Schumacher montre surtout que les principes gandhiens de l’économie fondent les besoins de l’économie moderne pour un développement durable. Il faut, par exemple, recentrer le transport et la distribution sur le local pour éviter des coûts humains et environnementaux excessifs. Comme déjà mentionné, Gandhi a toujours été une source d’inspiration sans précédent pour tout adepte de la non violence et l’écho de sa pensée est toujours présent aujourd’hui. Bien que sa pensée ne s’applique explicitement ni directement par ceux qui se réclament de lui, c’est une icône mondiale centrale dans la lutte non violente. 0.6 Conclusion La pensée de Gandhi est très profonde et ne se limite pas à l’aspect pratique qui l’a accompagnée. En fait, au-delà d’être une pensée en mouvement, une pensée mise directement en pratique par son auteur, la pensée gandhienne est tout d’abord une idéologie forte. Cette pensée tient beaucoup plus compte de la source profonde des principes véhiculées que de leur mise en pratique qui peut être victime des aléas de la vie. Toute la pensée de Gandhi tourne autour de la vérité. Il dit d’ailleurs que, s’il devait choisir entre non-violence et vérité, il choisirait cette dernière en lieu et place de celle-là [5]. C’est en ce sens que, paradoxalement, bien que s’étant réclamé inspiré de l’hindouisme, Gandhi peut être considéré comme un disciple directe de la pensée de Jésus. |
Essai1 | Essai1 |
Entre autres : le créateur, est-ce une hypothèse crédible ou bien une crédibilité hypothétique ?Un jour, j'étais en vacances à Paris.
C'est à ce moment là que j'ai découvert que le monde devait être appréhendé différemment.
Entre autres : le créateur, est-ce une hypothèse crédible ou bien une crédibilité hypothétique ? | Un jour, j'étais en vacances à Paris. C'est à ce moment là que j'ai découvert que le monde devait être appréhendé différemment. En effet, tout ce qui bouge, tout ce qui respire, tout ce qui vit perçoit ce monde à sa façon. Néanmoins, cette perception du monde ne peut se concevoir sans tenir compte de son créateur. Cette dernière affirmation soulève malheureusement un très grand nombre d'interrogations qui méritent d'être satisfaites. Entre autres : le créateur, est-ce une hypothèse crédible ou bien une crédibilité hypothétique ?Un jour, j'étais en vacances à Paris. C'est à ce moment là que j'ai découvert que le monde devait être appréhendé différemment. En effet, tout ce qui bouge, tout ce qui respire, tout ce qui vit perçoit ce monde à sa façon. Néanmoins, cette perception du monde ne peut se concevoir sans tenir compte de son créateur. Cette dernière affirmation soulève malheureusement un très grand nombre d'interrogations qui méritent d'être satisfaites. Entre autres : le créateur, est-ce une hypothèse crédible ou bien une crédibilité hypothétique ?Un jour, j'étais en vacances à Paris. C'est à ce moment là que j'ai découvert que le monde devait être appréhendé différemment. En effet, tout ce qui bouge, tout ce qui respire, tout ce qui vit perçoit ce monde à sa façon. Néanmoins, cette perception du monde ne peut se concevoir sans tenir compte de son créateur. Cette dernière affirmation soulève malheureusement un très grand nombre d'interrogations qui méritent d'être satisfaites. Entre autres : le créateur, est-ce une hypothèse crédible ou bien une crédibilité hypothétique ?Un jour, j'étais en vacances à Paris. C'est à ce moment là que j'ai découvert que le monde devait être appréhendé différemment. En effet, tout ce qui bouge, tout ce qui respire, tout ce qui vit perçoit ce monde à sa façon. Néanmoins, cette perception du monde ne peut se concevoir sans tenir compte de son créateur. Cette dernière affirmation soulève malheureusement un très grand nombre d'interrogations qui méritent d'être satisfaites. Entre autres : le créateur, est-ce une hypothèse crédible ou bien une crédibilité hypothétique ?Un jour, j'étais en vacances à Paris. C'est à ce moment là que j'ai découvert que le monde devait être appréhendé différemment. En effet, tout ce qui bouge, tout ce qui respire, tout ce qui vit perçoit ce monde à sa façon. Néanmoins, cette perception du monde ne peut se concevoir sans tenir compte de son créateur. Cette dernière affirmation soulève malheureusement un très grand nombre d'interrogations qui méritent d'être satisfaites. Entre autres : le créateur, est-ce une hypothèse crédible ou bien une crédibilité hypothétique ?Un jour, j'étais en vacances à Paris. C'est à ce moment là que j'ai découvert que le monde devait être appréhendé différemment. En effet, tout ce qui bouge, tout ce qui respire, tout ce qui vit perçoit ce monde à sa façon. Néanmoins, cette perception du monde ne peut se concevoir sans tenir compte de son créateur. Cette dernière affirmation soulève malheureusement un très grand nombre d'interrogations qui méritent d'être satisfaites. Entre autres : le créateur, est-ce une hypothèse crédible ou bien une crédibilité hypothétique ?Un jour, j'étais en vacances à Paris. C'est à ce moment là que j'ai découvert que le monde devait être appréhendé différemment. En effet, tout ce qui bouge, tout ce qui respire, tout ce qui vit perçoit ce monde à sa façon. Néanmoins, cette perception du monde ne peut se concevoir sans tenir compte de son créateur. Cette dernière affirmation soulève malheureusement un très grand nombre d'interrogations qui méritent d'être satisfaites. Entre autres : le créateur, est-ce une hypothèse crédible ou bien une crédibilité hypothétique ?Un jour, j'étais en vacances à Paris. C'est à ce moment là que j'ai découvert que le monde devait être appréhendé différemment. En effet, tout ce qui bouge, tout ce qui respire, tout ce qui vit perçoit ce monde à sa façon. Néanmoins, cette perception du monde ne peut se concevoir sans tenir compte de son créateur. Cette dernière affirmation soulève malheureusement un très grand nombre d'interrogations qui méritent d'être satisfaites. Entre autres : le créateur, est-ce une hypothèse crédible ou bien une crédibilité hypothétique ?Un jour, j'étais en vacances à Paris. C'est à ce moment là que j'ai découvert que le monde devait être appréhendé différemment. En effet, tout ce qui bouge, tout ce qui respire, tout ce qui vit perçoit ce monde à sa façon. Néanmoins, cette perception du monde ne peut se concevoir sans tenir compte de son créateur. Cette dernière affirmation soulève malheureusement un très grand nombre d'interrogations qui méritent d'être satisfaites. Entre autres : le créateur, est-ce une hypothèse crédible ou bien une crédibilité hypothétique ?Un jour, j'étais en vacances à Paris. C'est à ce moment là que j'ai découvert que le monde devait être appréhendé différemment. En effet, tout ce qui bouge, tout ce qui respire, tout ce qui vit perçoit ce monde à sa façon. Néanmoins, cette perception du monde ne peut se concevoir sans tenir compte de son créateur. Cette dernière affirmation soulève malheureusement un très grand nombre d'interrogations qui méritent d'être satisfaites. Entre autres : le créateur, est-ce une hypothèse crédible ou bien une crédibilité hypothétique ?Un jour, j'étais en vacances à Paris. C'est à ce moment là que j'ai découvert que le monde devait être appréhendé différemment. En effet, tout ce qui bouge, tout ce qui respire, tout ce qui vit perçoit ce monde à sa façon. Néanmoins, cette perception du monde ne peut se concevoir sans tenir compte de son créateur. Cette dernière affirmation soulève malheureusement un très grand nombre d'interrogations qui méritent d'être satisfaites. Entre autres : le créateur, est-ce une hypothèse crédible ou bien une crédibilité hypothétique ?Un jour, j'étais en vacances à Paris. C'est à ce moment là que j'ai découvert que le monde devait être appréhendé différemment. En effet, tout ce qui bouge, tout ce qui respire, tout ce qui vit perçoit ce monde à sa façon. Néanmoins, cette perception du monde ne peut se concevoir sans tenir compte de son créateur. Cette dernière affirmation soulève malheureusement un très grand nombre d'interrogations qui méritent d'être satisfaites. Entre autres : le créateur, est-ce une hypothèse crédible ou bien une crédibilité hypothétique ?Un jour, j'étais en vacances à Paris. C'est à ce moment là que j'ai découvert que le monde devait être appréhendé différemment. En effet, tout ce qui bouge, tout ce qui respire, tout ce qui vit perçoit ce monde à sa façon. Néanmoins, cette perception du monde ne peut se concevoir sans tenir compte de son créateur. Cette dernière affirmation soulève malheureusement un très grand nombre d'interrogations qui méritent d'être satisfaites. Entre autres : le créateur, est-ce une hypothèse crédible ou bien une crédibilité hypothétique ?Un jour, j'étais en vacances à Paris. C'est à ce moment là que j'ai découvert que le monde devait être appréhendé différemment. En effet, tout ce qui bouge, tout ce qui respire, tout ce qui vit perçoit ce monde à sa façon. Néanmoins, cette perception du monde ne peut se concevoir sans tenir compte de son créateur. Cette dernière affirmation soulève malheureusement un très grand nombre d'interrogations qui méritent d'être satisfaites. Entre autres : le créateur, est-ce une hypothèse crédible ou bien une crédibilité hypothétique ?Un jour, j'étais en vacances à Paris. C'est à ce moment là que j'ai découvert que le monde devait être appréhendé différemment. En effet, tout ce qui bouge, tout ce qui respire, tout ce qui vit perçoit ce monde à sa façon. Néanmoins, cette perception du monde ne peut se concevoir sans tenir compte de son créateur. Cette dernière affirmation soulève malheureusement un très grand nombre d'interrogations qui méritent d'être satisfaites. Entre autres : le créateur, est-ce une hypothèse crédible ou bien une crédibilité hypothétique ?Un jour, j'étais en vacances à Paris. C'est à ce moment là que j'ai découvert que le monde devait être appréhendé différemment. En effet, tout ce qui bouge, tout ce qui respire, tout ce qui vit perçoit ce monde à sa façon. Néanmoins, cette perception du monde ne peut se concevoir sans tenir compte de son créateur. Cette dernière affirmation soulève malheureusement un très grand nombre d'interrogations qui méritent d'être satisfaites. Entre autres : le créateur, est-ce une hypothèse crédible ou bien une crédibilité hypothétique ?Un jour, j'étais en vacances à Paris. C'est à ce moment là que j'ai découvert que le monde devait être appréhendé différemment. En effet, tout ce qui bouge, tout ce qui respire, tout ce qui vit perçoit ce monde à sa façon. Néanmoins, cette perception du monde ne peut se concevoir sans tenir compte de son créateur. Cette dernière affirmation soulève malheureusement un très grand nombre d'interrogations qui méritent d'être satisfaites. Entre autres : le créateur, est-ce une hypothèse crédible ou bien une crédibilité hypothétique ?Un jour, j'étais en vacances à Paris. C'est à ce moment là que j'ai découvert que le monde devait être appréhendé différemment. En effet, tout ce qui bouge, tout ce qui respire, tout ce qui vit perçoit ce monde à sa façon. Néanmoins, cette perception du monde ne peut se concevoir sans tenir compte de son créateur. Cette dernière affirmation soulève malheureusement un très grand nombre d'interrogations qui méritent d'être satisfaites. Entre autres : le créateur, est-ce une hypothèse crédible ou bien une crédibilité hypothétique ?Un jour, j'étais en vacances à Paris. C'est à ce moment là que j'ai découvert que le monde devait être appréhendé différemment. En effet, tout ce qui bouge, tout ce qui respire, tout ce qui vit perçoit ce monde à sa façon. Néanmoins, cette perception du monde ne peut se concevoir sans tenir compte de son créateur. Cette dernière affirmation soulève malheureusement un très grand nombre d'interrogations qui méritent d'être satisfaites. Entre autres : le créateur, est-ce une hypothèse crédible ou bien une crédibilité hypothétique ?Un jour, j'étais en vacances à Paris. C'est à ce moment là que j'ai découvert que le monde devait être appréhendé différemment. En effet, tout ce qui bouge, tout ce qui respire, tout ce qui vit perçoit ce monde à sa façon. Néanmoins, cette perception du monde ne peut se concevoir sans tenir compte de son créateur. Cette dernière affirmation soulève malheureusement un très grand nombre d'interrogations qui méritent d'être satisfaites. Entre autres : le créateur, est-ce une hypothèse crédible ou bien une crédibilité hypothétique ?Un jour, j'étais en vacances à Paris. C'est à ce moment là que j'ai découvert que le monde devait être appréhendé différemment. En effet, tout ce qui bouge, tout ce qui respire, tout ce qui vit perçoit ce monde à sa façon. Néanmoins, cette perception du monde ne peut se concevoir sans tenir compte de son créateur. Cette dernière affirmation soulève malheureusement un très grand nombre d'interrogations qui méritent d'être satisfaites. Entre autres : le créateur, est-ce une hypothèse crédible ou bien une crédibilité hypothétique ?Un jour, j'étais en vacances à Paris. C'est à ce moment là que j'ai découvert que le monde devait être appréhendé différemment. En effet, tout ce qui bouge, tout ce qui respire, tout ce qui vit perçoit ce monde à sa façon. Néanmoins, cette perception du monde ne peut se concevoir sans tenir compte de son créateur. Cette dernière affirmation soulève malheureusement un très grand nombre d'interrogations qui méritent d'être satisfaites. Entre autres : le créateur, est-ce une hypothèse crédible ou bien une crédibilité hypothétique ?Un jour, j'étais en vacances à Paris. C'est à ce moment là que j'ai découvert que le monde devait être appréhendé différemment. En effet, tout ce qui bouge, tout ce qui respire, tout ce qui vit perçoit ce monde à sa façon. Néanmoins, cette perception du monde ne peut se concevoir sans tenir compte de son créateur. Cette dernière affirmation soulève malheureusement un très grand nombre d'interrogations qui méritent d'être satisfaites. Entre autres : le créateur, est-ce une hypothèse crédible ou bien une crédibilité hypothétique ?Un jour, j'étais en vacances à Paris. C'est à ce moment là que j'ai découvert que le monde devait être appréhendé différemment. En effet, tout ce qui bouge, tout ce qui respire, tout ce qui vit perçoit ce monde à sa façon. Néanmoins, cette perception du monde ne peut se concevoir sans tenir compte de son créateur. Cette dernière affirmation soulève malheureusement un très grand nombre d'interrogations qui méritent d'être satisfaites. Entre autres : le créateur, est-ce une hypothèse crédible ou bien une crédibilité hypothétique ? |
Les exemples ne manquent pas : la marche du sel, le rouet, le satyagraha, la destruction des vêtement de style européen, la libération des femmes et des intouchables… Il entraînai des millions de personnes dans son action. | Les exemples ne manquent pas : la marche du sel, le rouet, le satyagraha, la destruction des vêtement de style européen, la libération des femmes et des intouchables… Il entraînai des millions de personnes dans son action. Gandhi ne se déplaçait pas en «papamobile» à l’épreuve des balles, il n’avait comme garde du corps que deux jeunes cousines frêles et délicates et il ne portait que des sandales et un châle de coton qu’il avait filé et tissé lui-même. Il ne parlait pas ex cathedra, ne publiait pas de bulles, ni d’encycliques ni de décrets. Il ne prêchait pas - il agissait Il faisait ce qu’il croyait devoir faire et les foules le suivaient par milliers… par millions… par centaines de millions. |
La science a un contrat avec la société. Contrat qui consiste à faire avancer les connaissances. complété. "Nous voulons que tous les êtres humains, ensemble ou pris individuellement, jeunes ou vieux, riches ou pauvres, nobles ou roturiers, hommes ou femmes, puissent apprendre pleinement et devenir des êtres humains achevés" | La science a un contrat avec la société. Contrat qui consiste à faire avancer les connaissances. AMOS COMENIUS (père sprituel de l'UNESCO) : " Nous voulons que tous les êtres humains, ensemble ou pris isolément, jeunes ou vieux, riches ou pauvres, nobles ou roturiers, hommes ou femmes, puissent pleinement s'instruire et devenir des êtres achevés. Nous voulons qu'ils soient instruits parfaitement et formés non seulement sur tel ou tel point, mais également sur tout ce qui permet à l'homme de réaliser intégralement son essence. D'apprendre à connaître la vérité, à ne pas être trompé par des faux semblants. A aimer le bien, à ne pas être séduit par le mal, à faire ce qu'on doit faire et à se garder de ce qu'il faut éviter. A parler sagement de tout, avec tout le monde. Enfin, à toujours traiter les choses, les hommes et Dieu avec prudence et non à la légère. Et à ne jamais s'écarter de son but, le bonheur ". Le Galilée de l'éducation comme on le surnommait s'est posé une question à la fois très simple et très révolutionnaire. Il s'était demandé en effet : "Comment faire en sorte que tous les hommes accèdent à tout le savoir disponible ?" Comment offrir à tous un panorama complet de ce que les hommes savent ? " C'est de l'ignorance, et de l'ignorance seule que l'homme doit se libérer. " La science a un contrat avec la société. Contrat qui consiste à faire avancer les connaissances. AMOS COMENIUS (père sprituel de l'UNESCO) : " Nous voulons que tous les êtres humains, ensemble ou pris isolément, jeunes ou vieux, riches ou pauvres, nobles ou roturiers, hommes ou femmes, puissent pleinement s'instruire et devenir des êtres achevés. Nous voulons qu'ils soient instruits parfaitement et formés non seulement sur tel ou tel point, mais également sur tout ce qui permet à l'homme de réaliser intégralement son essence. D'apprendre à connaître la vérité, à ne pas être trompé par des faux semblants. A aimer le bien, à ne pas être séduit par le mal, à faire ce qu'on doit faire et à se garder de ce qu'il faut éviter. A parler sagement de tout, avec tout le monde. Enfin, à toujours traiter les choses, les hommes et Dieu avec prudence et non à la légère. Et à ne jamais s'écarter de son but, le bonheur ". Le Galilée de l'éducation comme on le surnommait s'est posé une question à la fois très simple et très révolutionnaire. Il s'était demandé en effet : "Comment faire en sorte que tous les hommes accèdent à tout le savoir disponible ?" Comment offrir à tous un panorama complet de ce que les hommes savent ? " C'est de l'ignorance, et de l'ignorance seule que l'homme doit se libérer. " |
Nous voulons qu'ils soient instruits parfaitement et formés non seulement sur tel ou tel point, mais également sur tout ce qui permet à l'homme de réaliser intégralement son essence.
D'apprendre à connaître la vérité, à ne pas être trompé par des faux semblants.
Enfin, à toujours traiter les choses, les hommes et Dieu avec prudence et non à la légère. | Nous voulons que tous les êtres humains, ensemble ou pris isolément, jeunes ou vieux, riches ou pauvres, nobles ou roturiers, hommes ou femmes, puissent pleinement s'instruire et devenir des êtres achevés. Nous voulons qu'ils soient instruits parfaitement et formés non seulement sur tel ou tel point, mais également sur tout ce qui permet à l'homme de réaliser intégralement son essence. D'apprendre à connaître la vérité, à ne pas être trompé par des faux semblants. A aimer le bien, à ne pas être séduit par le mal, à faire ce qu'on doit faire et à se garder de ce qu'il faut éviter. A parler sagement de tout, avec tout le monde. Enfin, à toujours traiter les choses, les hommes et Dieu avec prudence et non à la légère. Et à ne jamais s'écarter de son but, le bonheur. Le Galilée de l'éducation comme on le surnommait s'est posé une question à la fois très simple et très révolutionnaire. Il s'était demandé en effet : 'Comment faire en sorte que tous les hommes accèdent à tout le savoir disponible ?'Comment offrir à tous un panorama complet de ce que les hommes savent ?
Nous voulons que tous les êtres humains, ensemble ou pris isolément, jeunes ou vieux, riches ou pauvres, nobles ou roturiers, hommes ou femmes, puissent pleinement s'instruire et devenir des êtres achevés. Nous voulons qu'ils soient instruits parfaitement et formés non seulement sur tel ou tel point, mais également sur tout ce qui permet à l'homme de réaliser intégralement son essence. D'apprendre à connaître la vérité, à ne pas être trompé par des faux semblants. A aimer le bien, à ne pas être séduit par le mal, à faire ce qu'on doit faire et à se garder de ce qu'il faut éviter. A parler sagement de tout, avec tout le monde. Enfin, à toujours traiter les choses, les hommes et Dieu avec prudence et non à la légère. Et à ne jamais s'écarter de son but, le bonheur. Le Galilée de l'éducation comme on le surnommait s'est posé une question à la fois très simple et très révolutionnaire. Il s'était demandé en effet : 'Comment faire en sorte que tous les hommes accèdent à tout le savoir disponible ?'Comment offrir à tous un panorama complet de ce que les hommes savent ? |
AAAA | AAAA |
C’est ainsi que, des avancées récentes en traitement automatique du langage naturel ont prouvé que le traitement du texte par l’ordinateur peut être raffiné autant qu’on veut, dans les limites du possible.
Cela est en fait une bonne nouvelle car, il s’avère que des nombreux sujets restent fermés à la majorité des gens suite au manque de temps, au regard de la quantité d’informations à consulter pour espérer avoir ne fusse qu’une lueur d’idée du domaine ou du sujet qu’on veut rapidement explorer.
Comme présenté dans la section précédente, la voie la plus privilégiée pour transmettre les connaissances est l’écriture.
Il est souvent inintéressant de passer du temps à lire des textes très longs, surtout quand on veut juste avoir une compréhension suffisante en peu de temps de ce qui est écrit, ou quand le sujet traité ne fait pas partie de notre domaine de prédilection.
Il est donc intéressant de mettre au point un système qui pourra assister l’homme dans la tâche de synthèse des connaissances afin de promouvoir par là-même un échange entre disciplines, ce qui est souvent très enrichissant.
Est-il possible de mettre au point un système informatique capable de synthétiser les textes avec une performance de niveau humain ?
L’inclusion des traitements basés sur l’intelligence artificielle dans les modules de synthèse est-elle obligatoire pour atteindre des bonnes performances ?
Quelle est l’architecture globale la plus adaptée pour réaliser un système de synthèse automatique performant ?
Vu la complexité du langage naturel, un traitement purement linguistique ne nous permettrait pas de mettre au point un système de niveau humain en synthèse des textes;
Étant donné que, par définition, le langage naturel est difficile à formaliser complètement, on ne pourrait pas se passer de l’intelligence artificielle pour parvenir à réaliser un système performant;
Une architecture basé essentiellement sur des modèles du type transformer, joint à l’utilisation de quelques règles inspirées de la linguistique permettrait d’avoir un système de synthèse performant.
Nombreux sont des textes (livres, articles, pages web et autres documents) dont on voudrait avoir des bonnes synthèses, qu’on ne trouve que très rarement si on ne s’est pas découragé avant.
C’est la raison pour laquelle, nous nous sommes fixé comme objectif de répondre à ce besoin précis en mettant au point une application web de synthèse des textes.
Des solutions ont été proposées mais ne sont pas toujours à la hauteur de nos attentes (mettre au point un système de performance presqu’humaine en synthèse automatique des textes).
Les plus prometteuses de ces solutions se limitent à des tailles bien réduites de texte, ce qui est déjà un grand pas mais pas suffisant évidemment.
Pour tout le monde alors, le système pourra permettre un gain de temps considérable chaque fois qu’il donnera la possibilité d’avoir accès à une synthèse de bonne qualité à la demande, en très peu de temps.
Cette recherche a pour objectif principal de concevoir et réaliser un système (une application web) qui facilitera la génération automatique des synthèses de niveau humain.
Mettre au point une base de données pour stocker les synthèses les mieux cotées par les usagers, en prévision d’une amélioration future du système;
Pour la mise au point du système, nous comptons utiliser les méthodes d’analyse moyennant les techniques expérimentale (pour vérifier l’adéquation du fonctionnement de l’application mise sur pied avec le problème posé), et documentaire (pour une vision approfondie des techniques couramment utilisées et d’éventuelles améliorations nécessaires).
Au second chapitre, Présentation du résumé automatique et conception de l’architecture du système, nous y présenterons les aspects du résumé automatique essentiels à notre travail et y concevrons pas à pas le système de synthèse automatique des textes dans tous ses aspects (pas uniquement le côté synthèse).
Dans ce chapitre, nous allons présenter brièvement le traitement automatique du langage naturel, ainsi que les techniques de traitement qui seront utiles pour la réalisation de l’objectif principal de ce travail.
Nous allons donc y présenter une vue d’ensemble des architectures généralement utilisées, en nous focalisant essentiellement sur l’aspect intelligence artificielle du NLP (Natural Language Processing).
Après cela, nous parcourons divers modèles qui nous permettrons d’aborder le modèle le plus adapté à la tâche de synthèse automatique des textes, qui est l’objectif de ce travail.
Le NLP est une discipline rattachée à l’intelligence artificielle et ayant pour principal objectif, l’étude des possibilités du traitement du langage humain par des machines.
La raison pour laquelle la discipline s’inscrit comme faisant partie du domaine d’intelligence artificielle est que le langage est considéré comme étant une aptitude centrale de l’intelligence humaine, étant donné que l’usage d’un langage si complexe est l’un des éléments distinctifs principaux entre humains et autres animaux.
C’est ainsi que des tâches comme la traduction automatique, la génération automatique des textes ou aussi la synthèse automatique qui va nous intéresser dans ce travail, produisent directement du texte en sortie.
Mais, dans tous les cas, la sortie est soit immédiatement utilisable, soit alors elle est prise comme entrée d’un autre système dans la chaîne de traitement du texte.
Pour caricaturer, un langage formel est celui pour lequel il existe un mécanisme fini, et explicite, permettant d’en faire une analyse, quand bien même il serait constitué d’un nombre infini de mots.
On peut donc comprendre directement que le mot "naturel" est ici utilisé pour faire une distinction avec les langages formels.
C’est donc dans ce sens que toutes les langues parlées peuvent être vues comme des langages naturels.
Les langages formels ont une syntaxe précise et sont spécifiquement conçus pour des objectifs bien cernés (penser à tous les langages de programmation par exemple).
Ceci n’est qu’un exemple particulier pour illustrer cette dichotomie inhérente à l’emploi de la langue quelle qu’elle soit, mais cela suffit pour qu’on s’aperçoive que le problème est bel et bien réel.
Néanmoins, le principal désavantage de ces techniques était qu’elles ne parvenaient pas à capturer une grande partie de la complexité linguistique du langage humain, comme par exemple le contexte.
Ainsi, les développements, récents d’ailleurs, des réseaux de neurone et du deep learning ont donné des nouveaux outils, pour approcher dans une large mesure les performances humaines en terme de traitement de langage.
A notre avis, ces techniques sont les plus adaptées car, tout d’abord elles se rapprochent beaucoup plus des méthodes de traitement d’information par le cerveau humain, et ensuite, il serait autrement très couteux, voir impossible, d’élaborer des modèles capables d’embrasser toute la complexité du langage humain.
Cette représentation constitue d’ailleurs un problème fondamental car c’est d’elle que dépend toute la chaîne de traitement des systèmes de NLP [46].
Pour cela, nous allons d’abord présenter certaines manipulations réalisées sur les données en guise de pré-traitement.
C’est pour cela que l’opération consistant à réduire un corpus de texte en ses tokens est centrale.
Dans notre contexte, la tokenisation est une opération qui consiste à décomposer un texte
Cela est une première étape pour diminuer la difficulté inhérente au traitement des textes.
En considérant la décomposition en mots, pour diminuer au maximum les difficultés de traitement et l’ambiguïté, on ajoute à la tokenisation d’autres traitements qui sont en général : la désaccentuation, le passage aux minuscules, la suppression des stopwords, la racinisation et la lemmatisation appliqués aux tokens obtenus [22].
Les stopwords sont, pour une langue donnée, des mots qui permettent de réaliser des phrases correctes mais qui n’apportent pas directement d’information significative sur l’ensemble (du point de vu traitement).
Cela permet juste de maximiser la probabilité de confondre des mots semblables qui sont présentés différemment dans diverses phrases.
Pour illustration, on voudrait par exemple que si on retrouve les éléments "manger", "mange", "mangeable", "mangeons" dans un corpus, qu’ils soient transformés en un seul terme "mange".
C’est cela en bref le stemming et, contrairement à ce que le nom suggère, il ne s’agit pas exactement de trouver la racine des mots (les mots dont ils dérivent).
Elle réalise en fait ce qui n’est pas réalisé par le stemming en ce sens que lemmatiser un token consiste à la transformer en sa racine, et cette dernière doit être présente dans le dictionnaire.
La détection des entités nommées (Named Entity Recognition ou NER) consiste à repérer tout ce qui correspond à des noms de personnes, des noms d’organisations ou d’entreprises, des noms de lieux, des quantités, des distances, des valeurs, des dates ou tout autre élément qui constitue une nomination d’une entité existante précise dans un texte donné.
Cette tâche est visiblement très importante dans la phase d’interprétation des données textuelles et il s’agit d’un simple problème de classification.
Le Part-Of-Speech tagging est une tâche consistant en gros, à associer aux éléments des textes, des informations grammaticales.
Elle est fortement facilitée par des approches basées sur le deep learning comme c’est le cas aussi pour la reconnaissance d’entités nommées.
Nous allons passer sous silence certains autres concepts du NLP comme le sacs de mots et le word embeddings dont nous parlerons dans la partie qui va suivre et qui présentera le résumé automatique, en tant que tâche du NLP.
Comme cela a été maintes fois mentionné, deux approches majeures sont d’usage pour traiter automatiquement les données de langage naturel.
Mais les deux approches sont dans la majorité des cas complétées par certaines heuristiques [31].
En ce qui nous concerne, l’approche sera essentiellement numérique avec un penchant prononcé pour les techniques du deep learning.
D’ailleurs, concernant ces dernières techniques, les modèles de l’état de l’art les plus adaptés sont les transformers et leur présentation exige une revue chronologique car en effet, pour y arriver, des modèles classiques basés sur des réseaux de neurones récurrents (RNN) ont été utilisés car plus adaptés aux données séquentielles que sont les textes.
Furent ensuite introduits les mécanismes d’attention qui améliorèrent les techniques, aboutissant finalement aux modèles dits transformers, plus adaptés à des tâches de NLP élaborées.
Les réseaux de neurones artificiels (Artificial Neural Network ou ANN) sont un ensemble de neurones (artificiels) assemblés pour résoudre des tâches considérées comme requérant une certaine intelligence.
Il s’agit essentiellement d’une fonction d’agrégation ayant pour rôle de réaliser une somme pondérée des entrées qui lui sont présentées et d’une fonction d’activation qui formate la sortie de la fonction d’agrégation selon les valeurs attendues en sortie [12].
Les neurones sont généralement assemblés par couche comme présenté sur la figure qui suit :
On n’entrera pas dans le détail, vu que ce n’est pas exactement le sujet du travail mais, pour entamer la partie qui suit, il nous faut préciser que, comme pour les réseaux de neurones simples, l’entraînement exige d’appliquer une fonction de différentiation sur l’erreur produite par le système.
Mais, comme ici le gradient tient compte des grandeurs précédentes dans le temps, il y a un certain nombre de termes multiplicatifs qui peuvent amener le modèle à ne jamais converger ou au contraire, à la saturation.
Les cellules LSTM (pour Long Short-Term Memory) sont utilisées en lieu et place des cellules RNN classiques (dites vanilla) pour permettre au réseau de traiter des séquences de plus en plus longues sans perte rapide d’information [16].
Présentée comme cela, la cellule LSTM semble superflue mais si on présentait les équations associées à un réseau fait de ces cellules, on se rendra compte que c’est plutôt intuitif.
Il est évident que, pour chacune de ces portes que nous nommerons, à un instant t donné par It, Ft et Ot, le système doit apprendre ses paramètres en fonction de l’entrée et de l’état interne.
Mais on doit aussi remarquer que, l’état est défini par deux paramètres au lieu d’un seul comme pour les RNN simples.
On sait aussi que, si on veut une mémoire à long terme contrôlée, la valeur finale de ct doit être mise à jour en repérant ce qui doit être oublié parmi les éléments qui étaient précédemment dans la mémoire, pour y ajouter ensuite ce qui est sélectionné comme pertinent à l’entrée.
Et de cela on peut conclure que c’est plus intéressant d’avoir Ft et It qui prennent des valeurs entre 0 et 1 (pour modéliser la sélection) et ct devra dépendre de ces deux éléments, avec aussi l’état précédent de la mémoire à long terme.
Il est aussi vraisemblable que, l’état à court terme doit provenir de la mémoire à long terme (ça correspondra à une sélection de ce qui doit être pris en compte directement dans la mémoire à long terme).
Il va ici s’agir de ht vu que la cellule est développée par analogie avec le processus de mémorisation des systèmes naturels (mémoire à court terme correspondant à la mémoire de travail).
Cette implémentation peut être modifiée, surtout en ce qui concerne les fonctions d’activation utilisées (σ et tanh), et en particulier la fonction d’activation de finalisation tanh ici, mais c’est l’une des plus optimales.
Il faut noter que sur cette image (figure I.5), l’implémentation de la mise à jour est l’inverse de celle que nous avons décrit par les équations I.4.
Parmi les techniques d’amélioration des performances, une peut être considérée car elle a un rapport direct avec notre travail.
Les mécanismes d’attention sont en bref des techniques permettant de lutter contre la perte de mémoire qu’on constate par exemple dans les cellules récurrentes ci-haut décrites, en se focalisant sur des éléments les plus importants à chaque traitement.
Pour l’expliquer, nous allons considérer une architecture jusque là passée sous silence, mais qui permet aux modèles introduits là haut de s’utiliser efficacement pour les tâches courantes du NLP en particulier.
4°) on peut aussi avoir un réseau série-vers-vecteur, appelé encodeur, suivi d’un réseau vecteur-vers-série, appelé décodeur (très utile pour la traduction et la synthèse automatique par exemple,...).
Ainsi, si par exemple on est entrain de vouloir traduire une longue phrase, on peut finir par transmettre un vecteur de contexte qui a perdu toute information sur les premiers éléments de la séquence passée en entrée.
C’est pour cela qu’au lieu de passer un vecteur de contexte général, les mécanismes d’attention permettraient ici de ne se focaliser que sur certaines informations lors du traitement d’un élément particulier de la séquence (en ayant évidemment passé tous les états internes passés au décodeur).
Pour le réaliser concrètement, le mécanisme d’attention global consiste à formater le vecteur de contexte en fonction des éléments de l’encodeur à prendre en compte lors du traitement par le décodeur.
Considérons que Ω, dont les termes sont représentés par wij, est la matrice des poids d’attention normalisés par une fonction softmax pour chaque ligne.
Et que Π, dont les termes sont représentés par αij, est la matrice des poids d’attention générée par le mécanismes avant normalisation.Si les éléments ci représentent à chaque fois le vecteur contexte final à l’étape i de décodage et les hj sont les vecteurs d’état interne de l’encodeur, l’attention globale revient à réaliser la manipulation suivante, pour formater le vecteur de contexte à prendre en compte pour l’élément en cours de traitement [30] :
La dernière relation du système I.5 revient à réaliser une somme pondérée des vecteurs d’état internes passés de l’encodeur, selon l’importance de chaque état pour le traitement en cours.
Cela est volontaire car c’est intuitif (on réalise des sommations sur tous les éléments).
La réponse est oui, avec des ajustements adéquats pour résoudre les faiblesses des modèles classiques dans le traitement des données séquentielles.
Les transformers sont des modèles du type encodeur-décodeur comme on peut le constater sur la figure ci-dessus (bien que certaines implémentations n’en utilisent qu’une partie selon la tâche).
Un choix intuitif, et qui s’avère être performant, est de tout faire pour que si deux termes ont des sens proches, ils aient aussi des représentations vectorielles proches.
Cela est réalisé par différentes techniques que nous présenterons dans le chapitre suivant, mais c’est là le rôle de la couche d’enchâssement (embedding).
Cela pallie au problème de perte d’information sur la position des mots quand on utilise un réseau non séquentiel comme les réseaux récurrents.
L’un des encodages les plus utilisés est celui basé sur les fonctions trigonométriques tel qu’introduit dans [50].
3°) Module d’auto-attention : La couche d’attention, présentée en première position dans la boîte de l’encodeur, est en fait une couche dite de self-attention car elle opère sur la même séquence d’entrée.
L’opération est réalisée pour permettre au modèle d’avoir une représentation de l’importance des termes dans la séquence d’entrée, les uns par rapport aux autres.
Dans cette phrase, l’un des constats qu’on peut faire est que, le nom "Walter" est beaucoup plus lié au pronom "il" qu’au verbe "préférer".
C’est à l’établissement des tels liens dans les représentations que sert le module d’auto-attention ici présenté.
Il est important que ce lien soit implicitement présent dans les représentations, pour que le traitement soit efficace comme on l’a mentionné lors de la présentation des mécanismes d’attention.
En effet, très brièvement, l’idée du scaled dot-product attention consiste à opérer une recherche des termes sur lesquels focaliser l’attention de la même façon qu’on réalise la recherche de la signification d’un mot dans un dictionnaire.
Pour retrouver ce dernier dans un dictionnaire, il suffit de rechercher le mot qui ressemble le plus à l’orthographe que nous estimons être la plus vraisemblable.
Si on supposait qu’il existe plusieurs termes du dictionnaire qui s’orthographient presque de la même façon que le mot qu’on cherche, on devra passer par une mesure de similarité avant de se décider sur le sens le plus probable.
Il faut noter que dk est la dimension d’une clé, et que cette normalisation permet d’améliorer les performances du modèle mais elle n’est pas la seule envisageable.
Ces trois termes sont obtenus par une transformation linéaire dont les poids sont appris à travers un réseau de neurones simple.
Il faut aussi noter que l’on utilise parallèlement plusieurs modules d’attention pour capture toutes les caractéristiques des séquences (on parle de multi-head attention).
En effet, contrairement à la couche de self-attention, pour laquelle tous les trois paramètres sont calculés à partir de la même séquence, la couche d’attention ici prend les clés K et valeurs V provenant de l’encodeur mais une requête Q provenant du décodeur.
7°) Module linéaire final : Il s’agit d’un réseau de neurones classique pour réaliser la déduction finale, le tout étant passé à la fin à travers une opération softmax qui permet de transformer les résultats en probabilité d’éléments générés (cela permet de choisir le terme le plus vraisemblable à générer comme sortie).
Les transformers, ici succinctement présentés, sont un modèle très adapté aux tâches de traitement automatique du langage naturel.
Nous venons de réaliser une vue d’ensemble du domaine de traitement automatique du langage naturel, ainsi que diverses techniques couramment utilisées.
Pour cela, nous avons tout d’abord justifié la préséance des modèles basés sur le deep learning pour diverses tâches du NLP.
Ensuite, nous avons évoqué les technique de pré-traitement des textes, souvent incontournables, comme la réduction des séquences en leurs tokens constitutifs, la suppression des mots fréquents mais n’apportant pas assez d’informations et la réduction des mots en leurs racines respectives.
Ce qui précède nous a finalement conduit à présenter les modèles courants du NLP basés sur les RNNs et, nous avons terminé par la présentation de l’architecture transformer, modèle que nous utiliserons pour ce travail (les précisions sur les modèles particuliers seront données au chapitre suivant).
Les transformers constituent un type de modèle qui s’avère être le plus adapté (pour le moment) au résumé automatique du texte et, dans le chapitre suivant, nous commencerons par présenter les diverses spécificités du résumé automatique comme tâche du NLP, pour finir par présenter l’architecture globale du système que nous comptons élaborer.
Le résumé automatique étant le sujet principal de ce mémoire, dans cette partie nous le présentons alors en détail en tant que discipline et tâche du NLP.
Nous allons ici présenter les théories sur la synthèse automatique des textes, en classifiant les diverses méthodes utilisées pour pouvoir situer notre système dans l’ensemble des travaux jusque-là menés sur ce sujet.
Ensuite, nous présenterons les diverses approches utilisées pour le résumé automatique, sans oublier d’approfondir notre présentation des modèles de type transformer adaptés à cette tâche, pour finalement mentionner le modèle que nous estimons le plus adapté concernant l’approche basée sur le deep-learning pour la synthèse automatique.
Enfin, nous allons réaliser une conception rapide mais suffisante de l’architecture globale de notre système, tout en précisant le rôle et le fonctionnement de chaque partie.
De cela on tire que le résumé devient automatique s’il est généré par un logiciel ou un système informatique.
Une définition assez valable est celle de TORRES-MORENO Juan-Manuel qui dit qu’un résumé automatique est un texte généré par un logiciel, cohérent et contenant une partie importante des informations pertinentes de la source, et dont le taux de compression est inférieur au tiers de la taille du(des) document(s) source(s) [48].
L’introduction du taux de compression dans la définition n’est pas anodine car, on s’est très vite rendu compte que la performance d’un système de résumé automatique dépendait fortement du taux de compression.
En effet, les études de [26] montrent que les meilleures performances des systèmes de résumé automatique sont généralement atteintes pour des taux de compression compris entre 15 et 30% [48].
Toutefois, on ne doit pas manquer de signaler que la génération automatique des résumés est un problème complexe en soi, tout comme l’évaluation des résultats.
Le résumé est en effet une tâche cognitive requérant la compréhension du texte considéré et, les humains n’étant pas toujours bons dans les tâches de synthèse, le manque d’étalon explique qu’il y ait également une difficulté d’automatisation du processus.
Tel une table des matières, un résumé indicatif renseigne le lecteur sur les thèmes abordés dans un document.
Il s’agit d’un modèle rétréci du texte d’origine, relatant le plus largement possible les informations contenues dans celui-ci.
La problématique ici est donc double : comprendre ce qui n’est pas information dans un texte et connaître le besoin de l’utilisateur final.
Néanmoins, si on n’a pas de requête spécifique de la part de l’utilisateur, le résumé informatif est réalisé en veillant à ce que l’ensemble des principaux sujets du texte d’origine soit rapporté.
Ainsi, les sujets principaux qui sont rappelés dans le résumé sont répartis de manière fidèle par rapport à l’organisation initiale afin de donner un juste aperçu du texte source.
En effet, on sait par exemple que dans le domaine journalistique, les informations les plus importantes sont souvent mentionnées au début du texte.[36]
Le problème consiste donc à repérer les segments de texte qui semblent être les plus pertinents pour faire partie du résumé final.
Les méthodes de résumé abstractives imitent, jusqu’à un certain degré, le processus naturel accompli par l’homme pour résumer un document.
Il existe aussi des résumés dits semi-extractifs, et même aussi des résumés dits par compression [48] mais nous estimons inutile de les décrire ici étant donné que la distinction abstractif-extractif suffit pour notre contexte.
Il s’agit, comme on l’a maintes fois mentionné, d’un résumé fait par un système informatique.
Avec des critères centrés sur le contenu des textes, il existe un grand nombre d’algorithmes assez triviaux de résumé, qui sont basés entre autres sur : • La fréquence d’occurrence des mots et
L’idée majeure des techniques qui utilisent ce critère consiste à considérer que les mots les plus fréquents sont les plus liés au sujet principal du texte à résumer.
Et, à la fin, le résumé est constitué avec les phrases extraites du texte source, et dont le score dépasse un certain seuil dépendant de la taille maximale imposée pour le résumé.
Le tout est finalement réarrangé selon l’ordre d’apparition (des phrases sélectionnées) dans le texte d’origine.
En utilisant des techniques de repérage d’entités nommées (voir le chapitre précédent), on identifie les entités présentes dans le document.
L’un des moyens les plus simples pour repérer les entités nommées est de passer par l’apprentissage profond comme on l’a précédemment mentionné.
L’intuition derrière cette approche est basée sur le constat que dans un texte, les éléments ne sont pas présentés de façon arbitraire.
Pour certains types de documents (documents journalistiques par exemple), les phrases se trouvant au début sont généralement plus informatives et décrivent le sujet principal du document.
Le résumé des articles scientifiques par contre, peut essentiellement se former en se basant sur les contenus des parties résumé et introduction (sous l’hypothèse que ces dernières parties sont bien faites).
Cela permet alors de fixer comme mesure de pertinence des phrases, leur similarité avec les titres.
Ici, on considère une liste de mots, constituée manuellement, et qui a comme rôle de permettre de se décider si une phrase doit être prise dans le résumé ou rejetée, selon qu’elle contient ou non un(des) mot(s) de la liste qualifié(s) inhibiteur(s) ou valorisant(s).
Les méthodes que nous venons de présenter sont assez intuitives mais constituent la base des processus de synthèse.
Nous devons toutefois signaler que les résumés abstractifs se basent au fond sur les mêmes principes, soit en partant des résumés extractifs pour ensuite réaliser des paraphrases, insérer des connecteurs appropriés et éliminer les références anaphoriques dans les résumés, soit en implémentant indirectement toutes ces techniques à travers un modèle d’apprentissage automatique ou un modèle basé sur les graphes capables de capturer d’un seul coup tous ces aspects (ou une grande partie d’entre-eux).
Comme nous venons de l’introduire dans la section précédente, le résumé automatique est abordé essentiellement selon deux approches qui sont [31] :
Mais, dans tous les cas, une vue sur quelques heuristiques (méthodes basées sur le bon sens) est toujours à considérer (surtout en amont, puis en aval du processus de synthèse).
la synthèse consiste à supprimer certains mots pour n’en conserver que les plus importants;
Le tf-idf (time-frequency inverse document frequency est une approche essentiellement utilisée pour le résumé extractif.
L’approche qui se base naïvement sur la fréquence d’apparition des mots dans les textes pour juger de leur importance relative, accorde à chaque mot un poids égal à T F(i,j).
D’où finalement, le poids d’un terme i dans un document j est donné par :
Pour notre cas, l’application de cette approche consiste à décomposer un long texte en ses phrases et de considérer que chacune de ces phrases est un document et que le texte entier constitue le corpus.
L’application de cette méthode pour le résumé consiste finalement à calculer le poids de chaque phrase en additionnant les poids des termes la constituant, puis à normaliser le résultat en fonction de la taille de la phrase considérée.
Après tout, on définit un seuil qui permet de soutirer les phrases selon leur pertinence ainsi évaluée (en considérant évidemment plus pertinente une phrase dont le résultat de la sommation des poids est élevé).
TextRank est un algorithme de résumé extractif, basé sur la théorie des graphes et qui s’inspire de l’algorithme PageRank de Google [8, 4].
Il s’agit en fait d’une matrice d’adjacence dans laquelle on pose au préalable que Mii = 0, pour tout i (c’est la même idée pour l’algorithme PageRank étant donné qu’il est logique de considérer qu’une page ne peut s’auto-référencer).
On applique la formule II.5 itérativement et à la convergence, on choisit les phrases qui vont former le résumé selon leur importance ( valeurs des T extRank(P hri) pour toute valeur de i).
A la fin, les phrases sélectionnées sont réarrangées pour former un résumé extrait plus ou moins cohérent.
Il considère la position et la longueur des phrases dans le calcul de leur pertinence; - Il est optimisé pour le résumé multi-document.
Toutefois, il faut remarquer que les algorithmes ici présentés sont essentiellement adaptés à la synthèse extractive.
Même si, ces traitements peuvent être mélangés avec les techniques de résolution d’anaphores et les paraphrases pour obtenir des synthèses qui tendent vers la synthèse abstractive, nous devons souligner que les techniques jusque là les plus performantes pour la synthèse abstractive sont essentiellement basées sur le deep learning [36].
Le deep learning peut également être utilisé pour la synthèse extractive, permettant ainsi la génération des synthèses extraites plus cohérentes (avec résolution d’anaphores).
Ainsi donc, nous abordons les méthodes de deep learning utilisées pour cet effet dans les parties qui suivent.
Tout traitement commence par une représentation numérique des termes (des mots ici) pour qu’ils soient assimilables par le modèle.
Une autre approche, plus classique, consiste à représenter chaque mot par un vecteur de dimension égale à la taille du dictionnaire et dont tous les termes sont nuls, sauf à la position, dans le dictionnaire, du mot qu’on est entrain de vouloir représenter (on parle du one-hot encoding).
Étant artificiellement construites, sans tenir compte du sens des mots, ni de leur contexte, ces méthodes de représentation rendent la tâche de découverte des caractéristiques par les systèmes de machine learning encore plus difficile.
D’ailleurs, l’une des faiblesses de la seconde méthode décrite (le one-hot encoding) est que les vecteurs sont creux (une majorité de valeurs nulles) et de dimension inutilement très grande.
On pourrait directement songer à une représentation plus judicieuse pour éviter ces deux soucis, et qui consisterait à réaliser une représentation binaire des termes mais, le problème de la sémantique sera toujours là.
On recourt donc à des méthodes de représentation plus élaborées, partant du principe selon lequel le contexte d’un mot suffit pour en appréhender le sens.
Ainsi, tout mot est représenté en réalisant une statistique (implicitement bien sûr) sur les divers mots qui l’accompagnent souvent, de telle sorte que les mots aux sens proches aient aussi des vecteurs très proches.
Il s’agit bel et bien des modèles adaptés aux tâches de synthèse, vu qu’en entrée on reçoit une séquence pour ressortir une autre séquence en sortie.
Comme nous l’avons déjà bien mentionné au précédent chapitre, nous n’allons parler que des modèles Seq2Seq de type transformer car actuellement, ils sont les plus adaptés à la tâche que nous voulons réaliser (celle de synthèse automatique).
Les transformers (voir la figure I.7) sont un modèle très avantageux car en fait, au-delà de leurs performances et autres avantages, ils facilitent encore plus la recherche en NLP en rendant effectif le transfer learning (apprentissage par transfert) dans ce domaine.
2°) Affinage de l’apprentissage (fine-tuning) : Ça consiste à finaliser l’apprentissage du modèle pré-entraîné de manière supervisée pour qu’il soit en mesure de réaliser une tâche donnée du NLP (il s’agit du transfer learning en fait).
Bien que la forme classique des transformers est bel et bien celle de la figure I.7, il existe 3 types d’implémentation selon les types de tâche visées en dernier lieu :
Ces modèles sont très bons pour les tâches de compréhension du langage comme la classification par exemple.
Ils sont bons pour les tâches de génération de texte.
Ils sont bons pour les tâches demandant à la fois la compréhension et la génération des textes.
Donc, les phrases sont lues dans les deux sens pour mieux saisir tout le contexte.
2°) Like-GPT : donc semblables au transformer dénommé GPT (Generative Pre-trained Transformer) qui n’ont que la partie décodeur et sont dits auto-regressifs car, seules les parties précédant le mot en cours de traitement sont connues du modèle et il y a chaque fois réinjection des sorties à l’entrée.
Ces modèles sont principalement bons pour les tâches de NLU (Natural Language Understanding) comme la classification, le NER (Name Entity Recognition), l’extractive question-answering,...
Ces modèles sont particulièrement bons pour les tâches liées fortement au NLG (Natural Language Generation).
tégralité de l’architecture des transformers et sont ainsi bons pour les tâches demandant à la fois du NLU et du NLG comme la synthèse automatique abstractive, le generative question-answering et la traduction automatique.
Le modèle BART est comme une combinaison de BERT [11] et de GPT-2 [40, 41] en terme
allons privilégier (les modèles dérivés de BART principalement) pour réaliser cette tâche dans notre système.
Dans ce second chapitre, nous ne présenterons que les spécifications du système ainsi qu’une ébauche de conception avec une présentation de l’architecture globale.
Synthétiser les textes qui lui sont fournis en entrée (saisis directement ou importés dans fichiers .pdf non scannés, des fichiers .docx et .txt);
Nous prévoyons, dans un premier temps, ne l’utiliser que pour des petits documents (la taille optimale sera déterminée avec les expérimentations au chapitre suivant).
Module de synthèse abstraite : ce module donnera une synthèse abstraite en utilisant l’un des transformers affinés pour la synthèse ou bien par le module qui sera en train de s’auto-améliorer au cours de l’utilisation du système (on l’a nommé expérimental, voir la figure II.7).
Comme les transformers réalisent des synthèses de documents de taille généralement limitée à environ une page, nous mettrons au point, dans cette partie, une pipeline qui nous permettra d’augmenter le nombre de pages (nous pensons à 100 pages mais les expérimentations nous permettrons de choisir une taille optimale, tenant compte surtout de la rapidité).
Module expérimental : Il s’agira d’un module de synthèse abstraite qui sera essentiellement utilisé pour la synthèse des petits documents (quelques pages).
Pour ce module, nous comptons mettre au point une routine d’entraînement à partir des synthèses collectées par le système, pour améliorer au fur et à mesure les performances de ce module.
Nous comptons réaliser l’entraînement par transfer learning avec les transformers mT5[53] ou mBART [27] comme base.
N’ayant pas encore testé cette partie, nous serons fixé sur la méthode à utiliser ainsi que le modèle de base à choisir au chapitre suivant, après les expérimentations.
C’est par suite du fait que, pour des raisons de performance, on devra envoyer à l’API le fichier sous un format particulier.
La base des données, que nous avons mentionné dans la figure II.4, a un double rôle :
2°) Le stockage des paires document-synthèse, ainsi que l’appréciation de l’utilisateur (évaluation par les utilisateurs).
Comme nous pouvons le voir, un traitement sera fait pour adapter les données reçues à ce qui peut être traité par le système.
Ce traitement consistera à ne retenir que des symboles alphanumériques, à réaliser la tokenisation des textes (chaque token sera une phrase pour cette partie) et à affecter un identifiant unique à chaque phrase.
Après cela, les données seront invariablement passées aux algorithmes de synthèse extractive, qui générerons chacun un groupe de poids des phrases.
Nous implémenterons plusieurs modèles (BART, BARThez, PEGASUS, mBART ou mT5 entraîné avec nos données, ainsi que tous ceux qui nous paraîtrons utiles durant les essais); Chaque module de synthèse se présentera néanmoins comme suit :
Cette partie, que nous avons nommé head est différente selon les tâches [52], c’est pourquoi nous avons voulu la mentionner explicitement car, selon le besoin, on peut la modifier.
Nous devons finalement mentionner que les modules de tokenisation (nommés tokenizer en anglais) dépendront explicitement des modèles utilisés.
Dans cette partie, nous venons de présenter le résumé automatique des textes, tout en réalisant une vue d’ensemble des méthodes utilisées dans la littérature à cet effet.
Nous avons également listé les divers modèles de transformer adaptés à la tâche de synthèse automatique abstraite, et nous avons mentionné devoir privilégier les modèles du type BART pour des raisons qui serons précisées dans le chapitre suivant.
Enfin, nous avons réalisé la conception préliminaire du système tout en précisant que, concernant l’API, la BD (Base des Données) et les interfaces, les détails d’implémentation utiles seront précisés dans la partie dédiée à la conception proprement dite et aux tests, c’est-à-dire au chapitre suivant.
Le chapitre suivant nous permettra donc finalement de préciser, réaliser et tester les méthodes que nous avons jusque-là adoptées pour la mise au point de notre système de synthèse automatique des documents.
Mike Lewis, Yinhan Liu, Naman Goyal, Marjan Ghazvininejad, Abdelrahman Mohamed, Omer Levy, Ves Stoyanov, and Luke Zettlemoyer.
Yinhan Liu, Myle Ott, Naman Goyal, Jingfei Du, Mandar Joshi, Danqi Chen, Omer Levy, Mike Lewis, Luke Zettlemoyer, and Veselin Stoyanov.
Tomas Mikolov, Kai Chen, Greg Corrado, and Jeffrey Dean.
Tomas Mikolov, Ilya Sutskever, Kai Chen, Greg S Corrado, and Jeff Dean.
Barry Schiffman, Ani Nenkova, and Kathleen McKeown. | UNIVERSITELIBREDESPAYSDESGRANDSLACS
FACULTE DES SCIENCES ET DES TECHNOLOGIES
APPLIQUEES
DEPARTEMENT DE GENIE ELECTRIQUE ET INFORMATIQUE
B.P 368 GOMA
www.ulpgl.net
CONCEPTION ET REALISATION D’UN
SYSTEME BASE SUR L’INTELLIGENCE
ARTIFICIELLE POUR RESUMER
AUTOMATIQUEMENT LES TEXTES
Par : KRAME KADURHA David
Travail présenté en vue de l’obtention du Diplôme d’ingénieur civil en génie électrique et informatique
Option : Génie informatique
Directeur : Prof BARAKA MUSHAGE Olivier
Encadreur : Ir MUHINDO WAMUHINDO Abdenego
ANNEE ACADEMIQUE 2021−2022
Dédicaces
Remerciements
Résumé
Sigles et abréviations
Table des matières
Dédicaces i
Remerciements ii
Résumé iii
Sigles et abréviations iv
Introduction générale 1
0.1 Contexte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
0.2 Identification et formulation du problème . . . . . . . . . . . . . . . . . . . 1
0.3 Questions de recherche . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
0.4 Hypothèses de travail . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
0.5 Justification du choix du sujet et motivations . . . . . . . . . . . . . . . . . 3
0.6 Objectifs de la recherche . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
0.6.1 Objectif général . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
0.6.2 Objectifs spécifiques . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
0.7 Méthodologie de recherche et délimitation du travail . . . . . . . . . . . . . 5
0.8 Subdivision du travail . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
Généralités sur le NLP 6
Introduction partielle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
Présentation et définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
Nécessité de l’approche par deep learning . . . . . . . . . . . . . . . . . . . 8
Quelques techniques courantes de traitement des textes . . . . . . . . . . . 9
La tokenisation (tokenization) . . . . . . . . . . . . . . . . . . . . . . 9
Les stopwords[44] . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
La racinisation (stemming) . . . . . . . . . . . . . . . . . . . . . . . . 10
La lemmatisation (lemmatization) . . . . . . . . . . . . . . . . . . . . 10
SYNTHESE AUTOMATIQUE DES TEXTES
Reconnaissance d’entités nommées (NER)[44] . . . . . . . . . . . . . 11
L’étiquetage morpho-syntaxique (POS tagging) . . . . . . . . . . . . 11
Approches du NLP . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
Les réseaux de neurones artificiels (ANN) . . . . . . . . . . . . . . . 12
Les réseaux de neurones récurrents (RNN) . . . . . . . . . . . . . . . 13
Mécanismes d’attention . . . . . . . . . . . . . . . . . . . . . . . . . 20
Les transformers . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
Conclusion partielle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
Résumé automatique et conception 29
Introduction partielle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
Présentation et définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
Catégorisation des résumés . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
Selon la fonction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
Selon le nombre de documents source . . . . . . . . . . . . . . . . . 32
Selon le genre des documents . . . . . . . . . . . . . . . . . . . . . . 32
Selon le type de sortie (résumé obtenu) . . . . . . . . . . . . . . . . . 33
Selon le type de résumeur . . . . . . . . . . . . . . . . . . . . . . . . 34
Selon le contexte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
Selon le destinataire du résumé . . . . . . . . . . . . . . . . . . . . . 35
Approches de résumé automatique . . . . . . . . . . . . . . . . . . . . . . . 35
Techniques intuitives de résumé [36] . . . . . . . . . . . . . . . . . . 35
Algorithmes classiques de résumé automatique . . . . . . . . . . . . 38
Modèles Seq2Seq . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
Methodes du Word-Embedding . . . . . . . . . . . . . . . . . . . . . 45
Modèles séquence-à-séquence proprement dits . . . . . . . . . . . . 46
Modèle BART pour la synthèse abstractive . . . . . . . . . . . . . . . 50
Conception de l’architecture globale du système . . . . . . . . . . . . . . . . 51
Spécifications du système . . . . . . . . . . . . . . . . . . . . . . . . 52
Présentation des éléments du système . . . . . . . . . . . . . . . . . 52
vi sur 68
TABLE DES MATIÈRES
Architecture du module de synthèse extractive . . . . . . . . . . . . 54
Architecture du module de synthèse abstractive . . . . . . . . . . . 56
Présentation des interfaces . . . . . . . . . . . . . . . . . . . . . . . . 58
Conclusion partielle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
Conception finale, réalisation et tests 60
Conclusion générale 61
Annexes 68
vii sur 68
Liste des figures
I.1 Réseau de neurones à une couche cachée et sans boucle [47] 13
I.2 Illustration de ce qu’est un RNN [22] 14
I.3 Comparaison entre cellules RNN classique et LSTM [18] 15
I.4 Vue fonctionnelle d’une cellule LSTM [18] 16
I.5 Cellule GRU [18] 19
I.6 Réseaux série-vers-série (en haut à gauche), série-vers-vecteur (en haut à
droite), vecteur-vers-série (en bas à gauche) et encodeur-décodeur (en bas àdroite) [16] 21
I.7 Architecture générique des transformers [50] 23
I.8 Vue éclatée d’un transformer [51] 27
II.1 Diagramme des fréquences des mots et le choix de Luhn [29] 40
II.2 Comparaison simplifiée entre BERT, GPT et BART [25] 50
II.3 Transformations de bruitage expérimentées pour BART [25] 50
II.4 Architecture globale de notre système 52
II.5 Architecture globale du système de synthèse abstractive 57
II.6 Architecture interne du modèle mentionné sur la figure II.5 57
II.7 Ébauche d’interface 58
viii
Introduction générale
0.1 Contexte
A l’ère du numérique, comme depuis l’invention de l’écriture, le texte est l’un des principaux moyens de communication et surtout, de transmission des connaissances.
Des livres aux SMS, en passant par diverses pages web, les données textuelles sont partout. En 2018, il s’agissait d’environs 80% de l’information qui circulait sur le web [23]. L’évolution de l’informatique continue à démontrer la possibilité de simplifier toujours grandement la vie de l’homme en automatisant de plus en plus l’accomplissement des tâches rébarbatives.
Certaines tâches comme celles liées explicitement à l’arithmétique semblent mieux se prêter à cette vague d’automatisation, les données numériques étant par essence celles prises en compte par les plateformes numériques.
Néanmoins, des transformations adéquates permettent de prendre en compte tout type de donnée, et le texte n’est pas exclu. C’est ainsi que, des avancées récentes en traitement automatique du langage naturel ont prouvé que le traitement du texte par l’ordinateur peut être raffiné autant qu’on veut, dans les limites du possible.
Cela est en fait une bonne nouvelle car, il s’avère que des nombreux sujets restent fermés à la majorité des gens suite au manque de temps, au regard de la quantité d’informations à consulter pour espérer avoir ne fusse qu’une lueur d’idée du domaine ou du sujet qu’on veut rapidement explorer.
C’est en ce sens que la mise au point des technologies pouvant faciliter l’exploration des connaissances présentées sous forme textuelle est salvatrice.
0.2 Identification et formulation du problème
Comme présenté dans la section précédente, la voie la plus privilégiée pour transmettre les connaissances est l’écriture. Mais, admettons que souvent, dans un long texte, la
1
SYNTHESE AUTOMATIQUE DES TEXTES
quantité d’information pertinente est moindre par rapport à la longueur du texte entier.
Comment faire donc pour identifier cette partie utile et gagner ainsi en temps ?
Il est souvent inintéressant de passer du temps à lire des textes très longs, surtout quand on veut juste avoir une compréhension suffisante en peu de temps de ce qui est écrit, ou quand le sujet traité ne fait pas partie de notre domaine de prédilection. Il est donc intéressant de mettre au point un système qui pourra assister l’homme dans la tâche de synthèse des connaissances afin de promouvoir par là-même un échange entre disciplines, ce qui est souvent très enrichissant.
0.3 Questions de recherche
Vu le problème que nous venons de présenter, une question se pose :
Est-il possible de mettre au point un système informatique capable de synthétiser les textes avec une performance de niveau humain ?
La précédente question nous amène aussi à nous demander ceci :
Un traitement purement linguistique ne pourrait-il pas nous permettre de générer des synthèses suffisamment bons pour atteindre notre objectif ?
L’inclusion des traitements basés sur l’intelligence artificielle dans les modules de synthèse est-elle obligatoire pour atteindre des bonnes performances ?
Quelle est l’architecture globale la plus adaptée pour réaliser un système de synthèse automatique performant ?
0.4 Hypothèses de travail
A la suite des questions que nous venons de soulever, nous postulons que :
Vu la complexité du langage naturel, un traitement purement linguistique ne nous permettrait pas de mettre au point un système de niveau humain en synthèse des textes;
0.5. JUSTIFICATION DU CHOIX DU SUJET ET MOTIVATIONS
Étant donné que, par définition, le langage naturel est difficile à formaliser complètement, on ne pourrait pas se passer de l’intelligence artificielle pour parvenir à réaliser un système performant;
Une architecture basé essentiellement sur des modèles du type transformer, joint à l’utilisation de quelques règles inspirées de la linguistique permettrait d’avoir un système de synthèse performant.
0.5 Justification du choix du sujet et motivations
Pour synthétiser un texte, il faut l’avoir aumoins lu! Et pourtant, pour lire un texte, il faut du temps, une denrée souvent rare.
Certains textes sont souvent fournis, accompagnés des synthèses qui sont parfois très bonnes, parfois incomplètes et parfois même très polarisées ou tout simplement mauvaises. Toutefois, avoir une synthèse à la demande serait mieux que de ne trouver que des synthèses de certains textes, sans d’ailleurs en avoir le plus souvent besoin. Nombreux sont des textes (livres, articles, pages web et autres documents) dont on voudrait avoir des bonnes synthèses, qu’on ne trouve que très rarement si on ne s’est pas découragé avant. C’est la raison pour laquelle, nous nous sommes fixé comme objectif de répondre à ce besoin précis en mettant au point une application web de synthèse des textes. Beaucoup de chercheurs en linguistique et en traitement automatique du langage naturel principalement se sont penché sur ce sujet [23, 48, 1, 21, 2].
Des solutions ont été proposées mais ne sont pas toujours à la hauteur de nos attentes (mettre au point un système de performance presqu’humaine en synthèse automatique des textes). Les plus prometteuses de ces solutions se limitent à des tailles bien réduites de texte, ce qui est déjà un grand pas mais pas suffisant évidemment. C’est pour cette raison qu’il nous semble pertinent d’étudier cette question en profondeur et de mettre au point un système complet et utilisable en dehors du monde de la recherche.
Socialement, la mise au point de ce système sera d’une très grande importance. Cela dans plusieurs axes dont principalement :
Pour les chercheurs, car il pourra faciliter le survol rapide des connaissances provenant SYNTHESE AUTOMATIQUE DES TEXTES
des filières liées à leurs domaines, sans être obligés de consulter à l’avance un tas de documents issus de ces domaines connexes;
Pour tout le monde alors, le système pourra permettre un gain de temps considérable chaque fois qu’il donnera la possibilité d’avoir accès à une synthèse de bonne qualité à la demande, en très peu de temps.
0.6 Objectifs de la recherche
Objectif général
Cette recherche a pour objectif principal de concevoir et réaliser un système (une application web) qui facilitera la génération automatique des synthèses de niveau humain.
Objectifs spécifiques
Pour arriver à bout de notre projet nous comptons :
Évaluer les failles et limites des techniques de synthèse automatique existantes;
Corriger les failles ou compléter les techniques de synthèse automatique existantes; • Établir des architectures logiques optimales pour obtenir des synthèses de qualité;
Élaborer une interface de programmation d’applications devant faciliter l’accès au service de synthèse automatique;
Mettre au point une base de données pour stocker les synthèses les mieux cotées par les usagers, en prévision d’une amélioration future du système;
Réaliser une interface web de qualité pour permettre l’accès au service par divers utilisateurs.
0.7. MÉTHODOLOGIE DE RECHERCHE ET DÉLIMITATION DU TRAVAIL
Méthodologie de recherche et délimitation du travail
Pour la mise au point du système, nous comptons utiliser les méthodes d’analyse moyennant les techniques expérimentale (pour vérifier l’adéquation du fonctionnement de l’application mise sur pied avec le problème posé), et documentaire (pour une vision approfondie des techniques couramment utilisées et d’éventuelles améliorations nécessaires).
Ce travail se focalisera sur la synthèse des documents du type informationnel (livres historiques, discours, articles de presse, lettres, nouvelles, romans et tout autre type de document ayant une faible densité d’expressions mathématiques) et il s’agira d’une synthèse mono-document.
Subdivision du travail
Excepté l’introduction et la conclusion générales, ce travail sera ainsi constitué :
Au premier chapitre, Généralités sur le traitement automatique du langage naturel, nous passerons en revu toute la théorie nécessaire à la compréhension de notre travail.
Au second chapitre, Présentation du résumé automatique et conception de l’architecture du système, nous y présenterons les aspects du résumé automatique essentiels à notre travail et y concevrons pas à pas le système de synthèse automatique des textes dans tous ses aspects (pas uniquement le côté synthèse).
Au troisième chapitre : Conception finale, réalisation et tests, nous y finaliserons la conception et expliquerons les points importants de l’implémentation en nous basant sur la conception faite, puis nous présenterons les résultats des tests que nous aurons effectué.
Chapitre I
Généralitéssurletraitementautomatique du langage naturel
Introduction partielle
Dans ce chapitre, nous allons présenter brièvement le traitement automatique du langage naturel, ainsi que les techniques de traitement qui seront utiles pour la réalisation de l’objectif principal de ce travail. Nous allons donc y présenter une vue d’ensemble des architectures généralement utilisées, en nous focalisant essentiellement sur l’aspect intelligence artificielle du NLP (Natural Language Processing).
Dans un premier temps, nous y présentons quelques techniques, souvent incontournables lorsqu’on veut réaliser une tâche de traitement du langage. Après cela, nous parcourons divers modèles qui nous permettrons d’aborder le modèle le plus adapté à la tâche de synthèse automatique des textes, qui est l’objectif de ce travail.
Présentation et définitions
Le NLP est une discipline rattachée à l’intelligence artificielle et ayant pour principal objectif, l’étude des possibilités du traitement du langage humain par des machines. La raison pour laquelle la discipline s’inscrit comme faisant partie du domaine d’intelligence artificielle est que le langage est considéré comme étant une aptitude centrale de l’intelligence humaine, étant donné que l’usage d’un langage si complexe est l’un des éléments distinctifs principaux entre humains et autres animaux.
Le NLP inclut l’ensemble d’algorithmes, des tâches et des problèmes prenant en entrée
6
I.2. PRÉSENTATION ET DÉFINITIONS
des textes produits par des humains, pour finalement ressortir des informations pertinentes à propos de ces derniers ou alors du texte modifié de façon approprié selon l’objectif poursuivi. C’est ainsi que des tâches comme la traduction automatique, la génération automatique des textes ou aussi la synthèse automatique qui va nous intéresser dans ce travail, produisent directement du texte en sortie.
Mais, dans tous les cas, la sortie est soit immédiatement utilisable, soit alors elle est prise comme entrée d’un autre système dans la chaîne de traitement du texte.
On peut toutefois se demander la raison pour laquelle on parle de traitement automatique du "langage naturel" (quitte à se demander ce qui distinguerait un langage naturel des autres langages).
Pour établir clairement cette différence, il est nécessaire de donner une définition de ce qu’est un langage formel. Pour caricaturer, un langage formel est celui pour lequel il existe un mécanisme fini, et explicite, permettant d’en faire une analyse, quand bien même il serait constitué d’un nombre infini de mots. Donc, c’est un ensemble de mots analysable par un automate (au sens mathématique du terme) [9].
On peut donc comprendre directement que le mot "naturel" est ici utilisé pour faire une distinction avec les langages formels. C’est donc dans ce sens que toutes les langues parlées peuvent être vues comme des langages naturels. Les langages formels ont une syntaxe précise et sont spécifiquement conçus pour des objectifs bien cernés (penser à tous les langages de programmation par exemple). Ils sont donc très précis tant au point de vu grammatical que sémantique.
Concernant les langues humaines usuellement utilisées, on ne peut pas dire, sans être démenti, qu’elles sont dénuées d’imprécisions. Elles regorgent en générale une grande richesse, ce qui a pour conséquence d’introduire très souvent une grande ambiguïté. Pour s’en convaincre, il suffirait par exemple de considérer la phrase suivante :
Je le vois avec mes jumelles.
Très vite on remarque que cette phrase peut s’interpréter selon le contexte. On ne sait pas, en effet, si le sujet affirme voir quelqu’un avec ses jumelles d’observation, se promenant avec ses enfants jumelles, ou si le sujet voit quelque chose en utilisant ses jumelles en tant qu’instrument.
Ceci n’est qu’un exemple particulier pour illustrer cette dichotomie inhérente à l’emploi de la langue quelle qu’elle soit, mais cela suffit pour qu’on s’aperçoive que le problème est bel et bien réel.
Ce n’est d’ailleurs pas juste au niveau des interprétations qu’on peut identifier ce problème. Il s’observe même quand on considère les règles de grammaire. Certaines règles sont ainsi admises par certains linguistes mais rejetées ou trouvées superflues par d’autres [20].
C’est tout ce qui précède qui rend le langage humain à la fois riche et challengeant quand il s’agit de doter les machines de cette aptitude. D’où la raison d’être d’une discipline à part entière dédiée à la mise au point des règles de traitement du langage naturel, le NLP
[17].
I.3 Nécessité de l’approche par deep learning
Avant l’avènement du deep learning, des techniques traditionnelles du NLP étaient utilisées pour des tâches comme la détection des spams, l’analyse des sentiments et le POS (Part Of Speech tagging). Ces approches utilisaient essentiellement des caractéristiques statistiques des séquences comme, la fréquence des mots et les co-occurences par exemple. Néanmoins, le principal désavantage de ces techniques était qu’elles ne parvenaient pas à capturer une grande partie de la complexité linguistique du langage humain, comme par exemple le contexte.
Ainsi, les développements, récents d’ailleurs, des réseaux de neurone et du deep learning ont donné des nouveaux outils, pour approcher dans une large mesure les performances humaines en terme de traitement de langage. A notre avis, ces techniques sont les plus adaptées car, tout d’abord elles se rapprochent beaucoup plus des méthodes de traitement d’information par le cerveau humain, et ensuite, il serait autrement très couteux, voir impossible, d’élaborer des modèles capables d’embrasser toute la complexité du langage humain.
Le deep learning pour le NLP est axé grosso-modo sur la représentation d’entités textu-
I.4. QUELQUES TECHNIQUES COURANTES DE TRAITEMENT DES TEXTES
elles et le traitement élaboré sur ces représentations, de manière à en tirer des informations pertinentes ou à réaliser des transformations appropriées. Cette représentation constitue d’ailleurs un problème fondamental car c’est d’elle que dépend toute la chaîne de traitement des systèmes de NLP [46].
I.4 Quelquestechniquescourantesdetraitementdestextes
Dans cette partie, nous allons présenter diverses techniques intervenant dans le traitement des données de langage naturel. Ces traitements seront présentés de manière à dégager un pattern presque récurrent en terme de structure de traitement pour divers systèmes de NLP. Pour cela, nous allons d’abord présenter certaines manipulations réalisées sur les données en guise de pré-traitement. Puis, nous évoquerons deux techniques utiles aux tâches relevant du NLU (Natural Language Understanding).
I.4.1 La tokenisation (tokenization)
Manipuler des longues chaînes de caractères ne serait pas envisageable. Mais en informatique on est habitué à traiter des structures en terme de listes, de tableaux, de vecteurs,... Le tout étant représenté numériquement. C’est pour cela que l’opération consistant à réduire un corpus de texte en ses tokens est centrale.
Dans notre contexte, la tokenisation est une opération qui consiste à décomposer un texte
(une suite de phrases) en ses phrases constitutives ou une phrase en ses mots constitutifs. Cela est une première étape pour diminuer la difficulté inhérente au traitement des textes. En considérant la décomposition en mots, pour diminuer au maximum les difficultés de traitement et l’ambiguïté, on ajoute à la tokenisation d’autres traitements qui sont en général : la désaccentuation, le passage aux minuscules, la suppression des stopwords, la racinisation et la lemmatisation appliqués aux tokens obtenus [22].
I.4.2 Les stopwords[44]
Les stopwords sont, pour une langue donnée, des mots qui permettent de réaliser des phrases correctes mais qui n’apportent pas directement d’information significative sur l’ensemble (du point de vu traitement). Il s’agit par exemple en français de mots comme de, la, le,... ce qui correspond en gros aux prépositions, aux articles, aux conjonctions,... Il faut néanmoins préciser qu’on peut très bien décider de ne pas supprimer certains stopwords.
I.4.3 La racinisation (stemming)
La racinisation ou stemming en anglais consiste à découper le token de manière à n’en conserver qu’une partie qui semble rendre mieux compte de ce dont dérive ledit token. Seulement, ceci est fait sans se fier à ce que le résultat obtenu en tant que racine fasse partie du dictionnaire de la langue considérée [44, 22].
Cela permet juste de maximiser la probabilité de confondre des mots semblables qui sont présentés différemment dans diverses phrases. C’est à des fins de comparaison de phrases et de réduction d’ambiguïté. Pour illustration, on voudrait par exemple que si on retrouve les éléments "manger", "mange", "mangeable", "mangeons" dans un corpus, qu’ils soient transformés en un seul terme "mange". Cela se fait en découpant tous les mots qui ajoutent
d’autres affixes au terme. C’est cela en bref le stemming et, contrairement à ce que le nom suggère, il ne s’agit pas exactement de trouver la racine des mots (les mots dont ils dérivent). L’opération consiste essentiellement à réaliser un découpage des mots de manière à en supprimer les affixes.
I.4.4 La lemmatisation (lemmatization)
La lemmatisation quant à elle est une opération plus soignée mais plus coûteuse en terme d’implémentation [44, 22]. Elle réalise en fait ce qui n’est pas réalisé par le stemming en ce sens que lemmatiser un token consiste à la transformer en sa racine, et cette dernière doit être présente dans le dictionnaire. Par exemple, pour un mot au pluriel, il s’agira de le remplacer par son singulier, un verbe conjugué, par son infinitif,... Pour illustration, la
I.4. QUELQUES TECHNIQUES COURANTES DE TRAITEMENT DES TEXTES
lemmatisation consisterait à transformer par exemple "va", "allions", "irons" et "allé" par "aller" et "une" et "des" par "un". Cette tâche est grandement facilitée par des techniques de deep learning.
L’obtention des tokens peut également conduire à des tâches plus élaborées comme la détection des entités nommées et l’étiquetage morpho-syntaxique. Il s’agit des tâches très importantes que nous devons nécessairement mentionner.
I.4.5 Reconnaissance d’entités nommées (NER)[44]
La détection des entités nommées (Named Entity Recognition ou NER) consiste à repérer tout ce qui correspond à des noms de personnes, des noms d’organisations ou d’entreprises, des noms de lieux, des quantités, des distances, des valeurs, des dates ou tout autre élément qui constitue une nomination d’une entité existante précise dans un texte donné. Cette tâche est visiblement très importante dans la phase d’interprétation des données textuelles et il s’agit d’un simple problème de classification.
I.4.6 L’étiquetage morpho-syntaxique (POS tagging)
Le Part-Of-Speech tagging est une tâche consistant en gros, à associer aux éléments des textes, des informations grammaticales. En général, il s’agit d’associer aux termes des textes, leur nature grammaticale. Cela consisterait à dire que tel élément est un nom, tel autre un verbe,...[44, 22]
Cette tâche n’est pas une fin en soi. En effet, c’est une première étape dans l’analyse structurelle des textes, permettant de déduire diverses dépendances du point de vu linguistique. Elle est fortement facilitée par des approches basées sur le deep learning comme c’est le cas aussi pour la reconnaissance d’entités nommées.
Nous allons passer sous silence certains autres concepts du NLP comme le sacs de mots et le word embeddings dont nous parlerons dans la partie qui va suivre et qui présentera le résumé automatique, en tant que tâche du NLP.
I.5 Approches du NLP
Comme cela a été maintes fois mentionné, deux approches majeures sont d’usage pour traiter automatiquement les données de langage naturel. Il s’agit de l’approche numérique et de l’approche symbolique ou linguistique. Mais les deux approches sont dans la majorité des cas complétées par certaines heuristiques [31].
En ce qui nous concerne, l’approche sera essentiellement numérique avec un penchant prononcé pour les techniques du deep learning. D’ailleurs, concernant ces dernières techniques, les modèles de l’état de l’art les plus adaptés sont les transformers et leur présentation exige une revue chronologique car en effet, pour y arriver, des modèles classiques basés sur des réseaux de neurones récurrents (RNN) ont été utilisés car plus adaptés aux données séquentielles que sont les textes. Ensuite, le constat de leur mémoire limitée a fait à ce qu’on les modifie pour obtenir des unités à mémoire plus large dont les LSTM(Long Short-Term Memory) et les GRU(Gated Recurrent Unit). Furent ensuite introduits les mécanismes d’attention qui améliorèrent les techniques, aboutissant finalement aux modèles dits transformers, plus adaptés à des tâches de NLP élaborées.
I.5.1 Les réseaux de neurones artificiels (ANN)
Les réseaux de neurones artificiels (Artificial Neural Network ou ANN) sont un ensemble de neurones (artificiels) assemblés pour résoudre des tâches considérées comme requérant une certaine intelligence. Le neurone artificiel est un algorithme élaboré en s’inspirant du modèle théorique simplifié d’un neurone naturel. Il s’agit essentiellement d’une fonction d’agrégation ayant pour rôle de réaliser une somme pondérée des entrées qui lui sont présentées et d’une fonction d’activation qui formate la sortie de la fonction d’agrégation selon les valeurs attendues en sortie [12].
Les neurones sont généralement assemblés par couche comme présenté sur la figure qui suit :
Figure I.1: Réseau de neurones à une couche cachée et sans boucle [47]
Ce qui vient d’être présenté est suffisant pour avoir une idée globale de ce qu’est réellement un réseau de neurones artificiel. Néanmoins, nous pousserons plus loin pour toucher le plus vite possible aux modèles qui nous intéressent dans ce travail.
I.5.2 Les réseaux de neurones récurrents (RNN)
Un RNN(Recurrent Neural Network) est un type de réseaux de neurones conçu en principe pour traiter les données séquentielles, comme les données textuelles,...
La principale différence structurelle entre les ANN simples et les RNN est l’existence des connexions de récurrence dans ces derniers. Il s’agit des boucles permettant la prise en compte des sorties passées dans le traitement final des données [16].
Pour l’illustrer, rien de mieux qu’une image représentant la structure fonctionnelle des réseaux de neurones récurrents :
Figure I.2: Illustration de ce qu’est un RNN [22]
Où xi, hi et A représentent respectivement les entrées (à chaque pas temporel i), les états internes qui en résultent et le module récurent utilisé.
Pour une meilleure compréhension, une présentation formelle serait plus commode : Soient Wx la matrice des poids associée au vecteur d’entrée x, Wy une matrice associée au vecteur de sortie y et Wh celle associée au vecteur représentant les états cachés du réseau, avec bh et by respectivement les vecteurs des biais des neurones pour l’état caché et pour la sortie. Si on nomme aussi par yt la sortie du réseau à un instant donné t, on aura [15] :
ht
yt
= fact (Wxxt +Whht−1 +bh)
= gact Wyht +by
(I.1)
On voit très bien que la sortie du système dépend non seulement de l’entrée, mais aussi de l’état du système (h).
Les fonctions d’activation fact et gact qui sont mentionnées dans les équations I.1 représentent respectivement la tangente hyperbolique tanh et la fonction dite sof tmax [15].
L’entraînement des réseaux de neurones récurrents se fait de la même façon que pour les réseaux de neurones simples (avec uniquement une différence due au fait que pour le RNN on prend en compte le temps). On n’entrera pas dans le détail, vu que ce n’est pas exactement le sujet du travail mais, pour entamer la partie qui suit, il nous faut préciser que, comme pour les réseaux de neurones simples, l’entraînement exige d’appliquer une fonction de différentiation sur l’erreur produite par le système. Il s’agit de la fonction gradient. Mais, comme ici le gradient tient compte des grandeurs précédentes dans le temps, il y a un certain nombre de termes multiplicatifs qui peuvent amener le modèle à ne jamais converger ou au contraire, à la saturation. C’est le problème classique d’évanouissement (disparition) des gradients ou d’explosion des gradients [15].
En réponse au problème de disparition des gradients, les cellules LSTM (Long Short-Term Memory) sont utilisées en lieu et place des cellules RNN normales.
Les cellules LSTM
Les cellules LSTM (pour Long Short-Term Memory) sont utilisées en lieu et place des cellules RNN classiques (dites vanilla) pour permettre au réseau de traiter des séquences de plus en plus longues sans perte rapide d’information [16]. Pour cela, des éléments de contrôle de la mémoire de la cellule sont ajoutés. Pour illustrer nos propos, voici une image qui nous permettra de différencier une cellule RNN classique d’une cellule LSTM :
Figure I.3: Comparaison entre cellules RNN classique et LSTM [18]
Présentée comme cela, la cellule LSTM semble superflue mais si on présentait les équations associées à un réseau fait de ces cellules, on se rendra compte que c’est plutôt intuitif. Pour aborder les équations associées, considérons l’image suivante :
Figure I.4: Vue fonctionnelle d’une cellule LSTM [18]
Une cellule LSTM se comprend en la considérant comme constituée d’un ensemble de portes avec des fonctions bien particulières. Il s’agit d’une porte d’entrée, une porte d’oubli et une porte de sortie.
Il est évident que, pour chacune de ces portes que nous nommerons, à un instant t donné par It, Ft et Ot, le système doit apprendre ses paramètres en fonction de l’entrée et de l’état interne. Mais on doit aussi remarquer que, l’état est défini par deux paramètres au lieu d’un seul comme pour les RNN simples. Il s’agit, à un instant t donné, de ht (considéré comme état à court terme) et de ct (qui est un état à long terme mais dont le contenu est contrôlé, au vu de l’architecture de la cellule).
De ce que nous venons de dire, nous pouvons conclure que Ft, It et Ot sont des fonctions de Xt et de ht−1 aux poids près. On sait aussi que, si on veut une mémoire à long terme contrôlée, la valeur finale de ct doit être mise à jour en repérant ce qui doit être oublié parmi les éléments qui étaient précédemment dans la mémoire, pour y ajouter ensuite ce qui est sélectionné comme pertinent à l’entrée. Cela revient à utiliser Ft et It comme des portes de contrôle (ou de sélection). Et de cela on peut conclure que c’est plus intéressant d’avoir Ft et It qui prennent des valeurs entre 0 et 1 (pour modéliser la sélection) et ct devra dépendre de ces deux éléments, avec aussi l’état précédent de la mémoire à long terme.
Il est aussi vraisemblable que, l’état à court terme doit provenir de la mémoire à long terme (ça correspondra à une sélection de ce qui doit être pris en compte directement dans la mémoire à long terme). Cet état ht doit par conséquent dépendre de ct (il faut néanmoins noter qu’une autre approche serait possible ici, mais celle-ci est déjà pertinente). Finalement, on sait que la sortie finale doit nécessairement dépendre de l’état interne de la cellule. Il va ici s’agir de ht vu que la cellule est développée par analogie avec le processus de mémorisation des systèmes naturels (mémoire à court terme correspondant à la mémoire de travail).
De ce qu’on vient de dire on peut tirer que, fondamentalement on doit avoir :
F
t
I t
O
t
c t
h t
y t
= F (Xt,ht−1) = G(Xt,ht−1) = J (Xt,ht−1)
= K(ct−1,Xt,ht−1)
= L(ct)
= M(ht)
(I.2)
Avec F ,G,J ,K,L,M des fonctions dépendant des coefficients considérés (poids et/ou éléments de sélection qui sont les diverses portes définies).
Une implémentation classique de ce raisonnement se présente comme suit [16, 15] :
F
t
I t
O
t
c t
h t
y t
= σ Wf xXt +Wf hht−1 +bf
= σ WixXt +Wf iht−1 +bi
= σ (WoxXt +Wohht−1 +bo)
= Ft ◦ct−1 +It ◦tanh(WcxXt +Wchht−1 +bc)
= Ot ◦tanh(ct)
= Wyhht +by
(I.3)
Il faut remarquer qu’on a utilisé la fonction sigmoïde σ pour restreindre les valeurs des sélecteurs (portes) entre 0 et 1, puis on a utilisé le produit de Hadamard (produit terme à terme des matrices) pour réaliser effectivement la sélection grâce aux portes, en diminuant les termes dont les valeurs correspondantes des portes sont proches de 0 et en essayant de conserver ceux dont les valeurs correspondantes des portes sont proches de 1.
Cette implémentation peut être modifiée, surtout en ce qui concerne les fonctions d’activation utilisées (σ et tanh), et en particulier la fonction d’activation de finalisation tanh ici, mais c’est l’une des plus optimales.
Le seul problème qui demeure est que le nombre de termes à apprendre est très grand. Cela a fait à ce qu’on puisse essayer de le diminuer en implémentant le GRU (Gated Recurrent Unit) poussant un peu plus loin l’abstraction des portes pour diminuer le nombre de paramètres.
Les cellules GRU
Les cellules GRU (Gated Recurrent Unit) sont une autre implémentation des cellules des réseaux de neurones récurrents comme les LSTM à la différence près que, bien que partant de la même idée fondamentale évoquée précédemment, les GRU apparaissent comme une simplification des LSTM.
Elles possèdent néanmoins des performances comparables en ce qui concerne la prédiction des séries temporelles,... Les simplifications sont réalisées au niveau des états cachés et des portes. On conserve un seul état caché h (quitte à le contrôler à l’interne pour implémenter la mémorisation à long terme et à court terme). Et pour les portes, on fusionne les portes de sélection des entrées avec celle des éléments à oublier (donc les portes I et F) pour former une porte dite de mise à jour (porte qui sera appelée update ou U). La porte de sélection des éléments de sortie quant à elle, est transformée en porte de réinitialisation.
Ces deux portes (de mise à jour et de réinitialisation) sont en fait implémentées de façon identique que celles des cellules LSTM. La particularité des GRU se situe principalement au niveau de la gestion de la mémoire (l’implémentation du processus de mémorisation) car, ayant supprimé la distinction long-terme/court-terme, il fallait bien trouver un mécanisme devant permettre de bien gérer les deux aspects de la mémoire avec un seul état interne conservé.
C’est ainsi que, la porte de mise à jour (porte U) est introduite dans le calcul de l’état h pour assurer la sélection du type de mise à jour à effectuer. Il s’agit de faire en sorte que, selon l’état interne et l’entrée, tout l’état interne précédent soit considéré mais que certains éléments soient complètement modifiés, selon le besoin, et d’autres presque conservés.
Ainsi donc, h devient une combinaison d’éléments provenant de l’état interne précédent avec ceux provenant des nouveaux calculs effectués par la cellule (en fonction de l’entrée et de l’état interne précédent). Le comportement est alors le suivant :
Quand le vecteur de mise à jour a un terme proche de 1, cet état interne est presque conservé. Par conséquent, sa mise à jour est presque ignorée. Quand c’est plutôt 0, l’état interne précédent est presque ignorée et une mise à jour complète de cet état est effectuée.
La formulation mathématique permet de mieux en saisir le fonctionnement [16, 15] :
U
t
R
t
h t
y t
= σ (WuxXt +Wuhht−1 +bu)
= σ (WrxXt +Wriht−1 +br)
= Ut ◦ht−1 +(1−Ut)◦tanh(WhxXt +Whr (Rtht−1)+bc)
= Wyhht +by
(I.4)
Et pour illustration, on peut considérer l’image suivante :
Figure I.5: Cellule GRU [18]
Il faut noter que sur cette image (figure I.5), l’implémentation de la mise à jour est l’inverse de celle que nous avons décrit par les équations I.4. C’est-à-dire que les termes Ut et (1−Ut) sont permutés. Mais aussi, ici Zt représente Ut.
Ces modèles fonctionnent très bien et certaines implémentations permettent d’améliorer encore leurs performances. Ils sont néanmoins lents à entraîner, surtout à cause de l’aspect temporel. Parmi les techniques d’amélioration des performances, une peut être considérée car elle a un rapport direct avec notre travail. Il s’agit des mécanismes d’attention [3].
I.5.3 Mécanismes d’attention
Les mécanismes d’attention sont en bref des techniques permettant de lutter contre la perte de mémoire qu’on constate par exemple dans les cellules récurrentes ci-haut décrites, en se focalisant sur des éléments les plus importants à chaque traitement. Le travail consiste donc à repérer, pour chaque entrée, les éléments sur lesquels se focaliser.
C’est là qu’interviennent donc ces mécanismes.
L’une des implémentations les plus commodes est l’attention globale [30].
Pour l’expliquer, nous allons considérer une architecture jusque là passée sous silence, mais qui permet aux modèles introduits là haut de s’utiliser efficacement pour les tâches courantes du NLP en particulier. Il s’agit des modèles dits encodeur-décodeur.
En effet, lorsqu’on a un modèle à séquence fonctionnel, les objectifs peuvent être multiples. On peut vouloir :
1°) fournir une série d’éléments en entrée et ressortir une autre série (utile pour la prédiction de la valeur des actions par exemple,... );
2°) fournir un série en entrée mais faire ressortir un seul élément ou vecteur (utile pour la classification des textes, l’analyse des sentiments,...);
3°) fournir un vecteur plusieurs fois en entrée et produire une série (pour la génération des légendes pour des images par exemple,...);
4°) on peut aussi avoir un réseau série-vers-vecteur, appelé encodeur, suivi d’un réseau vecteur-vers-série, appelé décodeur (très utile pour la traduction et la synthèse automatique par exemple,...). Il s’agit du modèle encodeur-décodeur.
Une illustration par image sera suffisante :
Figure I.6: Réseaux série-vers-série (en haut à gauche), série-vers-vecteur (en haut à
droite), vecteur-vers-série (en bas à gauche) et encodeur-décodeur (en bas à droite) [16]
.
L’élément (le vecteur d’état) passé entre l’encodeur et le décodeur est dit vecteur de contexte. Il représente en quelques sortes un condensé des informations passés à l’entrée de l’encodeur. Toutefois, plus la séquence d’entrée est longue, plus le risque que la mémoire de certaines séquences puisse s’étioler devient grand. Ainsi, si par exemple on est entrain de vouloir traduire une longue phrase, on peut finir par transmettre un vecteur de contexte qui a perdu toute information sur les premiers éléments de la séquence passée en entrée. C’est pour cela qu’au lieu de passer un vecteur de contexte général, les mécanismes d’attention permettraient ici de ne se focaliser que sur certaines informations lors du traitement d’un élément particulier de la séquence (en ayant évidemment passé tous les états internes passés au décodeur). Pour le réaliser concrètement, le mécanisme d’attention global consiste à formater le vecteur de contexte en fonction des éléments de l’encodeur à prendre en compte lors du traitement par le décodeur.
Considérons que Ω, dont les termes sont représentés par wij, est la matrice des poids d’attention normalisés par une fonction softmax pour chaque ligne. Et que Π, dont les termes sont représentés par αij, est la matrice des poids d’attention générée par le mécanismes avant normalisation.Si les éléments ci représentent à chaque fois le vecteur contexte final à l’étape i de décodage et les hj sont les vecteurs d’état interne de l’encodeur, l’attention globale revient à réaliser la manipulation suivante, pour formater le vecteur de contexte à prendre en compte pour l’élément en cours de traitement [30] :
wij = sof tmax(αij) = Pekαeijαik (I.5)
ci = Pj wijhj
La dernière relation du système I.5 revient à réaliser une somme pondérée des vecteurs d’état internes passés de l’encodeur, selon l’importance de chaque état pour le traitement en cours. De ces équations il faut aussi remarquer que la notation des sommations n’est pas rigoureuse. Cela est volontaire car c’est intuitif (on réalise des sommations sur tous les éléments).
Plusieurs techniques arrivant à réaliser l’attention existent. En général, comme on peut d’ailleurs le déduire des relations de l’attention globale, ces mécanismes étaient utilisés dans le cadre des réseaux récurrents. Une question s’est toutefois naturellement posée : ne pourrait-on pas se passer des RNN pour mettre au point des réseaux complètement basés sur l’attention ?. La réponse est oui, avec des ajustements adéquats pour résoudre les faiblesses des modèles classiques dans le traitement des données séquentielles. C’est cela qui a conduit aux modèles dits transformers [50].
I.5.4 Les transformers
Il s’agit des modèles dont l’architecture générique se présente comme suit :
Figure I.7: Architecture générique des transformers [50]
Les transformers sont des modèles du type encodeur-décodeur comme on peut le constater sur la figure ci-dessus (bien que certaines implémentations n’en utilisent qu’une partie selon la tâche). Ils sont essentiellement basé sur les mécanismes d’attention, se passant de la récurrence [16, 15].
Nous donnerons une explication succincte de chacun des modules présents dans l’image I.7. En effet, présentons les modules selon l’ordre dans lequel les données traversent le modèle :
1°) Moduled’embedding : Nous savons que les données textuelles doivent être présentées au modèle sous forme numérique. Elles doivent donc être transformées avant de les passer aux parties suivantes. Néanmoins, vu que la représentation des entrées a
un impact significatif sur les performances d’un modèle, cette représentation doit être bien choisie. Un choix intuitif, et qui s’avère être performant, est de tout faire pour que si deux termes ont des sens proches, ils aient aussi des représentations vectorielles proches. Cela est réalisé par différentes techniques que nous présenterons dans le chapitre suivant, mais c’est là le rôle de la couche d’enchâssement (embedding).
2°) L’encodage positionnel (positionnal encoding) : Ce module ajoute l’information sur la position relative de chacun des éléments placés en entrée par rapport aux autres. Cela pallie au problème de perte d’information sur la position des mots quand on utilise un réseau non séquentiel comme les réseaux récurrents. Donc, la position de chaque terme de la séquence placée en entrée est encodée dans un vecteur puis ajoutée à l’encodage global du terme. L’un des encodages les plus utilisés est celui basé sur les fonctions trigonométriques tel qu’introduit dans [50].
3°) Module d’auto-attention : La couche d’attention, présentée en première position dans la boîte de l’encodeur, est en fait une couche dite de self-attention car elle opère sur la même séquence d’entrée. L’opération est réalisée pour permettre au modèle d’avoir une représentation de l’importance des termes dans la séquence d’entrée, les uns par rapport aux autres.
Pour illustration, considérons la phrase suivante : Walter est malade, il préfère se reposer.
Dans cette phrase, l’un des constats qu’on peut faire est que, le nom "Walter" est beaucoup plus lié au pronom "il" qu’au verbe "préférer". C’est à l’établissement des tels liens dans les représentations que sert le module d’auto-attention ici présenté. Il est important que ce lien soit implicitement présent dans les représentations, pour que le traitement soit efficace comme on l’a mentionné lors de la présentation des mécanismes d’attention. Donc cette couche est en fait un prolongement de celle d’embedding. Ici, le mécanisme d’attention utilisé est différent de celui qui a été présenté là-haut (attention globale). Il s’agit ici d’un mécanisme plutôt basé sur le produit scalaire mis à l’échelle (scaled dot-product). En effet, très brièvement, l’idée du scaled dot-product attention consiste à opérer une recherche des termes sur lesquels focaliser l’attention de la même façon qu’on réalise la recherche de la signification d’un mot dans un dictionnaire. Supposons qu’on veuille avoir la signification d’un mot dont on ne connaît pas l’orthographe exacte. Pour retrouver ce dernier dans un dictionnaire, il suffit de rechercher le mot qui ressemble le plus à l’orthographe que nous estimons être la plus vraisemblable. Mathématiquement, cette recherche de similitude correspond à un produit scalaire.
Similairement, le scaled dot-product consiste à générer trois éléments qui sont la clé ou key k, la valeur ou value v et la requête ou query q. La requête correspond au mot
qu’on cherche (orthographié selon ce que nous pensons), la clé correspond au mot présent dans le dictionnaire et la valeur correspond à la signification associée. Si on supposait qu’il existe plusieurs termes du dictionnaire qui s’orthographient presque de la même façon que le mot qu’on cherche, on devra passer par une mesure de similarité avant de se décider sur le sens le plus probable. Cela correspond à réaliser le produit de tous les k par les q présents, puis à normaliser l’ensemble des résultats de manière à ce qu’ils représentent des mesures de probabilité, et finir par choisir le sens v le plus probable.
Pour aller plus vite, on implémente ce processus en considérant tous les k, q et v au même moment de manière à réaliser le calcul une fois pour toutes. Cela revient à regrouper tous les k, q et v dans des matrices K, Q et V . Ce qui donne la relation qui définit l’attention par produit scalaire mis à l’échelle [50] :
Q ·KT
Attention(Q,K,V ) = sof tmax p ·V (I.6) dk
Dans cette relation, expression I.6, le terme pdk permet de mettre à l’échelle le résultat du produit scalaire de Q par K, c’est-à-dire Q·KT . Il faut noter que dk est la dimension d’une clé, et que cette normalisation permet d’améliorer les performances du modèle mais elle n’est pas la seule envisageable.
Il est aussi important de remarquer que la couche d’attention utilise trois termes pour arriver à bout du problème. Ces trois termes sont obtenus par une transformation linéaire dont les poids sont appris à travers un réseau de neurones simple.
Il faut aussi noter que l’on utilise parallèlement plusieurs modules d’attention pour capture toutes les caractéristiques des séquences (on parle de multi-head attention). Pour une plus ample illustration, voir la figure I.8.
4°) Le module feed-forward : Il s’agit en fait d’un réseau de neurones de propagation avant classique (réseau à couches ajoutées de façon séquentielle). Il permet de réaliser le traitement qui fait suite à l’attention.
5°) Couche d’attention encodeur-décodeur : Il s’agit de la couche qui reçoit les données en provenance de l’encodeur. Il s’agit ici d’une couche d’attention et non d’autoattention comme c’était le cas pour la première couche de l’encodeur. En effet, contrairement à la couche de self-attention, pour laquelle tous les trois paramètres sont calculés à partir de la même séquence, la couche d’attention ici prend les clés K et valeurs V provenant de l’encodeur mais une requête Q provenant du décodeur.
Une autre couche feed-forward suit celle-ci et a le même rôle que celle de l’encodeur.
6°) Module d’attention masquée : Il s’agit de la première couche du décodeur. C’est aussi un module de self-attention auquel on ajoute le masquage. Ce module est dit masqué suite au fait que, comme le décodeur est un module de génération, on ne regarde que les termes précédemment générés, en masquant les termes qui seront probablement générés aux pas d’après. Cela est réalisé en rendant juste leurs probabilités nulles.
7°) Module linéaire final : Il s’agit d’un réseau de neurones classique pour réaliser la déduction finale, le tout étant passé à la fin à travers une opération softmax qui permet de transformer les résultats en probabilité d’éléments générés (cela permet de choisir le terme le plus vraisemblable à générer comme sortie).
Cette explication simplifiée se comprend mieux si on y joint la vue éclatée suivante :
I.6. CONCLUSION PARTIELLE
Figure I.8: Vue éclatée d’un transformer [51]
Les transformers, ici succinctement présentés, sont un modèle très adapté aux tâches de traitement automatique du langage naturel. C’est un modèle incontournable vu aussi que ses traitements peuvent être facilement parallélisés. Cela est rendu possible par le fait que l’architecture des transformers est parallèle par essence.
I.6 Conclusion partielle
Nous venons de réaliser une vue d’ensemble du domaine de traitement automatique du langage naturel, ainsi que diverses techniques couramment utilisées. Pour cela, nous avons tout d’abord justifié la préséance des modèles basés sur le deep learning pour diverses tâches du NLP.
Ensuite, nous avons évoqué les technique de pré-traitement des textes, souvent incontournables, comme la réduction des séquences en leurs tokens constitutifs, la suppression des mots fréquents mais n’apportant pas assez d’informations et la réduction des mots en leurs racines respectives. Nous y avons aussi joint quelques techniques utiles à la compréhension du langage humain comme le POS tagging et la reconnaissance d’entités nommées. Ce qui précède nous a finalement conduit à présenter les modèles courants du NLP basés sur les RNNs et, nous avons terminé par la présentation de l’architecture transformer, modèle que nous utiliserons pour ce travail (les précisions sur les modèles particuliers seront données au chapitre suivant).
Les transformers constituent un type de modèle qui s’avère être le plus adapté (pour le moment) au résumé automatique du texte et, dans le chapitre suivant, nous commencerons par présenter les diverses spécificités du résumé automatique comme tâche du NLP, pour finir par présenter l’architecture globale du système que nous comptons élaborer.
Chapitre II
Présentation du résumé automatique et conception du système
II.1 Introduction partielle
Le résumé automatique étant le sujet principal de ce mémoire, dans cette partie nous le présentons alors en détail en tant que discipline et tâche du NLP. Nous allons ici présenter les théories sur la synthèse automatique des textes, en classifiant les diverses méthodes utilisées pour pouvoir situer notre système dans l’ensemble des travaux jusque-là menés sur ce sujet.
Ensuite, nous présenterons les diverses approches utilisées pour le résumé automatique, sans oublier d’approfondir notre présentation des modèles de type transformer adaptés à cette tâche, pour finalement mentionner le modèle que nous estimons le plus adapté concernant l’approche basée sur le deep-learning pour la synthèse automatique. Enfin, nous allons réaliser une conception rapide mais suffisante de l’architecture globale de notre système, tout en précisant le rôle et le fonctionnement de chaque partie.
II.2 Présentation et définitions
Selon Le Petit Robert, résumer c’est reprendre en plus court un discours, le présenter brièvement en conservant l’essentiel. En d’autres termes, c’est l’abréger, l’écourter, le réduire. De même, en tant qu’exercice intellectuel, le résumé, consiste à réduire un texte tout en lui restant fidèle. Il exige donc de restituer les idées en un nombre déterminé de mots, en évitant au mieux de recopier le texte à résumer. Il faut alors composer un texte
29
plus court qui contienne l’essentiel du message initial.
De cela on tire que le résumé devient automatique s’il est généré par un logiciel ou un système informatique.
Cette définition est en fait correcte bien qu’elle ne soit assez précise pour notre contexte. Il nous faut une définition assez générale et précise, embrassant au mieux l’aspect automatique, ou mieux, l’aspect informatique, qui nous intéresse dans ce mémoire. Une définition assez valable est celle de TORRES-MORENO Juan-Manuel qui dit qu’un résumé automatique est un texte généré par un logiciel, cohérent et contenant une partie importante des informations pertinentes de la source, et dont le taux de compression est inférieur au tiers de la taille du(des) document(s) source(s) [48].
L’introduction du taux de compression dans la définition n’est pas anodine car, on s’est très vite rendu compte que la performance d’un système de résumé automatique dépendait fortement du taux de compression. En effet, les études de [26] montrent que les meilleures performances des systèmes de résumé automatique sont généralement atteintes pour des taux de compression compris entre 15 et 30% [48].
Nous allons adopter, dans ce travail, la définition de TORRES-MORENO Juan-Manuel ci-haut présentée.
Toutefois, on ne doit pas manquer de signaler que la génération automatique des résumés est un problème complexe en soi, tout comme l’évaluation des résultats. Le résumé est en effet une tâche cognitive requérant la compréhension du texte considéré et, les humains n’étant pas toujours bons dans les tâches de synthèse, le manque d’étalon explique qu’il y ait également une difficulté d’automatisation du processus.
II.3 Catégorisation des résumés
Les résumés peuvent être classifiés selon différents critères tels que leur fonction, le nombre de documents source, le genre de document, le type de résumé, le type de résumeur, le contexte,...
II.3. CATÉGORISATION DES RÉSUMÉS
Parcourons de manière succincte ces différents critères de classification [36, 31, 32, 38, 37, 48] :
II.3.1 Selon la fonction
Selon leur fonction, on classifie les résumés en deux groupes qui sont le résumé indicatif et le résumé informatif.
Résumé indicatif
Tel une table des matières, un résumé indicatif renseigne le lecteur sur les thèmes abordés dans un document. Il liste donc les sujets les plus importants évoqués par le texte. Certains systèmes de résumé guidé génèrent un résumé indicatif du texte comme étape initiale, l’utilisateur choisit alors parmi les sujets proposés par le résumé ceux qui l’intéressent et le système produit enfin un résumé informatif du texte guidé par la requête de l’utilisateur. La requête dans ce cas est l’ensemble des sujets sélectionnés à partir du résumé indicatif.
Résumé informatif
Il s’agit d’un modèle rétréci du texte d’origine, relatant le plus largement possible les informations contenues dans celui-ci. Ce type de résumé répond souvent à une attente en résumant de plus le contenu. La problématique ici est donc double : comprendre ce qui n’est pas information dans un texte et connaître le besoin de l’utilisateur final. Néanmoins, si on n’a pas de requête spécifique de la part de l’utilisateur, le résumé informatif est réalisé en veillant à ce que l’ensemble des principaux sujets du texte d’origine soit rapporté. Ainsi, les sujets principaux qui sont rappelés dans le résumé sont répartis de manière fidèle par rapport à l’organisation initiale afin de donner un juste aperçu du texte source.
II.3.2 Selon le nombre de documents source
Selon le nombre de documents source on a les résumés mono-document et multidocument.
Résumé mono-document
Il consiste à résumer un document isolé. Le corpus de documents source est donc ici constitué d’un seul et unique document.
Résumé multi-document
Il s’agit d’un résumé de plusieurs documents (un groupe de documents), très souvent liés thématiquement, en faisant attention à ne pas insérer des informations déjà évoquées.
II.3.3 Selon le genre des documents
Résumé des documents journalistiques
Il s’agit de résumer les documents du type article de presse (sachant qu’ils ont une structure particulière). En effet, on sait par exemple que dans le domaine journalistique, les informations les plus importantes sont souvent mentionnées au début du texte.[36]
Résumé des documents spécialisés
Il s’agit de résumer des documents en provenance d’un domaine précis (géologie, médecine, mathématique,...), fortement spécialisé.
Résumé des documents littéraires
C’est le résumé de documents du type narratif, des textes littéraires, des textes argumentatifs, ...
II.3. CATÉGORISATION DES RÉSUMÉS
Résumé des documents encyclopédiques
Ici il s’agit de résumer des documents de type encyclopédique (en général multithématiques de toute évidence) à l’exemple de Wikipédia...
II.3.4 Selon le type de sortie (résumé obtenu)
Cette classification est très importante et très utilisée. Il s’agit des :
Résumés extractifs (extractive summarization)
Le résumé extrait est formé de segments de texte extraits du(des) document(s) source(s). Ces segments peuvent être des phrases, des propositions ou n’importe quelle unité textuelle présent dans le(s) document(s) à résumer. Le problème consiste donc à repérer les segments de texte qui semblent être les plus pertinents pour faire partie du résumé final. Les éléments obtenus à la fin sont donc explicitement présents dans le(s) document(s) source(s).
Résumés abstractifs (abstractive summarization)
Les méthodes de résumé abstractives imitent, jusqu’à un certain degré, le processus naturel accompli par l’homme pour résumer un document. Par conséquent, elles produisent des résumés plus similaires aux résumés manuels (humains). Ce processus peut être décrit par deux étapes majeures : la compréhension du texte source et la génération du résumé. La première étape vise à analyser sémantiquement le contenu du texte et à identifier les parties à exprimer dans le résumé. C’est en quelques sortes une tâche d’extraction d’information liée au domaine abordé ou de regroupement des phrases du texte source. Vient ensuite la génération du texte.
Bref, on produit un résumé rapportant le contenu du(des) texte(s) source(s) en utilisant un vocabulaire différent et plus concis.
Il existe aussi des résumés dits semi-extractifs, et même aussi des résumés dits par compression [48] mais nous estimons inutile de les décrire ici étant donné que la distinction abstractif-extractif suffit pour notre contexte.
II.3.5 Selon le type de résumeur
Le résumeur est le système qui réalise le résumé. Il peut s’agir d’une entité naturelle (un humain) ou artificielle (un logiciel). On a donc essentiellement les deux cas suivants :
Résumé humain (manuel)
Il s’agit d’un résumé réalisé par un humain. Il peut être fait par l’auteur même du document (on parle souvent de résumé d’auteur), par un expert du domaine traité (on parle souvent de résumé d’expert) ou par un professionnel de résumé (on parle de résumé professionnel).
Résumé automatique
Il s’agit, comme on l’a maintes fois mentionné, d’un résumé fait par un système informatique.
II.3.6 Selon le contexte
Résumé générique
Ici on résume le document sans prendre en compte les besoins d’information de l’utilisateur. On produit juste un résumé complet et le plus mieux fait possible.
Résumé guidé
Pour ces types de résumé, l’utilisateur commande la génération du résumé en précisant les types d’information dont il a besoin.
Résumé mis à jour
Il s’agit d’un résumé de type dynamique par essence. Ici, un ensemble de documents sources est résumé en veillant minutieusement à ce que le document dont le résumé est ajouté à la suite d’un précédent résumé ne puisse pas créer une répétition d’information.
Il y a donc un contrôle de nouveauté.
II.3.7 Selon le destinataire du résumé
On peut aussi classifier un résumé selon le public auquel il est destiné.
Résumé sans profil
Il s’agit d’un résumé qui ne tient pas compte d’un quelconque profil utilisateur. Le résumé est donc généré sans tenir compte de la personnalité des utilisateurs.
Résumé avec profil
Il s’agit d’un résumé dont l’un des éléments guides (requête) est le profil des individus auxquels le résumé est destiné.
En ce qui concerne notre système, nous implémenterons à la fois un résumeur abstractif et un résumeur extractif et ce sera mono-document. En plus de cela, le résumé ne sera pas guidé, il s’agira de produire des résumés génériques, pour des documents de type littéraire (documents du type narratif, des textes littéraires, des textes argumentatifs,...).
II.4 Approches de résumé automatique
Nous allons présenter ici diverses approches algorithmiques pour résumer les documents textuels. Les approches seront abordées en supposant que les résumés sont principalement classés en abstractif et extractif.
II.4.1 Techniques intuitives de résumé [36]
Avec des critères centrés sur le contenu des textes, il existe un grand nombre d’algorithmes assez triviaux de résumé, qui sont basés entre autres sur : • La fréquence d’occurrence des mots et
• L’annotation en rôle sémantique.
Ces critères mettent l’accent sur le contenu du texte et le message qu’il communique.
Fréquence d’occurrence des mots
L’idée majeure des techniques qui utilisent ce critère consiste à considérer que les mots les plus fréquents sont les plus liés au sujet principal du texte à résumer. Cette approche assez simpliste mais fonctionnelle fut introduite en 1958 par Luhn [29], une première tentative de résumé automatique.
On affecte des scores aux phrases présentes dans le texte, en additionnant chaque fois les poids des mots les constituant (on attribue ce poids en fonction de la fréquence d’apparition du mot considéré dans le texte entier). Et, à la fin, le résumé est constitué avec les phrases extraites du texte source, et dont le score dépasse un certain seuil dépendant de la taille maximale imposée pour le résumé. Le tout est finalement réarrangé selon l’ordre d’apparition (des phrases sélectionnées) dans le texte d’origine.
L’annotation en rôle sémantique
Ici, l’idée est simple. En utilisant des techniques de repérage d’entités nommées (voir le chapitre précédent), on identifie les entités présentes dans le document. Après cela, l’entité la plus fréquente est identifiée et considérée comme entité principale. Par la suite, les phrases contenant cette entité sont sélectionnées. Enfin, seules les phrases où l’entité principale possède un rôle sémantique fondamental (non auxiliaire) sont gardées pour le résumé.
L’un des moyens les plus simples pour repérer les entités nommées est de passer par l’apprentissage profond comme on l’a précédemment mentionné.
Il existe tout de même des techniques qui ne se fient qu’à la forme et à la structure du texte, sans en considérer le contenu. L’intuition derrière cette approche est basée sur le constat que dans un texte, les éléments ne sont pas présentés de façon arbitraire. De manière usuelle, les techniques utilisées se basent sur :
La position des phrases;
La similarité avec le titre
La longueur des phrases ou sinon,
Les mots indices (cue word)
La position des phrases
Cette approche est à appliquer en fonction de la nature du document et de son genre. Pour certains types de documents (documents journalistiques par exemple), les phrases se trouvant au début sont généralement plus informatives et décrivent le sujet principal du document. De plus, les phrases situées au début de chaque paragraphe tendent à apporter plus d’informations pertinentes. Le résumé des articles scientifiques par contre, peut essentiellement se former en se basant sur les contenus des parties résumé et introduction (sous l’hypothèse que ces dernières parties sont bien faites). En revanche, dans le cas des revues intégratives (critique et comparaison des études), les phrases les mieux notées sont celles des parties résultats et discussion et conclusion.
Ces exemples suffisent pour illustrer dans quelle mesure cette approche peut s’appliquer.
La similarité avec le titre
Cette approche part du principe selon lequel un bon titre doit informer de manière brève du contenu principal du texte qu’il encadre. Cela permet alors de fixer comme mesure de pertinence des phrases, leur similarité avec les titres. Toute la problématique se réduit donc à la construction d’algorithmes capables de capturer efficacement la similarité.
La longueur des phrases
L’approche consistant à se baser sur la longueur des phrases est assez naïve mais fonctionnelle.
En effet, la longueur moyenne d’une phrase dans un texte dépend de son genre. Généralement, les phrases très courtes sont considérées comme peu informatives alors que les phrases très longues sont présumées favoriser la redondance. Cette caractéristique est exploitée en fixant un intervalle de longueur (entre 15 et 30 mots). Une phrase ayant une longueur en dehors de cet intervalle est pénalisée [45].
Les mots indices
Ici, on considère une liste de mots, constituée manuellement, et qui a comme rôle de permettre de se décider si une phrase doit être prise dans le résumé ou rejetée, selon qu’elle contient ou non un(des) mot(s) de la liste qualifié(s) inhibiteur(s) ou valorisant(s). Comme exemple des mots ou groupes de mots inhibiteurs on trouve : par exemple, accessoirement, ... Et pour les mots valorisants on peut citer : notez bien, ...
Nous devons quand même préciser encore une fois que tout dépend de celui qui écrit la liste.
Les méthodes que nous venons de présenter sont assez intuitives mais constituent la base des processus de synthèse. En effet, synthétiser un texte revient au fond à implémenter un certain nombre de règles, dont font parties évidemment celles que nous venons de mentionner. Néanmoins, ce que nous venons de présenter est décrit en se basant sur le concept de résumé extractif. Nous devons toutefois signaler que les résumés abstractifs se basent au fond sur les mêmes principes, soit en partant des résumés extractifs pour ensuite réaliser des paraphrases, insérer des connecteurs appropriés et éliminer les références anaphoriques dans les résumés, soit en implémentant indirectement toutes ces techniques à travers un modèle d’apprentissage automatique ou un modèle basé sur les graphes capables de capturer d’un seul coup tous ces aspects (ou une grande partie d’entre-eux). Les techniques intuitives ci-haut présentées ne sont pas les seules. Il en existe également d’autres, basées essentiellement sur les théories linguistiques. Entre autres les méthodes d’analyse du discours (par exemple la RST [31] ou Rhetorical Structure Theory)...
II.4.2 Algorithmes classiques de résumé automatique
Comme nous venons de l’introduire dans la section précédente, le résumé automatique est abordé essentiellement selon deux approches qui sont [31] :
1°) Les approches numériques, fondées sur les techniques à base des scores (poids), et
2°) Les approches symboliques fondées sur les techniques purement linguistiques, basées en premier sur une étude sémantique.
Il faut noter qu’on peut considérer aussi des approches basées sur la théorie des graphes comme intégrant les idées de ces deux approches de façon implicite, tout comme celles basées sur l’apprentissage automatique. Mais, dans tous les cas, une vue sur quelques heuristiques (méthodes basées sur le bon sens) est toujours à considérer (surtout en amont, puis en aval du processus de synthèse).
Ici, nous allons présenter les approches essentiellement numériques (on va y inclure celles basées sur l’apprentissage automatique et celles basées sur la théorie des graphes).
Algorithme de Luhn [29]
Il s’agit d’une méthode heuristique pour la synthèse des documents. C’est la plus ancienne méthode de résumé automatique (au sens moderne du terme).
Cette approche n’est pas considérée comme très bien formalisée. Elle exécute implicitement l’approche du TfIdf que nous allons décrire dans la sous-section qui suit celle-ci (sous-section II.4.2).
La sélection (des mots ici) se fait en considérant les hypothèses qui suivent :
la synthèse consiste à supprimer certains mots pour n’en conserver que les plus importants;
les mots se trouvant au début sont probablement importants;
les autres mots utiles respectent une certaine distribution. La figure II.1 montre, selon Luhn, comment choisir ces mots importants (partie hachurée de la courbe).
Figure II.1: Diagramme des fréquences des mots et le choix de Luhn [29]
Cette approche, comme on l’a mentionné au début, est assez moins précise et empirique, mais elle sous-entend les idées fondamentales appliquées plus tard.
Algorithme TF-IDF
Le tf-idf (time-frequency inverse document frequency est une approche essentiellement utilisée pour le résumé extractif. Il s’agit d’une correction de l’approche naïve consistant à poser que plus un mot est répété dans un corpus de texte, plus il y est important.
Soit donc un corpus constitué de D documents et Nj le nombre total de mots (termes) présents dans un document j donné du corpus. Nommons Freq(i,j) le nombre de fois qu’un terme i apparaît dans le document j.
On définit classiquement la fréquence d’apparition par :
Freq(i,j)
T F(i,j) = (II.1)
Nj
L’approche qui se base naïvement sur la fréquence d’apparition des mots dans les textes pour juger de leur importance relative, accorde à chaque mot un poids égal à T F(i,j). La grande faiblesse de cette approche est d’inclure ainsi des termes sans grande pertinence informationnelle comme des prépositions, des articles,... très présents au sein des documents.
Pour corriger cette faiblesse, on pose l’hypothèse que les termes importants apparaissent plusieurs fois dans un document (ou juste dans peu de documents du corpus) et non pas dans plusieurs documents. Puisque dans ce second cas, il est souvent question des éléments communs du langage, sans grande utilité informationnelle. Ceci constitue en fait la loi de Zipt [55] et c’est le fondement de l’approche du tf-idf.
A cet effet, on définit DFi comme étant le nombre de documents dans le corpus, qui contiennent le terme numéro i. Cela permet d’affecter alors le poids selon la formule [5] :
D !
T FIDF(i,j) = log(1+T F(i,j))·log (II.2)
DFi
Dans l’expression, II.2, en supposant que N est le dictionnaire des termes présents dans l’ensemble des documents, il faut noter que : i ∈ {1,...,N} et j ∈ {1,...,D}.
D’où finalement, le poids d’un terme i dans un document j est donné par :
wij = T FIDF(i,j) (II.3)
Pour notre cas, l’application de cette approche consiste à décomposer un long texte en ses phrases et de considérer que chacune de ces phrases est un document et que le texte entier constitue le corpus.
Plusieurs définitions des éléments T F(ij) et IDFi formant l’expression II.2 sont toutefois possibles selon les besoins en terme de performance.
Mais, dans l’ensemble, l’idée de base demeure la même car il ne s’agit en général que de changement des types de normalisation [55].
L’application de cette méthode pour le résumé consiste finalement à calculer le poids de chaque phrase en additionnant les poids des termes la constituant, puis à normaliser le résultat en fonction de la taille de la phrase considérée. Après tout, on définit un seuil qui permet de soutirer les phrases selon leur pertinence ainsi évaluée (en considérant évidemment plus pertinente une phrase dont le résultat de la sommation des poids est élevé).
Algorithme TextRank
TextRank est un algorithme de résumé extractif, basé sur la théorie des graphes et qui s’inspire de l’algorithme PageRank de Google [8, 4].
A la base, on considère un ensemble de N phrases donné, et on calcule les coefficients de liaison de chaque phrase aux N −1 autres. A la fin, on peut obtenir une matrice M de taille N ×N dont chaque terme Mij représente le degré de liaison entre la phrase numéro i et la numéro j. Il s’agit en fait d’une matrice d’adjacence dans laquelle on pose au préalable que Mii = 0, pour tout i (c’est la même idée pour l’algorithme PageRank étant donné qu’il est logique de considérer qu’une page ne peut s’auto-référencer).
Soit donc i ∈ {1,...,N}. Appelons P hri la phrase numéro i du corpus. Cela veut dire qu’on peut écrire :
Liaison P hri ↭ P hrj = Mij = Mji (II.4)
Les valeurs de Mij sont calculées au choix, selon le programmeur. Ce dernier implémente en effet une mesure de similarité selon sa définition de la liaison entre phrases et les besoins en performance.
C’est ainsi qu’on peut utiliser par exemple une mesure de similarité classique nommée similarité cosinus en la basant par exemple sur T FIDF [19].
Pour représenter les mots à comparer, on utilise les méthodes classiques de vectorisation des mots (word embedding). Nous esquisserons ces méthodes dans les sections qui vont suivre, parlant du word embedding ( II.5 ).
Le rang des phrases sont alors calculés de manière itérative en s’inspirant de la formule [33] :
N
Xh i
T extRank(P hri) = (1−K)+K · T extRank(P hrj) ·Mij (II.5)
j=1 j,i
Dans cette formule, K est une constante comprise entre 0 et 1.
Initialement, on prend en général une valeur identique de T extRank(P hri) pour toutes les phrases (souvent T extRank(P hri) = 1), mais la valeur initiale prise n’affecte pas les valeurs finales, juste le temps de convergence [33].
La formule II.5 n’est pas arbitraire, elle est d’ailleurs triviale si on s’inspire de l’algorithme de PagePank la plus simple. Pour cet algorithme (PageRank), on avait pris à l’origine K = 0.85 [8].
Justification de la formule Le principe de PageRank consiste à se dire que, si une page
P agi contient Ni références vers d’autres pages, la probabilité qu’on aille vers l’une de ces pages référencées est de N1i (avec l’hypothèse que les références ne sont pas répétées et que la distribution de leur importance est uniforme). On sait tout de même que plus une page est référencée, plus on doit lui donner de l’importance.
Si alors on pose que l’importance de la page P agi est connue, le calcul de l’importance d’une page P agj vers laquelle elle pointe se calculera logiquement par :
X 1
Importance(P agj) = Importance(P agi)· (II.6) i Ni
Avec i appartenant à l’ensemble des pages qui mentionnent la page P agj en leur sein.
Malheureusement, pour les phrases non référencées (pages dites isolées), on trouve une importance nulle. Pour lutter contre cela, la formule II.6 est un peu modifiée en y introduisant adéquatement une constante non nulle K.
Ce qui donne l’expression [8] :
X 1
Importance(P agj) = (1−K)+K · Importance(P agi)· (II.7) i Ni
On voit alors qu’il s’agit belle et bien de la formule utilisée pour TextRank (formule II.5).
Après initialisation des rangs de chaque phrase du texte ( les T extRank(P hri)) et après calcul de la matrice d’adjacence M. On applique la formule II.5 itérativement et à la convergence, on choisit les phrases qui vont former le résumé selon leur importance ( valeurs des T extRank(P hri) pour toute valeur de i).
A la fin, les phrases sélectionnées sont réarrangées pour former un résumé extrait plus ou moins cohérent.
Il existe également un algorithme nommé LexRank [14] qui est assez similaire à TextRank ici décrit, à la différence près que :
Il prend essentiellement en compte les métriques de similarité robustes;
Il considère la position et la longueur des phrases dans le calcul de leur pertinence; - Il est optimisé pour le résumé multi-document.
Plusieurs autres algorithmes populaires existent, par exemple les algorithmes LSA (Latent Semantic Analysis ou Analyse Sémantique Latente) et LDA (Latent Dirichlet Allocation ou Allocation Latente de Dirichlet) [5].
Le premier, la LSA, est un algorithme statistique, basé sur l’algorithme SVD (Singular Value Decomposition ou décomposition en valeurs singulières). Seulement, cette technique est très gourmande en ressources suite à la complexité de l’algorithme qui implémente le SVD. Le second, la LDA, basé sur la détection des thématiques, peut aussi être utilisé.
Toutefois, il faut remarquer que les algorithmes ici présentés sont essentiellement adaptés à la synthèse extractive. Même si, ces traitements peuvent être mélangés avec les techniques de résolution d’anaphores et les paraphrases pour obtenir des synthèses qui tendent vers la synthèse abstractive, nous devons souligner que les techniques jusque là les plus performantes pour la synthèse abstractive sont essentiellement basées sur le deep learning [36]. Le deep learning peut également être utilisé pour la synthèse extractive, permettant ainsi la génération des synthèses extraites plus cohérentes (avec résolution d’anaphores). Ainsi donc, nous abordons les méthodes de deep learning utilisées pour cet effet dans les parties qui suivent.
II.5 Modèles Seq2Seq
II.5.1 Methodes du Word-Embedding
Tout traitement commence par une représentation numérique des termes (des mots ici) pour qu’ils soient assimilables par le modèle. Une approche naïve consisterait à regrouper tous les mots de notre vocabulaire dans une liste (un dictionnaire) et de les représenter chacun par un nombre unique (un identifiant). Une autre approche, plus classique, consiste à représenter chaque mot par un vecteur de dimension égale à la taille du dictionnaire et dont tous les termes sont nuls, sauf à la position, dans le dictionnaire, du mot qu’on est entrain de vouloir représenter (on parle du one-hot encoding).
Ces représentations, et toutes celles qui s’y apparentent, ont la grande faiblesse d’être peu informatives (au point de vu sémantique). Étant artificiellement construites, sans tenir compte du sens des mots, ni de leur contexte, ces méthodes de représentation rendent la tâche de découverte des caractéristiques par les systèmes de machine learning encore plus difficile. D’ailleurs, l’une des faiblesses de la seconde méthode décrite (le one-hot encoding) est que les vecteurs sont creux (une majorité de valeurs nulles) et de dimension inutilement très grande. On pourrait directement songer à une représentation plus judicieuse pour éviter ces deux soucis, et qui consisterait à réaliser une représentation binaire des termes mais, le problème de la sémantique sera toujours là.
On recourt donc à des méthodes de représentation plus élaborées, partant du principe selon lequel le contexte d’un mot suffit pour en appréhender le sens. Ainsi, tout mot est représenté en réalisant une statistique (implicitement bien sûr) sur les divers mots qui l’accompagnent souvent, de telle sorte que les mots aux sens proches aient aussi des vecteurs très proches. Bref, on en arrive à réaliser la proposition : "Similarité sémantique implique similarité de représentation". Ce sont les méthodes classiques du word embedding (ou plongement lexical). Il s’agit par exemple des méthodes comme le Word2Vec [34, 35], Glove [39], fastText [6]...
II.5.2 Modèles séquence-à-séquence proprement dits
S’agissant des modèles séquence-à-séquence (Seq2Seq), ils ont été présentés dans la section I.5.3 (voir particulièrement la figure I.6). Il s’agit bel et bien des modèles adaptés aux tâches de synthèse, vu qu’en entrée on reçoit une séquence pour ressortir une autre séquence en sortie.
Comme nous l’avons déjà bien mentionné au précédent chapitre, nous n’allons parler que des modèles Seq2Seq de type transformer car actuellement, ils sont les plus adaptés à la tâche que nous voulons réaliser (celle de synthèse automatique). Les transformers (voir la figure I.7) sont un modèle très avantageux car en fait, au-delà de leurs performances et autres avantages, ils facilitent encore plus la recherche en NLP en rendant effectif le transfer learning (apprentissage par transfert) dans ce domaine.
L’entraînement des transformers est semi-supervisé. Il se fait en deux crans (nous les décrirons dans le cadre du NLP) :
1°) Pré-entraînement : il s’agit d’un apprentissage non supervisé, qui consiste à donner au modèle une masse colossale de données textuelles, non étiquetées, pour qu’il développe une compréhension statistique du langage qu’on veut qu’il puisse assimiler.
Au final, on obtient un modèle pré-entraîné.
2°) Affinage de l’apprentissage (fine-tuning) : Ça consiste à finaliser l’apprentissage du modèle pré-entraîné de manière supervisée pour qu’il soit en mesure de réaliser une tâche donnée du NLP (il s’agit du transfer learning en fait). Cette spécialisation, requiert une très faible quantité de données car le modèle aura déjà une représentation assez bonne de la langue. Cela pallie à la fois au problème de manque des données labellisées en NLP et de la consommation en terme de ressource énergétique des gros modèles lors de leur entraînement.
Les méthodes de pré-entraînement sont très déterminantes pour les performances finales du modèle. Ce premier entraînement du modèle a pour rôle de l’amener à construire un modèle de langage [25].
Il existe ainsi plusieurs objectifs de de pré-entraînement (pour construire le modèle de langue). On peut par exemple entraîner le modèle à :
Prédire le mot suivant : donc, lors de cet entraînement non supervisé, on fournit chaque fois au modèle une séquence de mots en lui demandant de prédire le suivant. Il s’agit d’un objectif d’entraînement dit NSP (Next Sentence Prediction) visant à transformer implicitement le transformer en un modèle de langue [11];
Deviner le mot caché (masqué) : on fournit au modèle du texte dont certaines parties (mots ou suite de mots) sont cachées. L’objectif assigné au modèle est alors de retrouver les mots masqués. On parle du MMLMasked Language Modelling [11].
Ainsi, au fur et à mesure, les paramètres du modèle s’affinent, le transformant en un modèle de langue performant. Mais, à part les deux que nous venons de mentionner, il existe d’autres objectifs de pré-entraînement [25, 54] selon les variantes de transformers et les objectifs finaux de spécialisation du modèle.
Bien que la forme classique des transformers est bel et bien celle de la figure I.7, il existe 3 types d’implémentation selon les types de tâche visées en dernier lieu :
1°) Modèles à encodeur seul : on supprime la partie décodeur. Ces modèles sont très bons pour les tâches de compréhension du langage comme la classification par exemple.
2°) Modèles à décodeur seul : on supprime alors la partie décodeur du modèle. Ils sont bons pour les tâches de génération de texte.
3°) Modèles encodeur-décodeur : ou encore modèles seq2seq proprement-dits. Ils sont bons pour les tâches demandant à la fois la compréhension et la génération des textes.
Pour illustrer ce fait, on va considérer donc 3 types de transformers [49, 52] :
1°) Like-BERT : semblables au transformer dénommé BERT Bidirectional Encoder Representations from Transformers. Ce sont des modèles du type encodeur seul. Ils sont également bidirectionnels. Donc, les phrases sont lues dans les deux sens pour mieux saisir tout le contexte.
2°) Like-GPT : donc semblables au transformer dénommé GPT (Generative Pre-trained Transformer) qui n’ont que la partie décodeur et sont dits auto-regressifs car, seules les parties précédant le mot en cours de traitement sont connues du modèle et il y a chaque fois réinjection des sorties à l’entrée.
3° Like-BART/T5 : semblables à BART (Bidirectional and Auto-Regressive Transformers) ou à T5 (Text-To-Text Transfer Transformer). C’est donc ceux du type encodeur-décodeur.
Modèles encodeurs (encoder-model) : Comme on l’a dit, pour ces modèles, on n’implé-
mente que la partie encodeur du transformer d’origine (celui de Vaswani et al. [50]). En plus de cela, ces modèles ont une couche d’attention bidirectionnelle et sont généralement appelés auto-encodeurs (auto-encoding model). Ces modèles sont principalement bons pour les tâches de NLU (Natural Language Understanding) comme la classification, le NER (Name Entity Recognition), l’extractive question-answering,...
Dans ce groupe, les modèles les plus connus sont :
ALBERT [24],
BERT [11],
DistilBERT [43],
RoBERTA [28],
Etc.
Modèles décodeurs (decoder-models): Utilisent seulement la partie décodeur, sont auto-
regressifs et par conséquent les têtes de self-attention n’accèdent qu’aux mots précédant l’étape à laquelle elles sont (pas de regard dans le futur) comme on l’a déjà un peu mentionné. Ces modèles sont particulièrement bons pour les tâches liées fortement au NLG (Natural Language Generation).
Dans ce groupe, les modèles les plus connus sont :
Les GPT (1, 2 et 3) [41],
TransformerXL [10],
Etc.
Modèles encodeur-décodeur (sequence-to-sequence models): Ces modèles utilisent l’in-
tégralité de l’architecture des transformers et sont ainsi bons pour les tâches demandant à la fois du NLU et du NLG comme la synthèse automatique abstractive, le generative question-answering et la traduction automatique.
Ici nous pouvons particulièrement mentionner les modèles comme :
BART [25],
mBART [27],
BARThez [13],
T5 [42],
mT5 [53], • PEGASUS [54],
Etc.
II.5.3 Modèle BART pour la synthèse abstractive
Le modèle BART est comme une combinaison de BERT [11] et de GPT-2 [40, 41] en terme
d’architecture et d’objectif de pré-entraînement, avec quelques optimisations supplémentaires [25]. Pour illustration, voici une image de comparaison :
Figure II.2: Comparaison simplifiée entre BERT, GPT et BART [25]
L’image II.2 étant claire, nous pouvons illustrer les diverses corruptions que peuvent subir les données pour le pré-entraînement. L’image ci-dessous l’illustre :
Figure II.3: Transformations de bruitage expérimentées pour BART [25]
Le modèle BART est bien adapté à la tâche de synthèse abstractive. C’est celui que nous
allons privilégier (les modèles dérivés de BART principalement) pour réaliser cette tâche dans notre système.
Justification du choix de BART
Le choix de BART est dû au fait que c’est le modèle que nous avons trouvé réalisant un bon compromis poids-performances. Aussi, après quelques tests, ses résultats nous ont paru être plus intéressants. En outre, l’objectif d’entraînement utilisé pour BART nous paraît assez général pour construire un modèle de langage performant. Nous justifierons plus précisément ce choix dans le chapitre qui suit, en présentant également quelques résultats des tests.
II.6 Conception de l’architecture globale du système
Il existe un large éventail des méthodes de développement des systèmes informatiques mais, en règle générale, toutes suivent les étapes suivantes [7] :
1°) Spécifications : on définit avec précision ce que fera le système (à quoi est-il destiné?);
2°) Conception et mise en oeuvre : on conçoit et on réalise le système;
3°) Validation : on teste le système pour voir s’il correspond aux objectifs précisés dans les spécifications;
4°) Évolution : ça correspond à tout ce qui vient après la livraison du produit (versionning, maintenances,...).
Ici, on ne va pas utiliser une méthode de conception particulière. Pour pouvoir tout de même y aller méthodiquement, nous nous inspirerons de ces étapes classiquement suivies lors de la conception des systèmes informatiques.
Dans ce second chapitre, nous ne présenterons que les spécifications du système ainsi qu’une ébauche de conception avec une présentation de l’architecture globale. La suite sera traitée dans le chapitre suivant.
II.6.1 Spécifications du système
Le système devra pouvoir permettre de réaliser ce qui suit :
Synthétiser les textes qui lui sont fournis en entrée (saisis directement ou importés dans fichiers .pdf non scannés, des fichiers .docx et .txt);
Servir les synthèses directement ou à travers un fichier .pdf à télécharger;
Obtenir des synthèses produites par plusieurs algorithmes et les évaluer;
Stocker les couples document-synthèse;
Faciliter le parcours des documents en soulignant les parties saillantes;
Permettre l’affinage d’un modèle de synthèse automatique (ici nous réaliserons le fine-tuning du modèle mBART ou du modèle mT5 selon celui qui se prêtera mieux à cet affinage).
C’est cela le minimum de besoins que le système devra être capable de combler.
II.6.2 Présentation des éléments du système
L’architecture globale de notre système est un trois-tiers classique. Elle se présente comme sur la figure II.4 :
Figure II.4: Architecture globale de notre système
La figure II.4 presente l’architéture du système qui est d’une architecture 3 − tiers classique. Il y a toutefois une partie qui n’est pas ici représentée car nous voulons nous donner une grande liberté de conception à son sujet. Il s’agit en fait de l’interface d’accès à l’API (Application Programming Interface), qui permettra aux développeurs de s’authentifier et générer éventuellement un token à utiliser pour implémenter leur propres interfaces devant permettre d’utiliser les services de cette API. Il s’agit donc d’une API privée.
Cette interface permettra aussi de voir toute la documentation de l’API (pour les développeurs) pour mieux utiliser ses services.
Quant au bloc interface que nous venons de présenter sur la figure II.4, c’est en nous mettant à la place d’un développeur lambda qui exploite les services de l’API.
Notre API quant à elle, est une API REST (REpresentationnal State Transfer qui aura 4 end-points principaux dédiés à la synthèse automatique (selon les besoins d’implémentation, on pourra en insérer d’autres mais qui ne concernerons probablement pas la synthèse).
Module de synthèse extraite : ce module réalisera une synthèse en combinant divers résultats d’algorithmes de synthèse extraite. Nous prévoyons, dans un premier temps, ne l’utiliser que pour des petits documents (la taille optimale sera déterminée avec les expérimentations au chapitre suivant).
Module de synthèse abstraite : ce module donnera une synthèse abstraite en utilisant l’un des transformers affinés pour la synthèse ou bien par le module qui sera en train de s’auto-améliorer au cours de l’utilisation du système (on l’a nommé expérimental, voir la figure II.7). Comme les transformers réalisent des synthèses de documents de taille généralement limitée à environ une page, nous mettrons au point, dans cette partie, une pipeline qui nous permettra d’augmenter le nombre de pages (nous pensons à 100 pages mais les expérimentations nous permettrons de choisir une taille optimale, tenant compte surtout de la rapidité).
Module de synthèse extrait simplifié : Il s’agira d’un module qui permettra la réalisation de la synthèse mais en utilisant l’un des algorithmes de synthèse extraite implémentés (soit de manière aléatoire, soit par choix de l’utilisateur).
Module expérimental : Il s’agira d’un module de synthèse abstraite qui sera essentiellement utilisé pour la synthèse des petits documents (quelques pages). Pour ce module, nous comptons mettre au point une routine d’entraînement à partir des synthèses collectées par le système, pour améliorer au fur et à mesure les performances de ce module. Nous comptons réaliser l’entraînement par transfer learning avec les transformers mT5[53] ou mBART [27] comme base. N’ayant pas encore testé cette partie, nous serons fixé sur la méthode à utiliser ainsi que le modèle de base à choisir au chapitre suivant, après les expérimentations.
On peut aussi remarquer qu’il y a un module pre-processing dans la partie interfaces. C’est par suite du fait que, pour des raisons de performance, on devra envoyer à l’API le fichier sous un format particulier. Il faudra réaliser l’acquisition des données dans divers formats (pdf,docx,...) mais les données acquises seront envoyées dans un format plus léger à l’API (du JSON pour notre cas).
La base des données, que nous avons mentionné dans la figure II.4, a un double rôle :
1°) Le stockage des données de l’utilisateur (il s’agira en fait des identifiants des interfaces qui utiliseront l’API);
2°) Le stockage des paires document-synthèse, ainsi que l’appréciation de l’utilisateur (évaluation par les utilisateurs).
II.6.3 Architecture du module de synthèse extractive
Le module de synthèse extractive se présente comme suit :
Comme nous pouvons le voir, un traitement sera fait pour adapter les données reçues à ce qui peut être traité par le système. Ce traitement consistera à ne retenir que des symboles alphanumériques, à réaliser la tokenisation des textes (chaque token sera une phrase pour cette partie) et à affecter un identifiant unique à chaque phrase.
Après cela, les données seront invariablement passées aux algorithmes de synthèse extractive, qui générerons chacun un groupe de poids des phrases. Après cela, le module de pondération et sélection réalisera successivement ce qui suit :
Acquisition des sorties de chaque algorithme de synthèse extractive (il s’agira des dictionnaires dont les clés seront les identifiant uniques des phrases et les valeurs seront les poids affectés par l’algorithme). A chaque algorithme, on donnera un poids qu’on nommera WNomdel′algo compris entre 0 et 1, selon la confiance qu’on lui porte (la somme des poids sera égale à 1 et par défaut, tous les algorithmes pourront avoir le même poids) ;
Élimination des phrases de poids faible (avec comme seuil, la taille maximale de résumé précisée par l’utilisateur);
Réarrangement de chaque dictionnaire obtenu après expulsion des phrases non significatives (les éléments seront arrangés par ordre décroissant des poids pour chaque sortie);
Donner des propabilités aux espaces des poids de chaque dictionnaire par application d’un softmax sur chacun d’eux. Ce qui donnera, pour chaque phrase de chaque dictionnaire, un nouveau poids ωphri, avec i le numéro du dictionnaire et phr le numéro de la phrase considérée dans ce dictionnaire ;
Listage complet des éléments (leurs identifiants) de tous les dictionnaires.
Pour chaque élément de la liste globale ainsi établie, appliquer la formule suivante pour obtenir un nouveau poids :
X
W = Wi ·ωphri (II.8) j
i∈D
Avec Wj le nouveau poids affecté à la phrase ayant un identifiant global j (l’identifiant là d’origine) et D la liste des dictionnaires (les sorties de chaque algorithme);
Arranger toutes les phrases par ordre décroissant dans une unique liste et sélectionner les plus haut dans la liste jusqu’à atteindre le seuil fixé (nombre de mots fixé pour la synthèse).
Constituer une liste avec les éléments sélectionnés.
Réarranger les phrases de la liste selon leur ordre de succession dans le texte d’origine.
Constituer la synthèse extraite.
Ce qui précède constitue en fait l’algorithme que nous allons implémenter pour le module de pondération et sélection.
II.6.4 Architecture du module de synthèse abstractive
Le module de synthèse abstraite n’est pas unique. Nous implémenterons plusieurs modèles (BART, BARThez, PEGASUS, mBART ou mT5 entraîné avec nos données, ainsi que tous ceux qui nous paraîtrons utiles durant les essais); Chaque module de synthèse se présentera néanmoins comme suit :
Figure II.5: Architecture globale du système de synthèse abstractive
Comme nous pouvons le remarquer, il y a toujours un module de mise en forme initial (pre-processing) qui nous permettra en gros de supprimer tous les caractères que nous ne pourrons pas gérer. Vient ensuite le module de tokenisation (le tokenizer ou tokeniseur) [49] qui consistera ici à diviser tout le texte en ses mots constitutifs et à leur affecter des identifiants numériques. Ce sont ces identifiants qui seront fournis au modèle et transformés en vecteurs par la couche d’embedding du modèle.
Le modèle quant à lui, aura toujours une architecture pareille :
Figure II.6: Architecture interne du modèle mentionné sur la figure II.5
Il s’agit en effet de l’architecture classique d’un transformer, comme présenté sur la figure I.7 à l’exception du fait qu’ici on fait explicitement apparaître l’existence de la sortie du modèle. Ça correspond au réseau linéaire suivi d’une couche de softmax tel que présenté sur la figure
I.7. Cette partie, que nous avons nommé head est différente selon les tâches [52], c’est pourquoi nous avons voulu la mentionner explicitement car, selon le besoin, on peut la modifier.
Nous devons finalement mentionner que les modules de tokenisation (nommés tokenizer en anglais) dépendront explicitement des modèles utilisés.
II.6.5 Présentation des interfaces
La partie interface nous permettra juste d’utiliser le service que nous aurons élaboré et d’évaluer par la même occasion ses performances. Elle n’est pas donc cruciale. Toutefois, voici une ébauche d’interface que nous comptons utiliser pour exploiter le service :
Figure II.7: Ébauche d’interface
Avec cette interface, on a une idée générale de la manière dont nous comptons servir le système aux utilisateurs.
II.7. CONCLUSION PARTIELLE II.7 Conclusion partielle
Dans cette partie, nous venons de présenter le résumé automatique des textes, tout en réalisant une vue d’ensemble des méthodes utilisées dans la littérature à cet effet. Nous avons mentionné que la classification des résumés que nous utiliserons sera celle les départageant en abstractive summarization et extractive summarization et que, pour notre cas, il s’agira de réaliser un système de résumé mono-document, avec une partie abstractive et une autre extractive, générant un résumé générique pour des documents de type narratif et argumentatifs.
Nous avons également listé les divers modèles de transformer adaptés à la tâche de synthèse automatique abstraite, et nous avons mentionné devoir privilégier les modèles du type BART pour des raisons qui serons précisées dans le chapitre suivant.
Enfin, nous avons réalisé la conception préliminaire du système tout en précisant que, concernant l’API, la BD (Base des Données) et les interfaces, les détails d’implémentation utiles seront précisés dans la partie dédiée à la conception proprement dite et aux tests, c’est-à-dire au chapitre suivant. Le chapitre suivant nous permettra donc finalement de préciser, réaliser et tester les méthodes que nous avons jusque-là adoptées pour la mise au point de notre système de synthèse automatique des documents.
GENERALEMENT
Place les références là où il le faut STP. Même si c’est une interpretation personnelle, elle tire la source quelque part.
Verifie aussi tous les commentaires que j’ai placé aux différents niveaux du texte
Chapitre III
Conception finale, réalisation et tests
Conclusion générale
Bibliographie
D. Adams. Combining State-of-the-art Models for Multi-document Summarization Using Maximal Marginal Relevance. University of Lethbridge, 2021.
Stergos D. Afantenos, Vangelis Karkaletsis, and Panagiotis Stamatopoulos. Summarization from medical documents: A survey. CoRR, abs/cs/0504061, 2005.
Dzmitry Bahdanau, Kyunghyun Cho, and Yoshua Bengio. Neural machine translation by jointly learning to align and translate. arXiv preprint arXiv:1409.0473, 2014.
Catherine Benincasa, Adena Calden, Emily Hanlon, Matthew Kindzerske, Kody Law, Eddery Lam, John Rhoades, Ishani Roy, Michael Satz, Eric Valentine, et al. Page rank algorithm. Department of Mathematics and Statics, University of Massachusetts, Amherst, Research, 2006.
Michael W Berry and Jacob Kogan. Text mining: applications and theory. John Wiley & Sons, 2010.
Piotr Bojanowski, Edouard Grave, Armand Joulin, and Tomas Mikolov. Enriching word vectors with subword information. Transactions of the association for computational linguistics, 5:135–146, 2017.
Boudjemaa Boudaa. Cours de génie logiciel (avec exercices résolus). Université IbnKhaldoun-Tiaret, Algérie, 02 2020.
Sergey Brin and Lawrence Page. The anatomy of a large-scale hypertextual web search engine. Computer networks and ISDN systems, 30(1-7):107–117, 1998.
O. Carton and D. Perrin. Langages formels : calculabilité et complexité : cours et exercices corrigés. Vuibert, 2014.
Zihang Dai, Zhilin Yang, Yiming Yang, Jaime Carbonell, Quoc V Le, and Ruslan Salakhutdinov. Transformer-xl: Attentive language models beyond a fixed-length context. arXiv preprint arXiv:1901.02860, 2019.
Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. Bert: Pretraining of deep bidirectional transformers for language understanding. arXiv preprint arXiv:1810.04805, 2018.
Youcef Djeriri. Les Réseaux de Neurones Artificiels. 09 2017.
Moussa Kamal Eddine, Antoine J-P Tixier, and Michalis Vazirgiannis. Barthez:
a skilled pretrained french sequence-to-sequence model. arXiv preprint arXiv:2010.12321, 2020.
Günes Erkan and Dragomir R Radev. Lexrank: Graph-based lexical centrality as salience in text summarization. Journal of artificial intelligence research, 22:457–479, 2004.
Thushan Ganegedara. Natural Language Processing with TensorFlow: Teach language to machines using Python’s deep learning library. Packt Publishing Ltd, 2018.
A. Géron. Deep Learning avec Keras et TensorFlow: Mise en oeuvre et cas concrets. Dunod, 2020.
M. Hagiwara. Real-World Natural Language Processing: Practical Applications with Deep Learning. Manning, 2021.
Patrick Hairy. Les réseaux de neurones récurrents pour les séries temporelles, Septembre 2021.
Nitin Indurkhya and Fred J Damerau. Handbook of natural language processing.
Chapman and Hall/CRC, 2010.
D. Jurafsky and J.H. Martin. Speech and Language Processing. Always learning.
Pearson, 2014.
SYNTHESE AUTOMATIQUE DES TEXTES
Min-Yen Kan, Kathleen R. McKeown, and Judith L. Klavans. Applying natural language generation to indicative summarization. CoRR, cs.CL/0107019, 2001.
Akshay Kulkarni and Adarsha Shivananda. Natural language processing recipes. Springer, 2019.
S. Lamsiyah, S. Ouatik El Alaoui, and B Espinasse. Résumé automatique guidé de textes: Etat de l’art et perspectives (guided summarization : State-of-the-art and perspectives ). In Actes de la Conférence TALN. Volume 2 - Démonstrations, articles des Rencontres Jeunes Chercheurs, ateliers DeFT, pages 55–72, Rennes, France, 5 2018. ATALA.
Zhenzhong Lan, Mingda Chen, Sebastian Goodman, Kevin Gimpel, Piyush Sharma, and Radu Soricut. Albert: A lite bert for self-supervised learning of language representations. arXiv preprint arXiv:1909.11942, 2019.
Mike Lewis, Yinhan Liu, Naman Goyal, Marjan Ghazvininejad, Abdelrahman Mohamed, Omer Levy, Ves Stoyanov, and Luke Zettlemoyer. Bart: Denoising sequence-to-sequence pre-training for natural language generation, translation, and comprehension. arXiv preprint arXiv:1910.13461, 2019.
Chin-Yew Lin. Training a selection function for extraction. In CIKM ’99, 1999.
Yinhan Liu, Jiatao Gu, Naman Goyal, Xian Li, Sergey Edunov, Marjan Ghazvininejad, Mike Lewis, and Luke Zettlemoyer. Multilingual denoising pre-training for neural machine translation. Transactions of the Association for Computational Linguistics, 8:726–742, 2020.
Yinhan Liu, Myle Ott, Naman Goyal, Jingfei Du, Mandar Joshi, Danqi Chen, Omer Levy, Mike Lewis, Luke Zettlemoyer, and Veselin Stoyanov. Roberta: A robustly optimized bert pretraining approach. arXiv preprint arXiv:1907.11692, 2019.
H. P. Luhn. The automatic creation of literature abstracts. IBM Journal of Research and Development, 2(2):159–165, 1958.
Minh-Thang Luong, Hieu Pham, and Christopher D Manning. Effective approaches to attention-based neural machine translation. arXiv preprint arXiv:1508.04025, 2015.
Mohamed Hedi Maaloul. Approche hybride pour le résumé automatique de textes. Application à la langue arabe. Theses, Université de Provence - Aix-Marseille I, December 2012. Date Soutenance 18-12-2012.
Inderjeet Mani. Automatic summarization, volume 3. John Benjamins Publishing, 2001.
Rada Mihalcea and Paul Tarau. Textrank: Bringing order into text. In Proceedings of the 2004 conference on empirical methods in natural language processing, pages 404– 411, 2004.
Tomas Mikolov, Kai Chen, Greg Corrado, and Jeffrey Dean. Efficient estimation of word representations in vector space. arXiv preprint arXiv:1301.3781, 2013.
Tomas Mikolov, Ilya Sutskever, Kai Chen, Greg S Corrado, and Jeff Dean. Distributed representations of words and phrases and their compositionality. Advances in neural information processing systems, 26, 2013.
Maali Mnasri. Résumé automatique multi-document dynamique. Theses, Université Paris-Saclay, September 2018.
Marie-Francine Moens. Automatic indexing and abstracting of document texts. Computational Linguistics, 27(1):149–149, 2001.
Ani Nenkova and Rebecca Passonneau. Evaluating content selection in summarization: The pyramid method. In HLT-NAACL 2004 - Human Language Technology Conference of the North American Chapter of the Association for Computational Linguistics, Proceedings of the Main Conference, HLT-NAACL 2004 Human Language Technology Conference of the North American Chapter of the Association for Computational Linguistics, Proceedings of the Main Conference, pages 145–152. Association for Computational Linguistics (ACL), 2004.
SYNTHESE AUTOMATIQUE DES TEXTES
Jeffrey Pennington, Richard Socher, and Christopher D Manning. Glove: Global vectors for word representation. In Proceedings of the 2014 conference on empirical methods in natural language processing (EMNLP), pages 1532–1543, 2014.
Alec Radford, Karthik Narasimhan, Tim Salimans, Ilya Sutskever, et al. Improving language understanding by generative pre-training. 2018.
Alec Radford, Jeffrey Wu, Rewon Child, David Luan, Dario Amodei, Ilya Sutskever, et al. Language models are unsupervised multitask learners. OpenAI blog, 1(8):9, 2019.
Colin Raffel, Noam Shazeer, Adam Roberts, Katherine Lee, Sharan Narang, Michael Matena, Yanqi Zhou, Wei Li, Peter J Liu, et al. Exploring the limits of transfer learning with a unified text-to-text transformer. J. Mach. Learn. Res., 21(140):1–67, 2020.
Victor Sanh, Lysandre Debut, Julien Chaumond, and Thomas Wolf. Distilbert, a distilled version of bert: smaller, faster, cheaper and lighter. arXiv preprint arXiv:1910.01108, 2019.
D. Sarkar. Text Analytics with Python: A Practitioner’s Guide to Natural Language Processing. Apress, 2019.
Barry Schiffman, Ani Nenkova, and Kathleen McKeown. Experiments in multidocument summarization. In Proceedings of the Second International Conference on Human Language Technology Research, HLT ’02, page 52–58, San Francisco, CA, USA, 2002. Morgan Kaufmann Publishers Inc.
S. Srivastava. Natural Language Processing with Python: Hands-On Labs to Apply Deep Learning Architectures to NLP Applications. Independently Published, 2021.
Brahim Tlili. Identification et commande des systèmes non linéaires : Utilisation des modèles de type NARMA. Theses, Ecole Nationale d’Ingénieurs de Tunis, July 2008.
Juan-Manuel Torres-Moreno. Automatic text summarization. John Wiley & Sons, 2014.
Lewis Tunstall, Leandro von Werra, and Thomas Wolf. Natural language processing with transformers. " O’Reilly Media, Inc.", 2022.
Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, Łukasz Kaiser, and Illia Polosukhin. Attention is all you need. Advances in neural information processing systems, 30, 2017.
Lilian Weng. Les réseaux de neurones récurrents pour les séries temporelles, Avril 2020.
Thomas Wolf, Lysandre Debut, Victor Sanh, Julien Chaumond, Clement Delangue, Anthony Moi, Pierric Cistac, Tim Rault, Rémi Louf, Morgan Funtowicz, et al. Transformers: State-of-the-art natural language processing. In Proceedings of the 2020 conference on empirical methods in natural language processing: system demonstrations, pages 38–45, 2020.
Linting Xue, Noah Constant, Adam Roberts, Mihir Kale, Rami Al-Rfou, Aditya Siddhant, Aditya Barua, and Colin Raffel. mt5: A massively multilingual pre-trained text-to-text transformer. arXiv preprint arXiv:2010.11934, 2020.
Jingqing Zhang, Yao Zhao, Mohammad Saleh, and Peter Liu. Pegasus: Pretraining with extracted gap-sentences for abstractive summarization. In International Conference on Machine Learning, pages 11328–11339. PMLR, 2020.
Jan Žižka, František Dařena, and Arnošt Svoboda. Text mining with machine learning:
principles and techniques. CRC Press, 2019.
Annexes
68 |
Nous voulons qu'ils soient instruits parfaitement et formés non seulement sur tel ou tel point, mais également sur tout ce qui permet à l'homme de réaliser intégralement son essence. A aimer le bien, à ne pas être séduit par le mal, à faire ce qu'on doit faire et à se garder de ce qu'il faut éviter. | La science a un contrat avec la société. Contrat qui consiste à faire avancer les connaissances. AMOS COMENIUS (père sprituel de l'UNESCO) : " Nous voulons que tous les êtres humains, ensemble ou pris isolément, jeunes ou vieux, riches ou pauvres, nobles ou roturiers, hommes ou femmes, puissent pleinement s'instruire et devenir des êtres achevés. Nous voulons qu'ils soient instruits parfaitement et formés non seulement sur tel ou tel point, mais également sur tout ce qui permet à l'homme de réaliser intégralement son essence. D'apprendre à connaître la vérité, à ne pas être trompé par des faux semblants. A aimer le bien, à ne pas être séduit par le mal, à faire ce qu'on doit faire et à se garder de ce qu'il faut éviter. A parler sagement de tout, avec tout le monde. Enfin, à toujours traiter les choses, les hommes et Dieu avec prudence et non à la légère. Et à ne jamais s'écarter de son but, le bonheur ". Le Galilée de l'éducation comme on le surnommait s'est posé une question à la fois très simple et très révolutionnaire. Il s'était demandé en effet : "Comment faire en sorte que tous les hommes accèdent à tout le savoir disponible ?" Comment offrir à tous un panorama complet de ce que les hommes savent ? " C'est de l'ignorance, et de l'ignorance seule que l'homme doit se libérer. " |
TP N°1 D’EDUCATION A LA PAIX Le Mahatma GANDHI KRAME KADURHA David (Matricule : 14167) Tech 1 - Génie Informatique Le 21 Août 2022 0.1 Introduction Le Mahatma Gandhi ! Qui ne connaît pas ce grand homme ? Sa pensée est connue et citée partout au monde. Plus d’un sont les hommes, et pas des moindres, qui se réclament de sa pensée. Il demeure une icône centrale de la non-violence et en est sans doute un parfait pionnier. La force de sa personnalité et des idées qu’il défend réside, non seulement en leur beauté mais surtout en leur pouvoir transformateur. Sa pratique d’une philosophie constamment mise à l’épreuve le distingue des idéalistes purs. Mais sa pensée toujours justifiée par des grands idéaux, le rapproche encore paradoxalement des idéalistes modérés. Son impact sur le monde a largement dépassé sa seule terre natale. 0.2 Brève biographie de Gandhi [1, 2] Mohandas Karamchand Gandhi est un dirigeant politique indien, important guide spirituel et icône de la non-violence. | TP N°1 D’EDUCATION A LA PAIX Le Mahatma GANDHI KRAME KADURHA David (Matricule : 14167) Tech 1 - Génie Informatique Le 21 Août 2022 0.1 Introduction Le Mahatma Gandhi ! Qui ne connaît pas ce grand homme ? Sa pensée est connue et citée partout au monde. Plus d’un sont les hommes, et pas des moindres, qui se réclament de sa pensée. Il demeure une icône centrale de la non-violence et en est sans doute un parfait pionnier. La force de sa personnalité et des idées qu’il défend réside, non seulement en leur beauté mais surtout en leur pouvoir transformateur. Sa pratique d’une philosophie constamment mise à l’épreuve le distingue des idéalistes purs. Mais sa pensée toujours justifiée par des grands idéaux, le rapproche encore paradoxalement des idéalistes modérés. Son impact sur le monde a largement dépassé sa seule terre natale. 0.2 Brève biographie de Gandhi [1, 2] Mohandas Karamchand Gandhi est un dirigeant politique indien, important guide spirituel et icône de la non-violence. |
Notre plus grande peur n'est pas de ne pas être à la hauteur. Notre plus grande peur est que nous soyons puissant au-delà de toute limite. Nous nous demandons souvent qui nous sommes pour être si brillant, radieux et talentueux. Nous sommes venus pour exprimer la gloire de Dieu qui est en nous. Une gloire qui illumine toute notre vie. | Notre plus grande peur n'est pas de ne pas être à la hauteur. Notre plus grande peur est que nous soyons puissant au-delà de toute limite. Nous nous demandons souvent qui nous sommes pour être si brillant, radieux et talentueux. Nous sommes venus pour exprimer la gloire de Dieu qui est en nous. Une gloire qui illumine toute notre vie. |
Des livres aux SMS, en passant par diverses pages web, les données textuelles sont partout.
Néanmoins, des transformations adéquates permettent de prendre en compte tout type de donnée, et le texte n’est pas exclu.
C’est ainsi que, des avancées récentes en traitement automatique du langage naturel ont prouvé que le traitement du texte par l’ordinateur peut être raffiné autant qu’on veut, dans les limites du possible.
Cela est en fait une bonne nouvelle car, il s’avère que des nombreux sujets restent fermés à la majorité des gens suite au manque de temps, au regard de la quantité d’informations à consulter pour espérer avoir ne fusse qu’une lueur d’idée du domaine ou du sujet qu’on veut rapidement explorer.
Comme présenté dans la section précédente, la voie la plus privilégiée pour transmettre les connaissances est l’écriture.
Il est souvent inintéressant de passer du temps à lire des textes très longs, surtout quand on veut juste avoir une compréhension suffisante en peu de temps de ce qui est écrit, ou quand le sujet traité ne fait pas partie de notre domaine de prédilection.
Il est donc intéressant de mettre au point un système qui pourra assister l’homme dans la tâche de synthèse des connaissances afin de promouvoir par là-même un échange entre disciplines, ce qui est souvent très enrichissant.
Est-il possible de mettre au point un système informatique capable de synthétiser les textes avec une performance de niveau humain ?
Un traitement purement linguistique ne pourrait-il pas nous permettre de générer des synthèses suffisamment bons pour atteindre notre objectif ?
L’inclusion des traitements basés sur l’intelligence artificielle dans les modules de synthèse est-elle obligatoire pour atteindre des bonnes performances ?
Quelle est l’architecture globale la plus adaptée pour réaliser un système de synthèse automatique performant ?
Vu la complexité du langage naturel, un traitement purement linguistique ne nous permettrait pas de mettre au point un système de niveau humain en synthèse des textes;
Étant donné que, par définition, le langage naturel est difficile à formaliser complètement, on ne pourrait pas se passer de l’intelligence artificielle pour parvenir à réaliser un système performant;
Une architecture basé essentiellement sur des modèles du type transformer, joint à l’utilisation de quelques règles inspirées de la linguistique permettrait d’avoir un système de synthèse performant.
Certains textes sont souvent fournis, accompagnés des synthèses qui sont parfois très bonnes, parfois incomplètes et parfois même très polarisées ou tout simplement mauvaises.
Toutefois, avoir une synthèse à la demande serait mieux que de ne trouver que des synthèses de certains textes, sans d’ailleurs en avoir le plus souvent besoin.
Nombreux sont des textes (livres, articles, pages web et autres documents) dont on voudrait avoir des bonnes synthèses, qu’on ne trouve que très rarement si on ne s’est pas découragé avant.
C’est la raison pour laquelle, nous nous sommes fixé comme objectif de répondre à ce besoin précis en mettant au point une application web de synthèse des textes.
Des solutions ont été proposées mais ne sont pas toujours à la hauteur de nos attentes (mettre au point un système de performance presqu’humaine en synthèse automatique des textes).
Les plus prometteuses de ces solutions se limitent à des tailles bien réduites de texte, ce qui est déjà un grand pas mais pas suffisant évidemment.
Pour tout le monde alors, le système pourra permettre un gain de temps considérable chaque fois qu’il donnera la possibilité d’avoir accès à une synthèse de bonne qualité à la demande, en très peu de temps.
Cette recherche a pour objectif principal de concevoir et réaliser un système (une application web) qui facilitera la génération automatique des synthèses de niveau humain.
Mettre au point une base de données pour stocker les synthèses les mieux cotées par les usagers, en prévision d’une amélioration future du système;
Pour la mise au point du système, nous comptons utiliser les méthodes d’analyse moyennant les techniques expérimentale (pour vérifier l’adéquation du fonctionnement de l’application mise sur pied avec le problème posé), et documentaire (pour une vision approfondie des techniques couramment utilisées et d’éventuelles améliorations nécessaires).
Ce travail se focalisera sur la synthèse des documents du type informationnel (livres historiques, discours, articles de presse, lettres, nouvelles, romans et tout autre type de document ayant une faible densité d’expressions mathématiques) et il s’agira d’une synthèse mono-document.
Au premier chapitre, Généralités sur le traitement automatique du langage naturel, nous passerons en revu toute la théorie nécessaire à la compréhension de notre travail.
Au second chapitre, Présentation du résumé automatique et conception de l’architecture du système, nous y présenterons les aspects du résumé automatique essentiels à notre travail et y concevrons pas à pas le système de synthèse automatique des textes dans tous ses aspects (pas uniquement le côté synthèse).
Au troisième chapitre : Conception finale, réalisation et tests, nous y finaliserons la conception et expliquerons les points importants de l’implémentation en nous basant sur la conception faite, puis nous présenterons les résultats des tests que nous aurons effectué.
Dans ce chapitre, nous allons présenter brièvement le traitement automatique du langage naturel, ainsi que les techniques de traitement qui seront utiles pour la réalisation de l’objectif principal de ce travail.
Nous allons donc y présenter une vue d’ensemble des architectures généralement utilisées, en nous focalisant essentiellement sur l’aspect intelligence artificielle du NLP (Natural Language Processing).
Dans un premier temps, nous y présentons quelques techniques, souvent incontournables lorsqu’on veut réaliser une tâche de traitement du langage.
Après cela, nous parcourons divers modèles qui nous permettrons d’aborder le modèle le plus adapté à la tâche de synthèse automatique des textes, qui est l’objectif de ce travail.
Le NLP est une discipline rattachée à l’intelligence artificielle et ayant pour principal objectif, l’étude des possibilités du traitement du langage humain par des machines.
La raison pour laquelle la discipline s’inscrit comme faisant partie du domaine d’intelligence artificielle est que le langage est considéré comme étant une aptitude centrale de l’intelligence humaine, étant donné que l’usage d’un langage si complexe est l’un des éléments distinctifs principaux entre humains et autres animaux.
des textes produits par des humains, pour finalement ressortir des informations pertinentes à propos de ces derniers ou alors du texte modifié de façon approprié selon l’objectif poursuivi.
C’est ainsi que des tâches comme la traduction automatique, la génération automatique des textes ou aussi la synthèse automatique qui va nous intéresser dans ce travail, produisent directement du texte en sortie.
Mais, dans tous les cas, la sortie est soit immédiatement utilisable, soit alors elle est prise comme entrée d’un autre système dans la chaîne de traitement du texte.
On peut toutefois se demander la raison pour laquelle on parle de traitement automatique du "langage naturel" (quitte à se demander ce qui distinguerait un langage naturel des autres langages).
Pour caricaturer, un langage formel est celui pour lequel il existe un mécanisme fini, et explicite, permettant d’en faire une analyse, quand bien même il serait constitué d’un nombre infini de mots.
On peut donc comprendre directement que le mot "naturel" est ici utilisé pour faire une distinction avec les langages formels.
C’est donc dans ce sens que toutes les langues parlées peuvent être vues comme des langages naturels.
Les langages formels ont une syntaxe précise et sont spécifiquement conçus pour des objectifs bien cernés (penser à tous les langages de programmation par exemple).
Ceci n’est qu’un exemple particulier pour illustrer cette dichotomie inhérente à l’emploi de la langue quelle qu’elle soit, mais cela suffit pour qu’on s’aperçoive que le problème est bel et bien réel.
Ces approches utilisaient essentiellement des caractéristiques statistiques des séquences comme, la fréquence des mots et les co-occurences par exemple.
Néanmoins, le principal désavantage de ces techniques était qu’elles ne parvenaient pas à capturer une grande partie de la complexité linguistique du langage humain, comme par exemple le contexte.
Ainsi, les développements, récents d’ailleurs, des réseaux de neurone et du deep learning ont donné des nouveaux outils, pour approcher dans une large mesure les performances humaines en terme de traitement de langage.
A notre avis, ces techniques sont les plus adaptées car, tout d’abord elles se rapprochent beaucoup plus des méthodes de traitement d’information par le cerveau humain, et ensuite, il serait autrement très couteux, voir impossible, d’élaborer des modèles capables d’embrasser toute la complexité du langage humain.
Cette représentation constitue d’ailleurs un problème fondamental car c’est d’elle que dépend toute la chaîne de traitement des systèmes de NLP [46].
Dans cette partie, nous allons présenter diverses techniques intervenant dans le traitement des données de langage naturel.
Pour cela, nous allons d’abord présenter certaines manipulations réalisées sur les données en guise de pré-traitement.
C’est pour cela que l’opération consistant à réduire un corpus de texte en ses tokens est centrale.
Dans notre contexte, la tokenisation est une opération qui consiste à décomposer un texte
Cela est une première étape pour diminuer la difficulté inhérente au traitement des textes.
En considérant la décomposition en mots, pour diminuer au maximum les difficultés de traitement et l’ambiguïté, on ajoute à la tokenisation d’autres traitements qui sont en général : la désaccentuation, le passage aux minuscules, la suppression des stopwords, la racinisation et la lemmatisation appliqués aux tokens obtenus [22].
Les stopwords sont, pour une langue donnée, des mots qui permettent de réaliser des phrases correctes mais qui n’apportent pas directement d’information significative sur l’ensemble (du point de vu traitement).
Cela permet juste de maximiser la probabilité de confondre des mots semblables qui sont présentés différemment dans diverses phrases.
Pour illustration, on voudrait par exemple que si on retrouve les éléments "manger", "mange", "mangeable", "mangeons" dans un corpus, qu’ils soient transformés en un seul terme "mange".
C’est cela en bref le stemming et, contrairement à ce que le nom suggère, il ne s’agit pas exactement de trouver la racine des mots (les mots dont ils dérivent).
Elle réalise en fait ce qui n’est pas réalisé par le stemming en ce sens que lemmatiser un token consiste à la transformer en sa racine, et cette dernière doit être présente dans le dictionnaire.
Cette tâche est grandement facilitée par des techniques de deep learning.
La détection des entités nommées (Named Entity Recognition ou NER) consiste à repérer tout ce qui correspond à des noms de personnes, des noms d’organisations ou d’entreprises, des noms de lieux, des quantités, des distances, des valeurs, des dates ou tout autre élément qui constitue une nomination d’une entité existante précise dans un texte donné.
Cette tâche est visiblement très importante dans la phase d’interprétation des données textuelles et il s’agit d’un simple problème de classification.
Le Part-Of-Speech tagging est une tâche consistant en gros, à associer aux éléments des textes, des informations grammaticales.
En effet, c’est une première étape dans l’analyse structurelle des textes, permettant de déduire diverses dépendances du point de vu linguistique.
Elle est fortement facilitée par des approches basées sur le deep learning comme c’est le cas aussi pour la reconnaissance d’entités nommées.
Nous allons passer sous silence certains autres concepts du NLP comme le sacs de mots et le word embeddings dont nous parlerons dans la partie qui va suivre et qui présentera le résumé automatique, en tant que tâche du NLP.
Comme cela a été maintes fois mentionné, deux approches majeures sont d’usage pour traiter automatiquement les données de langage naturel.
Mais les deux approches sont dans la majorité des cas complétées par certaines heuristiques [31].
En ce qui nous concerne, l’approche sera essentiellement numérique avec un penchant prononcé pour les techniques du deep learning.
D’ailleurs, concernant ces dernières techniques, les modèles de l’état de l’art les plus adaptés sont les transformers et leur présentation exige une revue chronologique car en effet, pour y arriver, des modèles classiques basés sur des réseaux de neurones récurrents (RNN) ont été utilisés car plus adaptés aux données séquentielles que sont les textes.
Ensuite, le constat de leur mémoire limitée a fait à ce qu’on les modifie pour obtenir des unités à mémoire plus large dont les LSTM(Long Short-Term Memory) et les GRU(Gated Recurrent Unit).
Furent ensuite introduits les mécanismes d’attention qui améliorèrent les techniques, aboutissant finalement aux modèles dits transformers, plus adaptés à des tâches de NLP élaborées.
Les réseaux de neurones artificiels (Artificial Neural Network ou ANN) sont un ensemble de neurones (artificiels) assemblés pour résoudre des tâches considérées comme requérant une certaine intelligence.
Il s’agit essentiellement d’une fonction d’agrégation ayant pour rôle de réaliser une somme pondérée des entrées qui lui sont présentées et d’une fonction d’activation qui formate la sortie de la fonction d’agrégation selon les valeurs attendues en sortie [12].
Les neurones sont généralement assemblés par couche comme présenté sur la figure qui suit :
Ce qui vient d’être présenté est suffisant pour avoir une idée globale de ce qu’est réellement un réseau de neurones artificiel.
Néanmoins, nous pousserons plus loin pour toucher le plus vite possible aux modèles qui nous intéressent dans ce travail.
Un RNN(Recurrent Neural Network) est un type de réseaux de neurones conçu en principe pour traiter les données séquentielles, comme les données textuelles,...
La principale différence structurelle entre les ANN simples et les RNN est l’existence des connexions de récurrence dans ces derniers.
Les fonctions d’activation fact et gact qui sont mentionnées dans les équations I.1 représentent respectivement la tangente hyperbolique tanh et la fonction dite sof tmax [15].
L’entraînement des réseaux de neurones récurrents se fait de la même façon que pour les réseaux de neurones simples (avec uniquement une différence due au fait que pour le RNN on prend en compte le temps).
On n’entrera pas dans le détail, vu que ce n’est pas exactement le sujet du travail mais, pour entamer la partie qui suit, il nous faut préciser que, comme pour les réseaux de neurones simples, l’entraînement exige d’appliquer une fonction de différentiation sur l’erreur produite par le système.
Mais, comme ici le gradient tient compte des grandeurs précédentes dans le temps, il y a un certain nombre de termes multiplicatifs qui peuvent amener le modèle à ne jamais converger ou au contraire, à la saturation.
Les cellules LSTM (pour Long Short-Term Memory) sont utilisées en lieu et place des cellules RNN classiques (dites vanilla) pour permettre au réseau de traiter des séquences de plus en plus longues sans perte rapide d’information [16].
Présentée comme cela, la cellule LSTM semble superflue mais si on présentait les équations associées à un réseau fait de ces cellules, on se rendra compte que c’est plutôt intuitif.
Une cellule LSTM se comprend en la considérant comme constituée d’un ensemble de portes avec des fonctions bien particulières.
Il est évident que, pour chacune de ces portes que nous nommerons, à un instant t donné par It, Ft et Ot, le système doit apprendre ses paramètres en fonction de l’entrée et de l’état interne.
Mais on doit aussi remarquer que, l’état est défini par deux paramètres au lieu d’un seul comme pour les RNN simples.
On sait aussi que, si on veut une mémoire à long terme contrôlée, la valeur finale de ct doit être mise à jour en repérant ce qui doit être oublié parmi les éléments qui étaient précédemment dans la mémoire, pour y ajouter ensuite ce qui est sélectionné comme pertinent à l’entrée.
Et de cela on peut conclure que c’est plus intéressant d’avoir Ft et It qui prennent des valeurs entre 0 et 1 (pour modéliser la sélection) et ct devra dépendre de ces deux éléments, avec aussi l’état précédent de la mémoire à long terme.
Il est aussi vraisemblable que, l’état à court terme doit provenir de la mémoire à long terme (ça correspondra à une sélection de ce qui doit être pris en compte directement dans la mémoire à long terme).
Cet état ht doit par conséquent dépendre de ct (il faut néanmoins noter qu’une autre approche serait possible ici, mais celle-ci est déjà pertinente).
Il va ici s’agir de ht vu que la cellule est développée par analogie avec le processus de mémorisation des systèmes naturels (mémoire à court terme correspondant à la mémoire de travail).
Avec F ,G,J ,K,L,M des fonctions dépendant des coefficients considérés (poids et/ou éléments de sélection qui sont les diverses portes définies).
Cette implémentation peut être modifiée, surtout en ce qui concerne les fonctions d’activation utilisées (σ et tanh), et en particulier la fonction d’activation de finalisation tanh ici, mais c’est l’une des plus optimales.
Et pour les portes, on fusionne les portes de sélection des entrées avec celle des éléments à oublier (donc les portes I et F) pour former une porte dite de mise à jour (porte qui sera appelée update ou U).
Ces deux portes (de mise à jour et de réinitialisation) sont en fait implémentées de façon identique que celles des cellules LSTM.
C’est ainsi que, la porte de mise à jour (porte U) est introduite dans le calcul de l’état h pour assurer la sélection du type de mise à jour à effectuer.
Ainsi donc, h devient une combinaison d’éléments provenant de l’état interne précédent avec ceux provenant des nouveaux calculs effectués par la cellule (en fonction de l’entrée et de l’état interne précédent).
Il faut noter que sur cette image (figure I.5), l’implémentation de la mise à jour est l’inverse de celle que nous avons décrit par les équations I.4.
C’est-à-dire que les termes Ut et (1−Ut) sont permutés.
Parmi les techniques d’amélioration des performances, une peut être considérée car elle a un rapport direct avec notre travail.
Les mécanismes d’attention sont en bref des techniques permettant de lutter contre la perte de mémoire qu’on constate par exemple dans les cellules récurrentes ci-haut décrites, en se focalisant sur des éléments les plus importants à chaque traitement.
Le travail consiste donc à repérer, pour chaque entrée, les éléments sur lesquels se focaliser.
L’une des implémentations les plus commodes est l’attention globale [30].
Pour l’expliquer, nous allons considérer une architecture jusque là passée sous silence, mais qui permet aux modèles introduits là haut de s’utiliser efficacement pour les tâches courantes du NLP en particulier.
4°) on peut aussi avoir un réseau série-vers-vecteur, appelé encodeur, suivi d’un réseau vecteur-vers-série, appelé décodeur (très utile pour la traduction et la synthèse automatique par exemple,...).
Ainsi, si par exemple on est entrain de vouloir traduire une longue phrase, on peut finir par transmettre un vecteur de contexte qui a perdu toute information sur les premiers éléments de la séquence passée en entrée.
C’est pour cela qu’au lieu de passer un vecteur de contexte général, les mécanismes d’attention permettraient ici de ne se focaliser que sur certaines informations lors du traitement d’un élément particulier de la séquence (en ayant évidemment passé tous les états internes passés au décodeur).
Pour le réaliser concrètement, le mécanisme d’attention global consiste à formater le vecteur de contexte en fonction des éléments de l’encodeur à prendre en compte lors du traitement par le décodeur.
Considérons que Ω, dont les termes sont représentés par wij, est la matrice des poids d’attention normalisés par une fonction softmax pour chaque ligne.
Et que Π, dont les termes sont représentés par αij, est la matrice des poids d’attention générée par le mécanismes avant normalisation.Si les éléments ci représentent à chaque fois le vecteur contexte final à l’étape i de décodage et les hj sont les vecteurs d’état interne de l’encodeur, l’attention globale revient à réaliser la manipulation suivante, pour formater le vecteur de contexte à prendre en compte pour l’élément en cours de traitement [30] :
La dernière relation du système I.5 revient à réaliser une somme pondérée des vecteurs d’état internes passés de l’encodeur, selon l’importance de chaque état pour le traitement en cours.
Cela est volontaire car c’est intuitif (on réalise des sommations sur tous les éléments).
En général, comme on peut d’ailleurs le déduire des relations de l’attention globale, ces mécanismes étaient utilisés dans le cadre des réseaux récurrents.
Une question s’est toutefois naturellement posée : ne pourrait-on pas se passer des RNN pour mettre au point des réseaux complètement basés sur l’attention ?.
La réponse est oui, avec des ajustements adéquats pour résoudre les faiblesses des modèles classiques dans le traitement des données séquentielles.
Les transformers sont des modèles du type encodeur-décodeur comme on peut le constater sur la figure ci-dessus (bien que certaines implémentations n’en utilisent qu’une partie selon la tâche).
1°) Moduled’embedding : Nous savons que les données textuelles doivent être présentées au modèle sous forme numérique.
un impact significatif sur les performances d’un modèle, cette représentation doit être bien choisie.
Un choix intuitif, et qui s’avère être performant, est de tout faire pour que si deux termes ont des sens proches, ils aient aussi des représentations vectorielles proches.
Cela est réalisé par différentes techniques que nous présenterons dans le chapitre suivant, mais c’est là le rôle de la couche d’enchâssement (embedding).
Cela pallie au problème de perte d’information sur la position des mots quand on utilise un réseau non séquentiel comme les réseaux récurrents.
L’un des encodages les plus utilisés est celui basé sur les fonctions trigonométriques tel qu’introduit dans [50].
3°) Module d’auto-attention : La couche d’attention, présentée en première position dans la boîte de l’encodeur, est en fait une couche dite de self-attention car elle opère sur la même séquence d’entrée.
L’opération est réalisée pour permettre au modèle d’avoir une représentation de l’importance des termes dans la séquence d’entrée, les uns par rapport aux autres.
Dans cette phrase, l’un des constats qu’on peut faire est que, le nom "Walter" est beaucoup plus lié au pronom "il" qu’au verbe "préférer".
C’est à l’établissement des tels liens dans les représentations que sert le module d’auto-attention ici présenté.
Il est important que ce lien soit implicitement présent dans les représentations, pour que le traitement soit efficace comme on l’a mentionné lors de la présentation des mécanismes d’attention.
En effet, très brièvement, l’idée du scaled dot-product attention consiste à opérer une recherche des termes sur lesquels focaliser l’attention de la même façon qu’on réalise la recherche de la signification d’un mot dans un dictionnaire.
Pour retrouver ce dernier dans un dictionnaire, il suffit de rechercher le mot qui ressemble le plus à l’orthographe que nous estimons être la plus vraisemblable.
Si on supposait qu’il existe plusieurs termes du dictionnaire qui s’orthographient presque de la même façon que le mot qu’on cherche, on devra passer par une mesure de similarité avant de se décider sur le sens le plus probable.
Cela correspond à réaliser le produit de tous les k par les q présents, puis à normaliser l’ensemble des résultats de manière à ce qu’ils représentent des mesures de probabilité, et finir par choisir le sens v le plus probable.
Pour aller plus vite, on implémente ce processus en considérant tous les k, q et v au même moment de manière à réaliser le calcul une fois pour toutes.
Il faut noter que dk est la dimension d’une clé, et que cette normalisation permet d’améliorer les performances du modèle mais elle n’est pas la seule envisageable.
Il est aussi important de remarquer que la couche d’attention utilise trois termes pour arriver à bout du problème.
Ces trois termes sont obtenus par une transformation linéaire dont les poids sont appris à travers un réseau de neurones simple.
Il faut aussi noter que l’on utilise parallèlement plusieurs modules d’attention pour capture toutes les caractéristiques des séquences (on parle de multi-head attention).
En effet, contrairement à la couche de self-attention, pour laquelle tous les trois paramètres sont calculés à partir de la même séquence, la couche d’attention ici prend les clés K et valeurs V provenant de l’encodeur mais une requête Q provenant du décodeur.
Ce module est dit masqué suite au fait que, comme le décodeur est un module de génération, on ne regarde que les termes précédemment générés, en masquant les termes qui seront probablement générés aux pas d’après.
7°) Module linéaire final : Il s’agit d’un réseau de neurones classique pour réaliser la déduction finale, le tout étant passé à la fin à travers une opération softmax qui permet de transformer les résultats en probabilité d’éléments générés (cela permet de choisir le terme le plus vraisemblable à générer comme sortie).
Les transformers, ici succinctement présentés, sont un modèle très adapté aux tâches de traitement automatique du langage naturel.
Nous venons de réaliser une vue d’ensemble du domaine de traitement automatique du langage naturel, ainsi que diverses techniques couramment utilisées.
Pour cela, nous avons tout d’abord justifié la préséance des modèles basés sur le deep learning pour diverses tâches du NLP.
Ensuite, nous avons évoqué les technique de pré-traitement des textes, souvent incontournables, comme la réduction des séquences en leurs tokens constitutifs, la suppression des mots fréquents mais n’apportant pas assez d’informations et la réduction des mots en leurs racines respectives.
Ce qui précède nous a finalement conduit à présenter les modèles courants du NLP basés sur les RNNs et, nous avons terminé par la présentation de l’architecture transformer, modèle que nous utiliserons pour ce travail (les précisions sur les modèles particuliers seront données au chapitre suivant).
Les transformers constituent un type de modèle qui s’avère être le plus adapté (pour le moment) au résumé automatique du texte et, dans le chapitre suivant, nous commencerons par présenter les diverses spécificités du résumé automatique comme tâche du NLP, pour finir par présenter l’architecture globale du système que nous comptons élaborer.
Le résumé automatique étant le sujet principal de ce mémoire, dans cette partie nous le présentons alors en détail en tant que discipline et tâche du NLP.
Nous allons ici présenter les théories sur la synthèse automatique des textes, en classifiant les diverses méthodes utilisées pour pouvoir situer notre système dans l’ensemble des travaux jusque-là menés sur ce sujet.
Ensuite, nous présenterons les diverses approches utilisées pour le résumé automatique, sans oublier d’approfondir notre présentation des modèles de type transformer adaptés à cette tâche, pour finalement mentionner le modèle que nous estimons le plus adapté concernant l’approche basée sur le deep-learning pour la synthèse automatique.
Enfin, nous allons réaliser une conception rapide mais suffisante de l’architecture globale de notre système, tout en précisant le rôle et le fonctionnement de chaque partie.
De cela on tire que le résumé devient automatique s’il est généré par un logiciel ou un système informatique.
Il nous faut une définition assez générale et précise, embrassant au mieux l’aspect automatique, ou mieux, l’aspect informatique, qui nous intéresse dans ce mémoire.
Une définition assez valable est celle de TORRES-MORENO Juan-Manuel qui dit qu’un résumé automatique est un texte généré par un logiciel, cohérent et contenant une partie importante des informations pertinentes de la source, et dont le taux de compression est inférieur au tiers de la taille du(des) document(s) source(s) [48].
L’introduction du taux de compression dans la définition n’est pas anodine car, on s’est très vite rendu compte que la performance d’un système de résumé automatique dépendait fortement du taux de compression.
En effet, les études de [26] montrent que les meilleures performances des systèmes de résumé automatique sont généralement atteintes pour des taux de compression compris entre 15 et 30% [48].
Toutefois, on ne doit pas manquer de signaler que la génération automatique des résumés est un problème complexe en soi, tout comme l’évaluation des résultats.
Le résumé est en effet une tâche cognitive requérant la compréhension du texte considéré et, les humains n’étant pas toujours bons dans les tâches de synthèse, le manque d’étalon explique qu’il y ait également une difficulté d’automatisation du processus.
Tel une table des matières, un résumé indicatif renseigne le lecteur sur les thèmes abordés dans un document.
La requête dans ce cas est l’ensemble des sujets sélectionnés à partir du résumé indicatif.
Il s’agit d’un modèle rétréci du texte d’origine, relatant le plus largement possible les informations contenues dans celui-ci.
La problématique ici est donc double : comprendre ce qui n’est pas information dans un texte et connaître le besoin de l’utilisateur final.
Néanmoins, si on n’a pas de requête spécifique de la part de l’utilisateur, le résumé informatif est réalisé en veillant à ce que l’ensemble des principaux sujets du texte d’origine soit rapporté.
Ainsi, les sujets principaux qui sont rappelés dans le résumé sont répartis de manière fidèle par rapport à l’organisation initiale afin de donner un juste aperçu du texte source.
Il s’agit d’un résumé de plusieurs documents (un groupe de documents), très souvent liés thématiquement, en faisant attention à ne pas insérer des informations déjà évoquées.
Il s’agit de résumer les documents du type article de presse (sachant qu’ils ont une structure particulière).
En effet, on sait par exemple que dans le domaine journalistique, les informations les plus importantes sont souvent mentionnées au début du texte.[36]
Le résumé extrait est formé de segments de texte extraits du(des) document(s) source(s).
Le problème consiste donc à repérer les segments de texte qui semblent être les plus pertinents pour faire partie du résumé final.
Les éléments obtenus à la fin sont donc explicitement présents dans le(s) document(s) source(s).
Les méthodes de résumé abstractives imitent, jusqu’à un certain degré, le processus naturel accompli par l’homme pour résumer un document.
La première étape vise à analyser sémantiquement le contenu du texte et à identifier les parties à exprimer dans le résumé.
C’est en quelques sortes une tâche d’extraction d’information liée au domaine abordé ou de regroupement des phrases du texte source.
Bref, on produit un résumé rapportant le contenu du(des) texte(s) source(s) en utilisant un vocabulaire différent et plus concis.
Il existe aussi des résumés dits semi-extractifs, et même aussi des résumés dits par compression [48] mais nous estimons inutile de les décrire ici étant donné que la distinction abstractif-extractif suffit pour notre contexte.
Le résumeur est le système qui réalise le résumé.
Il s’agit, comme on l’a maintes fois mentionné, d’un résumé fait par un système informatique.
Nous allons présenter ici diverses approches algorithmiques pour résumer les documents textuels.
Avec des critères centrés sur le contenu des textes, il existe un grand nombre d’algorithmes assez triviaux de résumé, qui sont basés entre autres sur : • La fréquence d’occurrence des mots et
L’idée majeure des techniques qui utilisent ce critère consiste à considérer que les mots les plus fréquents sont les plus liés au sujet principal du texte à résumer.
Cette approche assez simpliste mais fonctionnelle fut introduite en 1958 par Luhn [29], une première tentative de résumé automatique.
Et, à la fin, le résumé est constitué avec les phrases extraites du texte source, et dont le score dépasse un certain seuil dépendant de la taille maximale imposée pour le résumé.
Le tout est finalement réarrangé selon l’ordre d’apparition (des phrases sélectionnées) dans le texte d’origine.
En utilisant des techniques de repérage d’entités nommées (voir le chapitre précédent), on identifie les entités présentes dans le document.
Par la suite, les phrases contenant cette entité sont sélectionnées.
Enfin, seules les phrases où l’entité principale possède un rôle sémantique fondamental (non auxiliaire) sont gardées pour le résumé.
L’un des moyens les plus simples pour repérer les entités nommées est de passer par l’apprentissage profond comme on l’a précédemment mentionné.
Il existe tout de même des techniques qui ne se fient qu’à la forme et à la structure du texte, sans en considérer le contenu.
L’intuition derrière cette approche est basée sur le constat que dans un texte, les éléments ne sont pas présentés de façon arbitraire.
Pour certains types de documents (documents journalistiques par exemple), les phrases se trouvant au début sont généralement plus informatives et décrivent le sujet principal du document.
Le résumé des articles scientifiques par contre, peut essentiellement se former en se basant sur les contenus des parties résumé et introduction (sous l’hypothèse que ces dernières parties sont bien faites).
Ces exemples suffisent pour illustrer dans quelle mesure cette approche peut s’appliquer.
Cela permet alors de fixer comme mesure de pertinence des phrases, leur similarité avec les titres.
L’approche consistant à se baser sur la longueur des phrases est assez naïve mais fonctionnelle.
Ici, on considère une liste de mots, constituée manuellement, et qui a comme rôle de permettre de se décider si une phrase doit être prise dans le résumé ou rejetée, selon qu’elle contient ou non un(des) mot(s) de la liste qualifié(s) inhibiteur(s) ou valorisant(s).
Nous devons quand même préciser encore une fois que tout dépend de celui qui écrit la liste.
Les méthodes que nous venons de présenter sont assez intuitives mais constituent la base des processus de synthèse.
Néanmoins, ce que nous venons de présenter est décrit en se basant sur le concept de résumé extractif.
Nous devons toutefois signaler que les résumés abstractifs se basent au fond sur les mêmes principes, soit en partant des résumés extractifs pour ensuite réaliser des paraphrases, insérer des connecteurs appropriés et éliminer les références anaphoriques dans les résumés, soit en implémentant indirectement toutes ces techniques à travers un modèle d’apprentissage automatique ou un modèle basé sur les graphes capables de capturer d’un seul coup tous ces aspects (ou une grande partie d’entre-eux).
Comme nous venons de l’introduire dans la section précédente, le résumé automatique est abordé essentiellement selon deux approches qui sont [31] :
Il faut noter qu’on peut considérer aussi des approches basées sur la théorie des graphes comme intégrant les idées de ces deux approches de façon implicite, tout comme celles basées sur l’apprentissage automatique.
Mais, dans tous les cas, une vue sur quelques heuristiques (méthodes basées sur le bon sens) est toujours à considérer (surtout en amont, puis en aval du processus de synthèse).
Ici, nous allons présenter les approches essentiellement numériques (on va y inclure celles basées sur l’apprentissage automatique et celles basées sur la théorie des graphes).
Il s’agit d’une méthode heuristique pour la synthèse des documents.
La sélection (des mots ici) se fait en considérant les hypothèses qui suivent :
la synthèse consiste à supprimer certains mots pour n’en conserver que les plus importants;
Cette approche, comme on l’a mentionné au début, est assez moins précise et empirique, mais elle sous-entend les idées fondamentales appliquées plus tard.
Le tf-idf (time-frequency inverse document frequency est une approche essentiellement utilisée pour le résumé extractif.
Il s’agit d’une correction de l’approche naïve consistant à poser que plus un mot est répété dans un corpus de texte, plus il y est important.
L’approche qui se base naïvement sur la fréquence d’apparition des mots dans les textes pour juger de leur importance relative, accorde à chaque mot un poids égal à T F(i,j).
Pour corriger cette faiblesse, on pose l’hypothèse que les termes importants apparaissent plusieurs fois dans un document (ou juste dans peu de documents du corpus) et non pas dans plusieurs documents.
Puisque dans ce second cas, il est souvent question des éléments communs du langage, sans grande utilité informationnelle.
A cet effet, on définit DFi comme étant le nombre de documents dans le corpus, qui contiennent le terme numéro i.
D’où finalement, le poids d’un terme i dans un document j est donné par :
Pour notre cas, l’application de cette approche consiste à décomposer un long texte en ses phrases et de considérer que chacune de ces phrases est un document et que le texte entier constitue le corpus.
Plusieurs définitions des éléments T F(ij) et IDFi formant l’expression II.2 sont toutefois possibles selon les besoins en terme de performance.
Mais, dans l’ensemble, l’idée de base demeure la même car il ne s’agit en général que de changement des types de normalisation [55].
L’application de cette méthode pour le résumé consiste finalement à calculer le poids de chaque phrase en additionnant les poids des termes la constituant, puis à normaliser le résultat en fonction de la taille de la phrase considérée.
Après tout, on définit un seuil qui permet de soutirer les phrases selon leur pertinence ainsi évaluée (en considérant évidemment plus pertinente une phrase dont le résultat de la sommation des poids est élevé).
TextRank est un algorithme de résumé extractif, basé sur la théorie des graphes et qui s’inspire de l’algorithme PageRank de Google [8, 4].
Il s’agit en fait d’une matrice d’adjacence dans laquelle on pose au préalable que Mii = 0, pour tout i (c’est la même idée pour l’algorithme PageRank étant donné qu’il est logique de considérer qu’une page ne peut s’auto-référencer).
Ce dernier implémente en effet une mesure de similarité selon sa définition de la liaison entre phrases et les besoins en performance.
C’est ainsi qu’on peut utiliser par exemple une mesure de similarité classique nommée similarité cosinus en la basant par exemple sur T FIDF [19].
Pour représenter les mots à comparer, on utilise les méthodes classiques de vectorisation des mots (word embedding).
Nous esquisserons ces méthodes dans les sections qui vont suivre, parlant du word embedding ( II.5 ).
Dans cette formule, K est une constante comprise entre 0 et 1.
Initialement, on prend en général une valeur identique de T extRank(P hri) pour toutes les phrases (souvent T extRank(P hri) = 1), mais la valeur initiale prise n’affecte pas les valeurs finales, juste le temps de convergence [33].
On sait tout de même que plus une page est référencée, plus on doit lui donner de l’importance.
Malheureusement, pour les phrases non référencées (pages dites isolées), on trouve une importance nulle.
On applique la formule II.5 itérativement et à la convergence, on choisit les phrases qui vont former le résumé selon leur importance ( valeurs des T extRank(P hri) pour toute valeur de i).
A la fin, les phrases sélectionnées sont réarrangées pour former un résumé extrait plus ou moins cohérent.
Il considère la position et la longueur des phrases dans le calcul de leur pertinence; - Il est optimisé pour le résumé multi-document.
Toutefois, il faut remarquer que les algorithmes ici présentés sont essentiellement adaptés à la synthèse extractive.
Même si, ces traitements peuvent être mélangés avec les techniques de résolution d’anaphores et les paraphrases pour obtenir des synthèses qui tendent vers la synthèse abstractive, nous devons souligner que les techniques jusque là les plus performantes pour la synthèse abstractive sont essentiellement basées sur le deep learning [36].
Le deep learning peut également être utilisé pour la synthèse extractive, permettant ainsi la génération des synthèses extraites plus cohérentes (avec résolution d’anaphores).
Ainsi donc, nous abordons les méthodes de deep learning utilisées pour cet effet dans les parties qui suivent.
Tout traitement commence par une représentation numérique des termes (des mots ici) pour qu’ils soient assimilables par le modèle.
Une approche naïve consisterait à regrouper tous les mots de notre vocabulaire dans une liste (un dictionnaire) et de les représenter chacun par un nombre unique (un identifiant).
Une autre approche, plus classique, consiste à représenter chaque mot par un vecteur de dimension égale à la taille du dictionnaire et dont tous les termes sont nuls, sauf à la position, dans le dictionnaire, du mot qu’on est entrain de vouloir représenter (on parle du one-hot encoding).
Étant artificiellement construites, sans tenir compte du sens des mots, ni de leur contexte, ces méthodes de représentation rendent la tâche de découverte des caractéristiques par les systèmes de machine learning encore plus difficile.
D’ailleurs, l’une des faiblesses de la seconde méthode décrite (le one-hot encoding) est que les vecteurs sont creux (une majorité de valeurs nulles) et de dimension inutilement très grande.
On pourrait directement songer à une représentation plus judicieuse pour éviter ces deux soucis, et qui consisterait à réaliser une représentation binaire des termes mais, le problème de la sémantique sera toujours là.
On recourt donc à des méthodes de représentation plus élaborées, partant du principe selon lequel le contexte d’un mot suffit pour en appréhender le sens.
Ainsi, tout mot est représenté en réalisant une statistique (implicitement bien sûr) sur les divers mots qui l’accompagnent souvent, de telle sorte que les mots aux sens proches aient aussi des vecteurs très proches.
Il s’agit bel et bien des modèles adaptés aux tâches de synthèse, vu qu’en entrée on reçoit une séquence pour ressortir une autre séquence en sortie.
Comme nous l’avons déjà bien mentionné au précédent chapitre, nous n’allons parler que des modèles Seq2Seq de type transformer car actuellement, ils sont les plus adaptés à la tâche que nous voulons réaliser (celle de synthèse automatique).
Les transformers (voir la figure I.7) sont un modèle très avantageux car en fait, au-delà de leurs performances et autres avantages, ils facilitent encore plus la recherche en NLP en rendant effectif le transfer learning (apprentissage par transfert) dans ce domaine.
1°) Pré-entraînement : il s’agit d’un apprentissage non supervisé, qui consiste à donner au modèle une masse colossale de données textuelles, non étiquetées, pour qu’il développe une compréhension statistique du langage qu’on veut qu’il puisse assimiler.
2°) Affinage de l’apprentissage (fine-tuning) : Ça consiste à finaliser l’apprentissage du modèle pré-entraîné de manière supervisée pour qu’il soit en mesure de réaliser une tâche donnée du NLP (il s’agit du transfer learning en fait).
Les méthodes de pré-entraînement sont très déterminantes pour les performances finales du modèle.
Mais, à part les deux que nous venons de mentionner, il existe d’autres objectifs de pré-entraînement [25, 54] selon les variantes de transformers et les objectifs finaux de spécialisation du modèle.
Bien que la forme classique des transformers est bel et bien celle de la figure I.7, il existe 3 types d’implémentation selon les types de tâche visées en dernier lieu :
Ces modèles sont très bons pour les tâches de compréhension du langage comme la classification par exemple.
Ils sont bons pour les tâches de génération de texte.
Ils sont bons pour les tâches demandant à la fois la compréhension et la génération des textes.
Donc, les phrases sont lues dans les deux sens pour mieux saisir tout le contexte.
2°) Like-GPT : donc semblables au transformer dénommé GPT (Generative Pre-trained Transformer) qui n’ont que la partie décodeur et sont dits auto-regressifs car, seules les parties précédant le mot en cours de traitement sont connues du modèle et il y a chaque fois réinjection des sorties à l’entrée.
En plus de cela, ces modèles ont une couche d’attention bidirectionnelle et sont généralement appelés auto-encodeurs (auto-encoding model).
Ces modèles sont principalement bons pour les tâches de NLU (Natural Language Understanding) comme la classification, le NER (Name Entity Recognition), l’extractive question-answering,...
regressifs et par conséquent les têtes de self-attention n’accèdent qu’aux mots précédant l’étape à laquelle elles sont (pas de regard dans le futur) comme on l’a déjà un peu mentionné.
Ces modèles sont particulièrement bons pour les tâches liées fortement au NLG (Natural Language Generation).
tégralité de l’architecture des transformers et sont ainsi bons pour les tâches demandant à la fois du NLU et du NLG comme la synthèse automatique abstractive, le generative question-answering et la traduction automatique.
Ici nous pouvons particulièrement mentionner les modèles comme :
Le modèle BART est comme une combinaison de BERT [11] et de GPT-2 [40, 41] en terme
allons privilégier (les modèles dérivés de BART principalement) pour réaliser cette tâche dans notre système.
Le choix de BART est dû au fait que c’est le modèle que nous avons trouvé réalisant un bon compromis poids-performances.
Nous justifierons plus précisément ce choix dans le chapitre qui suit, en présentant également quelques résultats des tests.
Il existe un large éventail des méthodes de développement des systèmes informatiques mais, en règle générale, toutes suivent les étapes suivantes [7] :
3°) Validation : on teste le système pour voir s’il correspond aux objectifs précisés dans les spécifications;
Pour pouvoir tout de même y aller méthodiquement, nous nous inspirerons de ces étapes classiquement suivies lors de la conception des systèmes informatiques.
Dans ce second chapitre, nous ne présenterons que les spécifications du système ainsi qu’une ébauche de conception avec une présentation de l’architecture globale.
Synthétiser les textes qui lui sont fournis en entrée (saisis directement ou importés dans fichiers .pdf non scannés, des fichiers .docx et .txt);
Obtenir des synthèses produites par plusieurs algorithmes et les évaluer;
Il s’agit en fait de l’interface d’accès à l’API (Application Programming Interface), qui permettra aux développeurs de s’authentifier et générer éventuellement un token à utiliser pour implémenter leur propres interfaces devant permettre d’utiliser les services de cette API.
Quant au bloc interface que nous venons de présenter sur la figure II.4, c’est en nous mettant à la place d’un développeur lambda qui exploite les services de l’API.
Notre API quant à elle, est une API REST (REpresentationnal State Transfer qui aura 4 end-points principaux dédiés à la synthèse automatique (selon les besoins d’implémentation, on pourra en insérer d’autres mais qui ne concernerons probablement pas la synthèse).
Nous prévoyons, dans un premier temps, ne l’utiliser que pour des petits documents (la taille optimale sera déterminée avec les expérimentations au chapitre suivant).
Module de synthèse abstraite : ce module donnera une synthèse abstraite en utilisant l’un des transformers affinés pour la synthèse ou bien par le module qui sera en train de s’auto-améliorer au cours de l’utilisation du système (on l’a nommé expérimental, voir la figure II.7).
Comme les transformers réalisent des synthèses de documents de taille généralement limitée à environ une page, nous mettrons au point, dans cette partie, une pipeline qui nous permettra d’augmenter le nombre de pages (nous pensons à 100 pages mais les expérimentations nous permettrons de choisir une taille optimale, tenant compte surtout de la rapidité).
Module de synthèse extrait simplifié : Il s’agira d’un module qui permettra la réalisation de la synthèse mais en utilisant l’un des algorithmes de synthèse extraite implémentés (soit de manière aléatoire, soit par choix de l’utilisateur).
Module expérimental : Il s’agira d’un module de synthèse abstraite qui sera essentiellement utilisé pour la synthèse des petits documents (quelques pages).
Pour ce module, nous comptons mettre au point une routine d’entraînement à partir des synthèses collectées par le système, pour améliorer au fur et à mesure les performances de ce module.
Nous comptons réaliser l’entraînement par transfer learning avec les transformers mT5[53] ou mBART [27] comme base.
N’ayant pas encore testé cette partie, nous serons fixé sur la méthode à utiliser ainsi que le modèle de base à choisir au chapitre suivant, après les expérimentations.
C’est par suite du fait que, pour des raisons de performance, on devra envoyer à l’API le fichier sous un format particulier.
La base des données, que nous avons mentionné dans la figure II.4, a un double rôle :
2°) Le stockage des paires document-synthèse, ainsi que l’appréciation de l’utilisateur (évaluation par les utilisateurs).
Comme nous pouvons le voir, un traitement sera fait pour adapter les données reçues à ce qui peut être traité par le système.
Ce traitement consistera à ne retenir que des symboles alphanumériques, à réaliser la tokenisation des textes (chaque token sera une phrase pour cette partie) et à affecter un identifiant unique à chaque phrase.
Après cela, les données seront invariablement passées aux algorithmes de synthèse extractive, qui générerons chacun un groupe de poids des phrases.
Élimination des phrases de poids faible (avec comme seuil, la taille maximale de résumé précisée par l’utilisateur);
Réarrangement de chaque dictionnaire obtenu après expulsion des phrases non significatives (les éléments seront arrangés par ordre décroissant des poids pour chaque sortie);
Avec Wj le nouveau poids affecté à la phrase ayant un identifiant global j (l’identifiant là d’origine) et D la liste des dictionnaires (les sorties de chaque algorithme);
Arranger toutes les phrases par ordre décroissant dans une unique liste et sélectionner les plus haut dans la liste jusqu’à atteindre le seuil fixé (nombre de mots fixé pour la synthèse).
Réarranger les phrases de la liste selon leur ordre de succession dans le texte d’origine.
Ce qui précède constitue en fait l’algorithme que nous allons implémenter pour le module de pondération et sélection.
Nous implémenterons plusieurs modèles (BART, BARThez, PEGASUS, mBART ou mT5 entraîné avec nos données, ainsi que tous ceux qui nous paraîtrons utiles durant les essais); Chaque module de synthèse se présentera néanmoins comme suit :
Comme nous pouvons le remarquer, il y a toujours un module de mise en forme initial (pre-processing) qui nous permettra en gros de supprimer tous les caractères que nous ne pourrons pas gérer.
Vient ensuite le module de tokenisation (le tokenizer ou tokeniseur) [49] qui consistera ici à diviser tout le texte en ses mots constitutifs et à leur affecter des identifiants numériques.
Il s’agit en effet de l’architecture classique d’un transformer, comme présenté sur la figure I.7 à l’exception du fait qu’ici on fait explicitement apparaître l’existence de la sortie du modèle.
Cette partie, que nous avons nommé head est différente selon les tâches [52], c’est pourquoi nous avons voulu la mentionner explicitement car, selon le besoin, on peut la modifier.
Nous devons finalement mentionner que les modules de tokenisation (nommés tokenizer en anglais) dépendront explicitement des modèles utilisés.
Toutefois, voici une ébauche d’interface que nous comptons utiliser pour exploiter le service :
Avec cette interface, on a une idée générale de la manière dont nous comptons servir le système aux utilisateurs.
Dans cette partie, nous venons de présenter le résumé automatique des textes, tout en réalisant une vue d’ensemble des méthodes utilisées dans la littérature à cet effet.
Nous avons également listé les divers modèles de transformer adaptés à la tâche de synthèse automatique abstraite, et nous avons mentionné devoir privilégier les modèles du type BART pour des raisons qui serons précisées dans le chapitre suivant.
Enfin, nous avons réalisé la conception préliminaire du système tout en précisant que, concernant l’API, la BD (Base des Données) et les interfaces, les détails d’implémentation utiles seront précisés dans la partie dédiée à la conception proprement dite et aux tests, c’est-à-dire au chapitre suivant.
Le chapitre suivant nous permettra donc finalement de préciser, réaliser et tester les méthodes que nous avons jusque-là adoptées pour la mise au point de notre système de synthèse automatique des documents.
Mike Lewis, Yinhan Liu, Naman Goyal, Marjan Ghazvininejad, Abdelrahman Mohamed, Omer Levy, Ves Stoyanov, and Luke Zettlemoyer.
Yinhan Liu, Jiatao Gu, Naman Goyal, Xian Li, Sergey Edunov, Marjan Ghazvininejad, Mike Lewis, and Luke Zettlemoyer.
Yinhan Liu, Myle Ott, Naman Goyal, Jingfei Du, Mandar Joshi, Danqi Chen, Omer Levy, Mike Lewis, Luke Zettlemoyer, and Veselin Stoyanov.
Approche hybride pour le résumé automatique de textes.
Tomas Mikolov, Kai Chen, Greg Corrado, and Jeffrey Dean.
Tomas Mikolov, Ilya Sutskever, Kai Chen, Greg S Corrado, and Jeff Dean.
Colin Raffel, Noam Shazeer, Adam Roberts, Katherine Lee, Sharan Narang, Michael Matena, Yanqi Zhou, Wei Li, Peter J Liu, et al.
Barry Schiffman, Ani Nenkova, and Kathleen McKeown. | UNIVERSITELIBREDESPAYSDESGRANDSLACS
FACULTE DES SCIENCES ET DES TECHNOLOGIES
APPLIQUEES
DEPARTEMENT DE GENIE ELECTRIQUE ET INFORMATIQUE
B.P 368 GOMA
www.ulpgl.net
CONCEPTION ET REALISATION D’UN
SYSTEME BASE SUR L’INTELLIGENCE
ARTIFICIELLE POUR RESUMER
AUTOMATIQUEMENT LES TEXTES
Par : KRAME KADURHA David
Travail présenté en vue de l’obtention du Diplôme d’ingénieur civil en génie électrique et informatique
Option : Génie informatique
Directeur : Prof BARAKA MUSHAGE Olivier
Encadreur : Ir MUHINDO WAMUHINDO Abdenego
ANNEE ACADEMIQUE 2021−2022
Dédicaces
Remerciements
Résumé
Sigles et abréviations
Table des matières
Dédicaces i
Remerciements ii
Résumé iii
Sigles et abréviations iv
Introduction générale 1
0.1 Contexte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
0.2 Identification et formulation du problème . . . . . . . . . . . . . . . . . . . 1
0.3 Questions de recherche . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
0.4 Hypothèses de travail . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
0.5 Justification du choix du sujet et motivations . . . . . . . . . . . . . . . . . 3
0.6 Objectifs de la recherche . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
0.6.1 Objectif général . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
0.6.2 Objectifs spécifiques . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
0.7 Méthodologie de recherche et délimitation du travail . . . . . . . . . . . . . 5
0.8 Subdivision du travail . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
Généralités sur le NLP 6
Introduction partielle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
Présentation et définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
Nécessité de l’approche par deep learning . . . . . . . . . . . . . . . . . . . 8
Quelques techniques courantes de traitement des textes . . . . . . . . . . . 9
La tokenisation (tokenization) . . . . . . . . . . . . . . . . . . . . . . 9
Les stopwords[44] . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
La racinisation (stemming) . . . . . . . . . . . . . . . . . . . . . . . . 10
La lemmatisation (lemmatization) . . . . . . . . . . . . . . . . . . . . 10
SYNTHESE AUTOMATIQUE DES TEXTES
Reconnaissance d’entités nommées (NER)[44] . . . . . . . . . . . . . 11
L’étiquetage morpho-syntaxique (POS tagging) . . . . . . . . . . . . 11
Approches du NLP . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
Les réseaux de neurones artificiels (ANN) . . . . . . . . . . . . . . . 12
Les réseaux de neurones récurrents (RNN) . . . . . . . . . . . . . . . 13
Mécanismes d’attention . . . . . . . . . . . . . . . . . . . . . . . . . 20
Les transformers . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
Conclusion partielle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
Résumé automatique et conception 29
Introduction partielle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
Présentation et définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
Catégorisation des résumés . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
Selon la fonction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
Selon le nombre de documents source . . . . . . . . . . . . . . . . . 32
Selon le genre des documents . . . . . . . . . . . . . . . . . . . . . . 32
Selon le type de sortie (résumé obtenu) . . . . . . . . . . . . . . . . . 33
Selon le type de résumeur . . . . . . . . . . . . . . . . . . . . . . . . 34
Selon le contexte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
Selon le destinataire du résumé . . . . . . . . . . . . . . . . . . . . . 35
Approches de résumé automatique . . . . . . . . . . . . . . . . . . . . . . . 35
Techniques intuitives de résumé [36] . . . . . . . . . . . . . . . . . . 35
Algorithmes classiques de résumé automatique . . . . . . . . . . . . 38
Modèles Seq2Seq . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
Methodes du Word-Embedding . . . . . . . . . . . . . . . . . . . . . 45
Modèles séquence-à-séquence proprement dits . . . . . . . . . . . . 46
Modèle BART pour la synthèse abstractive . . . . . . . . . . . . . . . 50
Conception de l’architecture globale du système . . . . . . . . . . . . . . . . 51
Spécifications du système . . . . . . . . . . . . . . . . . . . . . . . . 52
Présentation des éléments du système . . . . . . . . . . . . . . . . . 52
vi sur 68
TABLE DES MATIÈRES
Architecture du module de synthèse extractive . . . . . . . . . . . . 54
Architecture du module de synthèse abstractive . . . . . . . . . . . 56
Présentation des interfaces . . . . . . . . . . . . . . . . . . . . . . . . 58
Conclusion partielle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
Conception finale, réalisation et tests 60
Conclusion générale 61
Annexes 68
vii sur 68
Liste des figures
I.1 Réseau de neurones à une couche cachée et sans boucle [47] 13
I.2 Illustration de ce qu’est un RNN [22] 14
I.3 Comparaison entre cellules RNN classique et LSTM [18] 15
I.4 Vue fonctionnelle d’une cellule LSTM [18] 16
I.5 Cellule GRU [18] 19
I.6 Réseaux série-vers-série (en haut à gauche), série-vers-vecteur (en haut à
droite), vecteur-vers-série (en bas à gauche) et encodeur-décodeur (en bas àdroite) [16] 21
I.7 Architecture générique des transformers [50] 23
I.8 Vue éclatée d’un transformer [51] 27
II.1 Diagramme des fréquences des mots et le choix de Luhn [29] 40
II.2 Comparaison simplifiée entre BERT, GPT et BART [25] 50
II.3 Transformations de bruitage expérimentées pour BART [25] 50
II.4 Architecture globale de notre système 52
II.5 Architecture globale du système de synthèse abstractive 57
II.6 Architecture interne du modèle mentionné sur la figure II.5 57
II.7 Ébauche d’interface 58
viii
Introduction générale
0.1 Contexte
A l’ère du numérique, comme depuis l’invention de l’écriture, le texte est l’un des principaux moyens de communication et surtout, de transmission des connaissances.
Des livres aux SMS, en passant par diverses pages web, les données textuelles sont partout. En 2018, il s’agissait d’environs 80% de l’information qui circulait sur le web [23]. L’évolution de l’informatique continue à démontrer la possibilité de simplifier toujours grandement la vie de l’homme en automatisant de plus en plus l’accomplissement des tâches rébarbatives.
Certaines tâches comme celles liées explicitement à l’arithmétique semblent mieux se prêter à cette vague d’automatisation, les données numériques étant par essence celles prises en compte par les plateformes numériques.
Néanmoins, des transformations adéquates permettent de prendre en compte tout type de donnée, et le texte n’est pas exclu. C’est ainsi que, des avancées récentes en traitement automatique du langage naturel ont prouvé que le traitement du texte par l’ordinateur peut être raffiné autant qu’on veut, dans les limites du possible.
Cela est en fait une bonne nouvelle car, il s’avère que des nombreux sujets restent fermés à la majorité des gens suite au manque de temps, au regard de la quantité d’informations à consulter pour espérer avoir ne fusse qu’une lueur d’idée du domaine ou du sujet qu’on veut rapidement explorer.
C’est en ce sens que la mise au point des technologies pouvant faciliter l’exploration des connaissances présentées sous forme textuelle est salvatrice.
0.2 Identification et formulation du problème
Comme présenté dans la section précédente, la voie la plus privilégiée pour transmettre les connaissances est l’écriture. Mais, admettons que souvent, dans un long texte, la
1
SYNTHESE AUTOMATIQUE DES TEXTES
quantité d’information pertinente est moindre par rapport à la longueur du texte entier.
Comment faire donc pour identifier cette partie utile et gagner ainsi en temps ?
Il est souvent inintéressant de passer du temps à lire des textes très longs, surtout quand on veut juste avoir une compréhension suffisante en peu de temps de ce qui est écrit, ou quand le sujet traité ne fait pas partie de notre domaine de prédilection. Il est donc intéressant de mettre au point un système qui pourra assister l’homme dans la tâche de synthèse des connaissances afin de promouvoir par là-même un échange entre disciplines, ce qui est souvent très enrichissant.
0.3 Questions de recherche
Vu le problème que nous venons de présenter, une question se pose :
Est-il possible de mettre au point un système informatique capable de synthétiser les textes avec une performance de niveau humain ?
La précédente question nous amène aussi à nous demander ceci :
Un traitement purement linguistique ne pourrait-il pas nous permettre de générer des synthèses suffisamment bons pour atteindre notre objectif ?
L’inclusion des traitements basés sur l’intelligence artificielle dans les modules de synthèse est-elle obligatoire pour atteindre des bonnes performances ?
Quelle est l’architecture globale la plus adaptée pour réaliser un système de synthèse automatique performant ?
0.4 Hypothèses de travail
A la suite des questions que nous venons de soulever, nous postulons que :
Vu la complexité du langage naturel, un traitement purement linguistique ne nous permettrait pas de mettre au point un système de niveau humain en synthèse des textes;
0.5. JUSTIFICATION DU CHOIX DU SUJET ET MOTIVATIONS
Étant donné que, par définition, le langage naturel est difficile à formaliser complètement, on ne pourrait pas se passer de l’intelligence artificielle pour parvenir à réaliser un système performant;
Une architecture basé essentiellement sur des modèles du type transformer, joint à l’utilisation de quelques règles inspirées de la linguistique permettrait d’avoir un système de synthèse performant.
0.5 Justification du choix du sujet et motivations
Pour synthétiser un texte, il faut l’avoir aumoins lu! Et pourtant, pour lire un texte, il faut du temps, une denrée souvent rare.
Certains textes sont souvent fournis, accompagnés des synthèses qui sont parfois très bonnes, parfois incomplètes et parfois même très polarisées ou tout simplement mauvaises. Toutefois, avoir une synthèse à la demande serait mieux que de ne trouver que des synthèses de certains textes, sans d’ailleurs en avoir le plus souvent besoin. Nombreux sont des textes (livres, articles, pages web et autres documents) dont on voudrait avoir des bonnes synthèses, qu’on ne trouve que très rarement si on ne s’est pas découragé avant. C’est la raison pour laquelle, nous nous sommes fixé comme objectif de répondre à ce besoin précis en mettant au point une application web de synthèse des textes. Beaucoup de chercheurs en linguistique et en traitement automatique du langage naturel principalement se sont penché sur ce sujet [23, 48, 1, 21, 2].
Des solutions ont été proposées mais ne sont pas toujours à la hauteur de nos attentes (mettre au point un système de performance presqu’humaine en synthèse automatique des textes). Les plus prometteuses de ces solutions se limitent à des tailles bien réduites de texte, ce qui est déjà un grand pas mais pas suffisant évidemment. C’est pour cette raison qu’il nous semble pertinent d’étudier cette question en profondeur et de mettre au point un système complet et utilisable en dehors du monde de la recherche.
Socialement, la mise au point de ce système sera d’une très grande importance. Cela dans plusieurs axes dont principalement :
Pour les chercheurs, car il pourra faciliter le survol rapide des connaissances provenant SYNTHESE AUTOMATIQUE DES TEXTES
des filières liées à leurs domaines, sans être obligés de consulter à l’avance un tas de documents issus de ces domaines connexes;
Pour tout le monde alors, le système pourra permettre un gain de temps considérable chaque fois qu’il donnera la possibilité d’avoir accès à une synthèse de bonne qualité à la demande, en très peu de temps.
0.6 Objectifs de la recherche
Objectif général
Cette recherche a pour objectif principal de concevoir et réaliser un système (une application web) qui facilitera la génération automatique des synthèses de niveau humain.
Objectifs spécifiques
Pour arriver à bout de notre projet nous comptons :
Évaluer les failles et limites des techniques de synthèse automatique existantes;
Corriger les failles ou compléter les techniques de synthèse automatique existantes; • Établir des architectures logiques optimales pour obtenir des synthèses de qualité;
Élaborer une interface de programmation d’applications devant faciliter l’accès au service de synthèse automatique;
Mettre au point une base de données pour stocker les synthèses les mieux cotées par les usagers, en prévision d’une amélioration future du système;
Réaliser une interface web de qualité pour permettre l’accès au service par divers utilisateurs.
0.7. MÉTHODOLOGIE DE RECHERCHE ET DÉLIMITATION DU TRAVAIL
Méthodologie de recherche et délimitation du travail
Pour la mise au point du système, nous comptons utiliser les méthodes d’analyse moyennant les techniques expérimentale (pour vérifier l’adéquation du fonctionnement de l’application mise sur pied avec le problème posé), et documentaire (pour une vision approfondie des techniques couramment utilisées et d’éventuelles améliorations nécessaires).
Ce travail se focalisera sur la synthèse des documents du type informationnel (livres historiques, discours, articles de presse, lettres, nouvelles, romans et tout autre type de document ayant une faible densité d’expressions mathématiques) et il s’agira d’une synthèse mono-document.
Subdivision du travail
Excepté l’introduction et la conclusion générales, ce travail sera ainsi constitué :
Au premier chapitre, Généralités sur le traitement automatique du langage naturel, nous passerons en revu toute la théorie nécessaire à la compréhension de notre travail.
Au second chapitre, Présentation du résumé automatique et conception de l’architecture du système, nous y présenterons les aspects du résumé automatique essentiels à notre travail et y concevrons pas à pas le système de synthèse automatique des textes dans tous ses aspects (pas uniquement le côté synthèse).
Au troisième chapitre : Conception finale, réalisation et tests, nous y finaliserons la conception et expliquerons les points importants de l’implémentation en nous basant sur la conception faite, puis nous présenterons les résultats des tests que nous aurons effectué.
Chapitre I
Généralitéssurletraitementautomatique du langage naturel
Introduction partielle
Dans ce chapitre, nous allons présenter brièvement le traitement automatique du langage naturel, ainsi que les techniques de traitement qui seront utiles pour la réalisation de l’objectif principal de ce travail. Nous allons donc y présenter une vue d’ensemble des architectures généralement utilisées, en nous focalisant essentiellement sur l’aspect intelligence artificielle du NLP (Natural Language Processing).
Dans un premier temps, nous y présentons quelques techniques, souvent incontournables lorsqu’on veut réaliser une tâche de traitement du langage. Après cela, nous parcourons divers modèles qui nous permettrons d’aborder le modèle le plus adapté à la tâche de synthèse automatique des textes, qui est l’objectif de ce travail.
Présentation et définitions
Le NLP est une discipline rattachée à l’intelligence artificielle et ayant pour principal objectif, l’étude des possibilités du traitement du langage humain par des machines. La raison pour laquelle la discipline s’inscrit comme faisant partie du domaine d’intelligence artificielle est que le langage est considéré comme étant une aptitude centrale de l’intelligence humaine, étant donné que l’usage d’un langage si complexe est l’un des éléments distinctifs principaux entre humains et autres animaux.
Le NLP inclut l’ensemble d’algorithmes, des tâches et des problèmes prenant en entrée
6
I.2. PRÉSENTATION ET DÉFINITIONS
des textes produits par des humains, pour finalement ressortir des informations pertinentes à propos de ces derniers ou alors du texte modifié de façon approprié selon l’objectif poursuivi. C’est ainsi que des tâches comme la traduction automatique, la génération automatique des textes ou aussi la synthèse automatique qui va nous intéresser dans ce travail, produisent directement du texte en sortie.
Mais, dans tous les cas, la sortie est soit immédiatement utilisable, soit alors elle est prise comme entrée d’un autre système dans la chaîne de traitement du texte.
On peut toutefois se demander la raison pour laquelle on parle de traitement automatique du "langage naturel" (quitte à se demander ce qui distinguerait un langage naturel des autres langages).
Pour établir clairement cette différence, il est nécessaire de donner une définition de ce qu’est un langage formel. Pour caricaturer, un langage formel est celui pour lequel il existe un mécanisme fini, et explicite, permettant d’en faire une analyse, quand bien même il serait constitué d’un nombre infini de mots. Donc, c’est un ensemble de mots analysable par un automate (au sens mathématique du terme) [9].
On peut donc comprendre directement que le mot "naturel" est ici utilisé pour faire une distinction avec les langages formels. C’est donc dans ce sens que toutes les langues parlées peuvent être vues comme des langages naturels. Les langages formels ont une syntaxe précise et sont spécifiquement conçus pour des objectifs bien cernés (penser à tous les langages de programmation par exemple). Ils sont donc très précis tant au point de vu grammatical que sémantique.
Concernant les langues humaines usuellement utilisées, on ne peut pas dire, sans être démenti, qu’elles sont dénuées d’imprécisions. Elles regorgent en générale une grande richesse, ce qui a pour conséquence d’introduire très souvent une grande ambiguïté. Pour s’en convaincre, il suffirait par exemple de considérer la phrase suivante :
Je le vois avec mes jumelles.
Très vite on remarque que cette phrase peut s’interpréter selon le contexte. On ne sait pas, en effet, si le sujet affirme voir quelqu’un avec ses jumelles d’observation, se promenant avec ses enfants jumelles, ou si le sujet voit quelque chose en utilisant ses jumelles en tant qu’instrument.
Ceci n’est qu’un exemple particulier pour illustrer cette dichotomie inhérente à l’emploi de la langue quelle qu’elle soit, mais cela suffit pour qu’on s’aperçoive que le problème est bel et bien réel.
Ce n’est d’ailleurs pas juste au niveau des interprétations qu’on peut identifier ce problème. Il s’observe même quand on considère les règles de grammaire. Certaines règles sont ainsi admises par certains linguistes mais rejetées ou trouvées superflues par d’autres [20].
C’est tout ce qui précède qui rend le langage humain à la fois riche et challengeant quand il s’agit de doter les machines de cette aptitude. D’où la raison d’être d’une discipline à part entière dédiée à la mise au point des règles de traitement du langage naturel, le NLP
[17].
I.3 Nécessité de l’approche par deep learning
Avant l’avènement du deep learning, des techniques traditionnelles du NLP étaient utilisées pour des tâches comme la détection des spams, l’analyse des sentiments et le POS (Part Of Speech tagging). Ces approches utilisaient essentiellement des caractéristiques statistiques des séquences comme, la fréquence des mots et les co-occurences par exemple. Néanmoins, le principal désavantage de ces techniques était qu’elles ne parvenaient pas à capturer une grande partie de la complexité linguistique du langage humain, comme par exemple le contexte.
Ainsi, les développements, récents d’ailleurs, des réseaux de neurone et du deep learning ont donné des nouveaux outils, pour approcher dans une large mesure les performances humaines en terme de traitement de langage. A notre avis, ces techniques sont les plus adaptées car, tout d’abord elles se rapprochent beaucoup plus des méthodes de traitement d’information par le cerveau humain, et ensuite, il serait autrement très couteux, voir impossible, d’élaborer des modèles capables d’embrasser toute la complexité du langage humain.
Le deep learning pour le NLP est axé grosso-modo sur la représentation d’entités textu-
I.4. QUELQUES TECHNIQUES COURANTES DE TRAITEMENT DES TEXTES
elles et le traitement élaboré sur ces représentations, de manière à en tirer des informations pertinentes ou à réaliser des transformations appropriées. Cette représentation constitue d’ailleurs un problème fondamental car c’est d’elle que dépend toute la chaîne de traitement des systèmes de NLP [46].
I.4 Quelquestechniquescourantesdetraitementdestextes
Dans cette partie, nous allons présenter diverses techniques intervenant dans le traitement des données de langage naturel. Ces traitements seront présentés de manière à dégager un pattern presque récurrent en terme de structure de traitement pour divers systèmes de NLP. Pour cela, nous allons d’abord présenter certaines manipulations réalisées sur les données en guise de pré-traitement. Puis, nous évoquerons deux techniques utiles aux tâches relevant du NLU (Natural Language Understanding).
I.4.1 La tokenisation (tokenization)
Manipuler des longues chaînes de caractères ne serait pas envisageable. Mais en informatique on est habitué à traiter des structures en terme de listes, de tableaux, de vecteurs,... Le tout étant représenté numériquement. C’est pour cela que l’opération consistant à réduire un corpus de texte en ses tokens est centrale.
Dans notre contexte, la tokenisation est une opération qui consiste à décomposer un texte
(une suite de phrases) en ses phrases constitutives ou une phrase en ses mots constitutifs. Cela est une première étape pour diminuer la difficulté inhérente au traitement des textes. En considérant la décomposition en mots, pour diminuer au maximum les difficultés de traitement et l’ambiguïté, on ajoute à la tokenisation d’autres traitements qui sont en général : la désaccentuation, le passage aux minuscules, la suppression des stopwords, la racinisation et la lemmatisation appliqués aux tokens obtenus [22].
I.4.2 Les stopwords[44]
Les stopwords sont, pour une langue donnée, des mots qui permettent de réaliser des phrases correctes mais qui n’apportent pas directement d’information significative sur l’ensemble (du point de vu traitement). Il s’agit par exemple en français de mots comme de, la, le,... ce qui correspond en gros aux prépositions, aux articles, aux conjonctions,... Il faut néanmoins préciser qu’on peut très bien décider de ne pas supprimer certains stopwords.
I.4.3 La racinisation (stemming)
La racinisation ou stemming en anglais consiste à découper le token de manière à n’en conserver qu’une partie qui semble rendre mieux compte de ce dont dérive ledit token. Seulement, ceci est fait sans se fier à ce que le résultat obtenu en tant que racine fasse partie du dictionnaire de la langue considérée [44, 22].
Cela permet juste de maximiser la probabilité de confondre des mots semblables qui sont présentés différemment dans diverses phrases. C’est à des fins de comparaison de phrases et de réduction d’ambiguïté. Pour illustration, on voudrait par exemple que si on retrouve les éléments "manger", "mange", "mangeable", "mangeons" dans un corpus, qu’ils soient transformés en un seul terme "mange". Cela se fait en découpant tous les mots qui ajoutent
d’autres affixes au terme. C’est cela en bref le stemming et, contrairement à ce que le nom suggère, il ne s’agit pas exactement de trouver la racine des mots (les mots dont ils dérivent). L’opération consiste essentiellement à réaliser un découpage des mots de manière à en supprimer les affixes.
I.4.4 La lemmatisation (lemmatization)
La lemmatisation quant à elle est une opération plus soignée mais plus coûteuse en terme d’implémentation [44, 22]. Elle réalise en fait ce qui n’est pas réalisé par le stemming en ce sens que lemmatiser un token consiste à la transformer en sa racine, et cette dernière doit être présente dans le dictionnaire. Par exemple, pour un mot au pluriel, il s’agira de le remplacer par son singulier, un verbe conjugué, par son infinitif,... Pour illustration, la
I.4. QUELQUES TECHNIQUES COURANTES DE TRAITEMENT DES TEXTES
lemmatisation consisterait à transformer par exemple "va", "allions", "irons" et "allé" par "aller" et "une" et "des" par "un". Cette tâche est grandement facilitée par des techniques de deep learning.
L’obtention des tokens peut également conduire à des tâches plus élaborées comme la détection des entités nommées et l’étiquetage morpho-syntaxique. Il s’agit des tâches très importantes que nous devons nécessairement mentionner.
I.4.5 Reconnaissance d’entités nommées (NER)[44]
La détection des entités nommées (Named Entity Recognition ou NER) consiste à repérer tout ce qui correspond à des noms de personnes, des noms d’organisations ou d’entreprises, des noms de lieux, des quantités, des distances, des valeurs, des dates ou tout autre élément qui constitue une nomination d’une entité existante précise dans un texte donné. Cette tâche est visiblement très importante dans la phase d’interprétation des données textuelles et il s’agit d’un simple problème de classification.
I.4.6 L’étiquetage morpho-syntaxique (POS tagging)
Le Part-Of-Speech tagging est une tâche consistant en gros, à associer aux éléments des textes, des informations grammaticales. En général, il s’agit d’associer aux termes des textes, leur nature grammaticale. Cela consisterait à dire que tel élément est un nom, tel autre un verbe,...[44, 22]
Cette tâche n’est pas une fin en soi. En effet, c’est une première étape dans l’analyse structurelle des textes, permettant de déduire diverses dépendances du point de vu linguistique. Elle est fortement facilitée par des approches basées sur le deep learning comme c’est le cas aussi pour la reconnaissance d’entités nommées.
Nous allons passer sous silence certains autres concepts du NLP comme le sacs de mots et le word embeddings dont nous parlerons dans la partie qui va suivre et qui présentera le résumé automatique, en tant que tâche du NLP.
I.5 Approches du NLP
Comme cela a été maintes fois mentionné, deux approches majeures sont d’usage pour traiter automatiquement les données de langage naturel. Il s’agit de l’approche numérique et de l’approche symbolique ou linguistique. Mais les deux approches sont dans la majorité des cas complétées par certaines heuristiques [31].
En ce qui nous concerne, l’approche sera essentiellement numérique avec un penchant prononcé pour les techniques du deep learning. D’ailleurs, concernant ces dernières techniques, les modèles de l’état de l’art les plus adaptés sont les transformers et leur présentation exige une revue chronologique car en effet, pour y arriver, des modèles classiques basés sur des réseaux de neurones récurrents (RNN) ont été utilisés car plus adaptés aux données séquentielles que sont les textes. Ensuite, le constat de leur mémoire limitée a fait à ce qu’on les modifie pour obtenir des unités à mémoire plus large dont les LSTM(Long Short-Term Memory) et les GRU(Gated Recurrent Unit). Furent ensuite introduits les mécanismes d’attention qui améliorèrent les techniques, aboutissant finalement aux modèles dits transformers, plus adaptés à des tâches de NLP élaborées.
I.5.1 Les réseaux de neurones artificiels (ANN)
Les réseaux de neurones artificiels (Artificial Neural Network ou ANN) sont un ensemble de neurones (artificiels) assemblés pour résoudre des tâches considérées comme requérant une certaine intelligence. Le neurone artificiel est un algorithme élaboré en s’inspirant du modèle théorique simplifié d’un neurone naturel. Il s’agit essentiellement d’une fonction d’agrégation ayant pour rôle de réaliser une somme pondérée des entrées qui lui sont présentées et d’une fonction d’activation qui formate la sortie de la fonction d’agrégation selon les valeurs attendues en sortie [12].
Les neurones sont généralement assemblés par couche comme présenté sur la figure qui suit :
Figure I.1: Réseau de neurones à une couche cachée et sans boucle [47]
Ce qui vient d’être présenté est suffisant pour avoir une idée globale de ce qu’est réellement un réseau de neurones artificiel. Néanmoins, nous pousserons plus loin pour toucher le plus vite possible aux modèles qui nous intéressent dans ce travail.
I.5.2 Les réseaux de neurones récurrents (RNN)
Un RNN(Recurrent Neural Network) est un type de réseaux de neurones conçu en principe pour traiter les données séquentielles, comme les données textuelles,...
La principale différence structurelle entre les ANN simples et les RNN est l’existence des connexions de récurrence dans ces derniers. Il s’agit des boucles permettant la prise en compte des sorties passées dans le traitement final des données [16].
Pour l’illustrer, rien de mieux qu’une image représentant la structure fonctionnelle des réseaux de neurones récurrents :
Figure I.2: Illustration de ce qu’est un RNN [22]
Où xi, hi et A représentent respectivement les entrées (à chaque pas temporel i), les états internes qui en résultent et le module récurent utilisé.
Pour une meilleure compréhension, une présentation formelle serait plus commode : Soient Wx la matrice des poids associée au vecteur d’entrée x, Wy une matrice associée au vecteur de sortie y et Wh celle associée au vecteur représentant les états cachés du réseau, avec bh et by respectivement les vecteurs des biais des neurones pour l’état caché et pour la sortie. Si on nomme aussi par yt la sortie du réseau à un instant donné t, on aura [15] :
ht
yt
= fact (Wxxt +Whht−1 +bh)
= gact Wyht +by
(I.1)
On voit très bien que la sortie du système dépend non seulement de l’entrée, mais aussi de l’état du système (h).
Les fonctions d’activation fact et gact qui sont mentionnées dans les équations I.1 représentent respectivement la tangente hyperbolique tanh et la fonction dite sof tmax [15].
L’entraînement des réseaux de neurones récurrents se fait de la même façon que pour les réseaux de neurones simples (avec uniquement une différence due au fait que pour le RNN on prend en compte le temps). On n’entrera pas dans le détail, vu que ce n’est pas exactement le sujet du travail mais, pour entamer la partie qui suit, il nous faut préciser que, comme pour les réseaux de neurones simples, l’entraînement exige d’appliquer une fonction de différentiation sur l’erreur produite par le système. Il s’agit de la fonction gradient. Mais, comme ici le gradient tient compte des grandeurs précédentes dans le temps, il y a un certain nombre de termes multiplicatifs qui peuvent amener le modèle à ne jamais converger ou au contraire, à la saturation. C’est le problème classique d’évanouissement (disparition) des gradients ou d’explosion des gradients [15].
En réponse au problème de disparition des gradients, les cellules LSTM (Long Short-Term Memory) sont utilisées en lieu et place des cellules RNN normales.
Les cellules LSTM
Les cellules LSTM (pour Long Short-Term Memory) sont utilisées en lieu et place des cellules RNN classiques (dites vanilla) pour permettre au réseau de traiter des séquences de plus en plus longues sans perte rapide d’information [16]. Pour cela, des éléments de contrôle de la mémoire de la cellule sont ajoutés. Pour illustrer nos propos, voici une image qui nous permettra de différencier une cellule RNN classique d’une cellule LSTM :
Figure I.3: Comparaison entre cellules RNN classique et LSTM [18]
Présentée comme cela, la cellule LSTM semble superflue mais si on présentait les équations associées à un réseau fait de ces cellules, on se rendra compte que c’est plutôt intuitif. Pour aborder les équations associées, considérons l’image suivante :
Figure I.4: Vue fonctionnelle d’une cellule LSTM [18]
Une cellule LSTM se comprend en la considérant comme constituée d’un ensemble de portes avec des fonctions bien particulières. Il s’agit d’une porte d’entrée, une porte d’oubli et une porte de sortie.
Il est évident que, pour chacune de ces portes que nous nommerons, à un instant t donné par It, Ft et Ot, le système doit apprendre ses paramètres en fonction de l’entrée et de l’état interne. Mais on doit aussi remarquer que, l’état est défini par deux paramètres au lieu d’un seul comme pour les RNN simples. Il s’agit, à un instant t donné, de ht (considéré comme état à court terme) et de ct (qui est un état à long terme mais dont le contenu est contrôlé, au vu de l’architecture de la cellule).
De ce que nous venons de dire, nous pouvons conclure que Ft, It et Ot sont des fonctions de Xt et de ht−1 aux poids près. On sait aussi que, si on veut une mémoire à long terme contrôlée, la valeur finale de ct doit être mise à jour en repérant ce qui doit être oublié parmi les éléments qui étaient précédemment dans la mémoire, pour y ajouter ensuite ce qui est sélectionné comme pertinent à l’entrée. Cela revient à utiliser Ft et It comme des portes de contrôle (ou de sélection). Et de cela on peut conclure que c’est plus intéressant d’avoir Ft et It qui prennent des valeurs entre 0 et 1 (pour modéliser la sélection) et ct devra dépendre de ces deux éléments, avec aussi l’état précédent de la mémoire à long terme.
Il est aussi vraisemblable que, l’état à court terme doit provenir de la mémoire à long terme (ça correspondra à une sélection de ce qui doit être pris en compte directement dans la mémoire à long terme). Cet état ht doit par conséquent dépendre de ct (il faut néanmoins noter qu’une autre approche serait possible ici, mais celle-ci est déjà pertinente). Finalement, on sait que la sortie finale doit nécessairement dépendre de l’état interne de la cellule. Il va ici s’agir de ht vu que la cellule est développée par analogie avec le processus de mémorisation des systèmes naturels (mémoire à court terme correspondant à la mémoire de travail).
De ce qu’on vient de dire on peut tirer que, fondamentalement on doit avoir :
F
t
I t
O
t
c t
h t
y t
= F (Xt,ht−1) = G(Xt,ht−1) = J (Xt,ht−1)
= K(ct−1,Xt,ht−1)
= L(ct)
= M(ht)
(I.2)
Avec F ,G,J ,K,L,M des fonctions dépendant des coefficients considérés (poids et/ou éléments de sélection qui sont les diverses portes définies).
Une implémentation classique de ce raisonnement se présente comme suit [16, 15] :
F
t
I t
O
t
c t
h t
y t
= σ Wf xXt +Wf hht−1 +bf
= σ WixXt +Wf iht−1 +bi
= σ (WoxXt +Wohht−1 +bo)
= Ft ◦ct−1 +It ◦tanh(WcxXt +Wchht−1 +bc)
= Ot ◦tanh(ct)
= Wyhht +by
(I.3)
Il faut remarquer qu’on a utilisé la fonction sigmoïde σ pour restreindre les valeurs des sélecteurs (portes) entre 0 et 1, puis on a utilisé le produit de Hadamard (produit terme à terme des matrices) pour réaliser effectivement la sélection grâce aux portes, en diminuant les termes dont les valeurs correspondantes des portes sont proches de 0 et en essayant de conserver ceux dont les valeurs correspondantes des portes sont proches de 1.
Cette implémentation peut être modifiée, surtout en ce qui concerne les fonctions d’activation utilisées (σ et tanh), et en particulier la fonction d’activation de finalisation tanh ici, mais c’est l’une des plus optimales.
Le seul problème qui demeure est que le nombre de termes à apprendre est très grand. Cela a fait à ce qu’on puisse essayer de le diminuer en implémentant le GRU (Gated Recurrent Unit) poussant un peu plus loin l’abstraction des portes pour diminuer le nombre de paramètres.
Les cellules GRU
Les cellules GRU (Gated Recurrent Unit) sont une autre implémentation des cellules des réseaux de neurones récurrents comme les LSTM à la différence près que, bien que partant de la même idée fondamentale évoquée précédemment, les GRU apparaissent comme une simplification des LSTM.
Elles possèdent néanmoins des performances comparables en ce qui concerne la prédiction des séries temporelles,... Les simplifications sont réalisées au niveau des états cachés et des portes. On conserve un seul état caché h (quitte à le contrôler à l’interne pour implémenter la mémorisation à long terme et à court terme). Et pour les portes, on fusionne les portes de sélection des entrées avec celle des éléments à oublier (donc les portes I et F) pour former une porte dite de mise à jour (porte qui sera appelée update ou U). La porte de sélection des éléments de sortie quant à elle, est transformée en porte de réinitialisation.
Ces deux portes (de mise à jour et de réinitialisation) sont en fait implémentées de façon identique que celles des cellules LSTM. La particularité des GRU se situe principalement au niveau de la gestion de la mémoire (l’implémentation du processus de mémorisation) car, ayant supprimé la distinction long-terme/court-terme, il fallait bien trouver un mécanisme devant permettre de bien gérer les deux aspects de la mémoire avec un seul état interne conservé.
C’est ainsi que, la porte de mise à jour (porte U) est introduite dans le calcul de l’état h pour assurer la sélection du type de mise à jour à effectuer. Il s’agit de faire en sorte que, selon l’état interne et l’entrée, tout l’état interne précédent soit considéré mais que certains éléments soient complètement modifiés, selon le besoin, et d’autres presque conservés.
Ainsi donc, h devient une combinaison d’éléments provenant de l’état interne précédent avec ceux provenant des nouveaux calculs effectués par la cellule (en fonction de l’entrée et de l’état interne précédent). Le comportement est alors le suivant :
Quand le vecteur de mise à jour a un terme proche de 1, cet état interne est presque conservé. Par conséquent, sa mise à jour est presque ignorée. Quand c’est plutôt 0, l’état interne précédent est presque ignorée et une mise à jour complète de cet état est effectuée.
La formulation mathématique permet de mieux en saisir le fonctionnement [16, 15] :
U
t
R
t
h t
y t
= σ (WuxXt +Wuhht−1 +bu)
= σ (WrxXt +Wriht−1 +br)
= Ut ◦ht−1 +(1−Ut)◦tanh(WhxXt +Whr (Rtht−1)+bc)
= Wyhht +by
(I.4)
Et pour illustration, on peut considérer l’image suivante :
Figure I.5: Cellule GRU [18]
Il faut noter que sur cette image (figure I.5), l’implémentation de la mise à jour est l’inverse de celle que nous avons décrit par les équations I.4. C’est-à-dire que les termes Ut et (1−Ut) sont permutés. Mais aussi, ici Zt représente Ut.
Ces modèles fonctionnent très bien et certaines implémentations permettent d’améliorer encore leurs performances. Ils sont néanmoins lents à entraîner, surtout à cause de l’aspect temporel. Parmi les techniques d’amélioration des performances, une peut être considérée car elle a un rapport direct avec notre travail. Il s’agit des mécanismes d’attention [3].
I.5.3 Mécanismes d’attention
Les mécanismes d’attention sont en bref des techniques permettant de lutter contre la perte de mémoire qu’on constate par exemple dans les cellules récurrentes ci-haut décrites, en se focalisant sur des éléments les plus importants à chaque traitement. Le travail consiste donc à repérer, pour chaque entrée, les éléments sur lesquels se focaliser.
C’est là qu’interviennent donc ces mécanismes.
L’une des implémentations les plus commodes est l’attention globale [30].
Pour l’expliquer, nous allons considérer une architecture jusque là passée sous silence, mais qui permet aux modèles introduits là haut de s’utiliser efficacement pour les tâches courantes du NLP en particulier. Il s’agit des modèles dits encodeur-décodeur.
En effet, lorsqu’on a un modèle à séquence fonctionnel, les objectifs peuvent être multiples. On peut vouloir :
1°) fournir une série d’éléments en entrée et ressortir une autre série (utile pour la prédiction de la valeur des actions par exemple,... );
2°) fournir un série en entrée mais faire ressortir un seul élément ou vecteur (utile pour la classification des textes, l’analyse des sentiments,...);
3°) fournir un vecteur plusieurs fois en entrée et produire une série (pour la génération des légendes pour des images par exemple,...);
4°) on peut aussi avoir un réseau série-vers-vecteur, appelé encodeur, suivi d’un réseau vecteur-vers-série, appelé décodeur (très utile pour la traduction et la synthèse automatique par exemple,...). Il s’agit du modèle encodeur-décodeur.
Une illustration par image sera suffisante :
Figure I.6: Réseaux série-vers-série (en haut à gauche), série-vers-vecteur (en haut à
droite), vecteur-vers-série (en bas à gauche) et encodeur-décodeur (en bas à droite) [16]
.
L’élément (le vecteur d’état) passé entre l’encodeur et le décodeur est dit vecteur de contexte. Il représente en quelques sortes un condensé des informations passés à l’entrée de l’encodeur. Toutefois, plus la séquence d’entrée est longue, plus le risque que la mémoire de certaines séquences puisse s’étioler devient grand. Ainsi, si par exemple on est entrain de vouloir traduire une longue phrase, on peut finir par transmettre un vecteur de contexte qui a perdu toute information sur les premiers éléments de la séquence passée en entrée. C’est pour cela qu’au lieu de passer un vecteur de contexte général, les mécanismes d’attention permettraient ici de ne se focaliser que sur certaines informations lors du traitement d’un élément particulier de la séquence (en ayant évidemment passé tous les états internes passés au décodeur). Pour le réaliser concrètement, le mécanisme d’attention global consiste à formater le vecteur de contexte en fonction des éléments de l’encodeur à prendre en compte lors du traitement par le décodeur.
Considérons que Ω, dont les termes sont représentés par wij, est la matrice des poids d’attention normalisés par une fonction softmax pour chaque ligne. Et que Π, dont les termes sont représentés par αij, est la matrice des poids d’attention générée par le mécanismes avant normalisation.Si les éléments ci représentent à chaque fois le vecteur contexte final à l’étape i de décodage et les hj sont les vecteurs d’état interne de l’encodeur, l’attention globale revient à réaliser la manipulation suivante, pour formater le vecteur de contexte à prendre en compte pour l’élément en cours de traitement [30] :
wij = sof tmax(αij) = Pekαeijαik (I.5)
ci = Pj wijhj
La dernière relation du système I.5 revient à réaliser une somme pondérée des vecteurs d’état internes passés de l’encodeur, selon l’importance de chaque état pour le traitement en cours. De ces équations il faut aussi remarquer que la notation des sommations n’est pas rigoureuse. Cela est volontaire car c’est intuitif (on réalise des sommations sur tous les éléments).
Plusieurs techniques arrivant à réaliser l’attention existent. En général, comme on peut d’ailleurs le déduire des relations de l’attention globale, ces mécanismes étaient utilisés dans le cadre des réseaux récurrents. Une question s’est toutefois naturellement posée : ne pourrait-on pas se passer des RNN pour mettre au point des réseaux complètement basés sur l’attention ?. La réponse est oui, avec des ajustements adéquats pour résoudre les faiblesses des modèles classiques dans le traitement des données séquentielles. C’est cela qui a conduit aux modèles dits transformers [50].
I.5.4 Les transformers
Il s’agit des modèles dont l’architecture générique se présente comme suit :
Figure I.7: Architecture générique des transformers [50]
Les transformers sont des modèles du type encodeur-décodeur comme on peut le constater sur la figure ci-dessus (bien que certaines implémentations n’en utilisent qu’une partie selon la tâche). Ils sont essentiellement basé sur les mécanismes d’attention, se passant de la récurrence [16, 15].
Nous donnerons une explication succincte de chacun des modules présents dans l’image I.7. En effet, présentons les modules selon l’ordre dans lequel les données traversent le modèle :
1°) Moduled’embedding : Nous savons que les données textuelles doivent être présentées au modèle sous forme numérique. Elles doivent donc être transformées avant de les passer aux parties suivantes. Néanmoins, vu que la représentation des entrées a
un impact significatif sur les performances d’un modèle, cette représentation doit être bien choisie. Un choix intuitif, et qui s’avère être performant, est de tout faire pour que si deux termes ont des sens proches, ils aient aussi des représentations vectorielles proches. Cela est réalisé par différentes techniques que nous présenterons dans le chapitre suivant, mais c’est là le rôle de la couche d’enchâssement (embedding).
2°) L’encodage positionnel (positionnal encoding) : Ce module ajoute l’information sur la position relative de chacun des éléments placés en entrée par rapport aux autres. Cela pallie au problème de perte d’information sur la position des mots quand on utilise un réseau non séquentiel comme les réseaux récurrents. Donc, la position de chaque terme de la séquence placée en entrée est encodée dans un vecteur puis ajoutée à l’encodage global du terme. L’un des encodages les plus utilisés est celui basé sur les fonctions trigonométriques tel qu’introduit dans [50].
3°) Module d’auto-attention : La couche d’attention, présentée en première position dans la boîte de l’encodeur, est en fait une couche dite de self-attention car elle opère sur la même séquence d’entrée. L’opération est réalisée pour permettre au modèle d’avoir une représentation de l’importance des termes dans la séquence d’entrée, les uns par rapport aux autres.
Pour illustration, considérons la phrase suivante : Walter est malade, il préfère se reposer.
Dans cette phrase, l’un des constats qu’on peut faire est que, le nom "Walter" est beaucoup plus lié au pronom "il" qu’au verbe "préférer". C’est à l’établissement des tels liens dans les représentations que sert le module d’auto-attention ici présenté. Il est important que ce lien soit implicitement présent dans les représentations, pour que le traitement soit efficace comme on l’a mentionné lors de la présentation des mécanismes d’attention. Donc cette couche est en fait un prolongement de celle d’embedding. Ici, le mécanisme d’attention utilisé est différent de celui qui a été présenté là-haut (attention globale). Il s’agit ici d’un mécanisme plutôt basé sur le produit scalaire mis à l’échelle (scaled dot-product). En effet, très brièvement, l’idée du scaled dot-product attention consiste à opérer une recherche des termes sur lesquels focaliser l’attention de la même façon qu’on réalise la recherche de la signification d’un mot dans un dictionnaire. Supposons qu’on veuille avoir la signification d’un mot dont on ne connaît pas l’orthographe exacte. Pour retrouver ce dernier dans un dictionnaire, il suffit de rechercher le mot qui ressemble le plus à l’orthographe que nous estimons être la plus vraisemblable. Mathématiquement, cette recherche de similitude correspond à un produit scalaire.
Similairement, le scaled dot-product consiste à générer trois éléments qui sont la clé ou key k, la valeur ou value v et la requête ou query q. La requête correspond au mot
qu’on cherche (orthographié selon ce que nous pensons), la clé correspond au mot présent dans le dictionnaire et la valeur correspond à la signification associée. Si on supposait qu’il existe plusieurs termes du dictionnaire qui s’orthographient presque de la même façon que le mot qu’on cherche, on devra passer par une mesure de similarité avant de se décider sur le sens le plus probable. Cela correspond à réaliser le produit de tous les k par les q présents, puis à normaliser l’ensemble des résultats de manière à ce qu’ils représentent des mesures de probabilité, et finir par choisir le sens v le plus probable.
Pour aller plus vite, on implémente ce processus en considérant tous les k, q et v au même moment de manière à réaliser le calcul une fois pour toutes. Cela revient à regrouper tous les k, q et v dans des matrices K, Q et V . Ce qui donne la relation qui définit l’attention par produit scalaire mis à l’échelle [50] :
Q ·KT
Attention(Q,K,V ) = sof tmax p ·V (I.6) dk
Dans cette relation, expression I.6, le terme pdk permet de mettre à l’échelle le résultat du produit scalaire de Q par K, c’est-à-dire Q·KT . Il faut noter que dk est la dimension d’une clé, et que cette normalisation permet d’améliorer les performances du modèle mais elle n’est pas la seule envisageable.
Il est aussi important de remarquer que la couche d’attention utilise trois termes pour arriver à bout du problème. Ces trois termes sont obtenus par une transformation linéaire dont les poids sont appris à travers un réseau de neurones simple.
Il faut aussi noter que l’on utilise parallèlement plusieurs modules d’attention pour capture toutes les caractéristiques des séquences (on parle de multi-head attention). Pour une plus ample illustration, voir la figure I.8.
4°) Le module feed-forward : Il s’agit en fait d’un réseau de neurones de propagation avant classique (réseau à couches ajoutées de façon séquentielle). Il permet de réaliser le traitement qui fait suite à l’attention.
5°) Couche d’attention encodeur-décodeur : Il s’agit de la couche qui reçoit les données en provenance de l’encodeur. Il s’agit ici d’une couche d’attention et non d’autoattention comme c’était le cas pour la première couche de l’encodeur. En effet, contrairement à la couche de self-attention, pour laquelle tous les trois paramètres sont calculés à partir de la même séquence, la couche d’attention ici prend les clés K et valeurs V provenant de l’encodeur mais une requête Q provenant du décodeur.
Une autre couche feed-forward suit celle-ci et a le même rôle que celle de l’encodeur.
6°) Module d’attention masquée : Il s’agit de la première couche du décodeur. C’est aussi un module de self-attention auquel on ajoute le masquage. Ce module est dit masqué suite au fait que, comme le décodeur est un module de génération, on ne regarde que les termes précédemment générés, en masquant les termes qui seront probablement générés aux pas d’après. Cela est réalisé en rendant juste leurs probabilités nulles.
7°) Module linéaire final : Il s’agit d’un réseau de neurones classique pour réaliser la déduction finale, le tout étant passé à la fin à travers une opération softmax qui permet de transformer les résultats en probabilité d’éléments générés (cela permet de choisir le terme le plus vraisemblable à générer comme sortie).
Cette explication simplifiée se comprend mieux si on y joint la vue éclatée suivante :
I.6. CONCLUSION PARTIELLE
Figure I.8: Vue éclatée d’un transformer [51]
Les transformers, ici succinctement présentés, sont un modèle très adapté aux tâches de traitement automatique du langage naturel. C’est un modèle incontournable vu aussi que ses traitements peuvent être facilement parallélisés. Cela est rendu possible par le fait que l’architecture des transformers est parallèle par essence.
I.6 Conclusion partielle
Nous venons de réaliser une vue d’ensemble du domaine de traitement automatique du langage naturel, ainsi que diverses techniques couramment utilisées. Pour cela, nous avons tout d’abord justifié la préséance des modèles basés sur le deep learning pour diverses tâches du NLP.
Ensuite, nous avons évoqué les technique de pré-traitement des textes, souvent incontournables, comme la réduction des séquences en leurs tokens constitutifs, la suppression des mots fréquents mais n’apportant pas assez d’informations et la réduction des mots en leurs racines respectives. Nous y avons aussi joint quelques techniques utiles à la compréhension du langage humain comme le POS tagging et la reconnaissance d’entités nommées. Ce qui précède nous a finalement conduit à présenter les modèles courants du NLP basés sur les RNNs et, nous avons terminé par la présentation de l’architecture transformer, modèle que nous utiliserons pour ce travail (les précisions sur les modèles particuliers seront données au chapitre suivant).
Les transformers constituent un type de modèle qui s’avère être le plus adapté (pour le moment) au résumé automatique du texte et, dans le chapitre suivant, nous commencerons par présenter les diverses spécificités du résumé automatique comme tâche du NLP, pour finir par présenter l’architecture globale du système que nous comptons élaborer.
Chapitre II
Présentation du résumé automatique et conception du système
II.1 Introduction partielle
Le résumé automatique étant le sujet principal de ce mémoire, dans cette partie nous le présentons alors en détail en tant que discipline et tâche du NLP. Nous allons ici présenter les théories sur la synthèse automatique des textes, en classifiant les diverses méthodes utilisées pour pouvoir situer notre système dans l’ensemble des travaux jusque-là menés sur ce sujet.
Ensuite, nous présenterons les diverses approches utilisées pour le résumé automatique, sans oublier d’approfondir notre présentation des modèles de type transformer adaptés à cette tâche, pour finalement mentionner le modèle que nous estimons le plus adapté concernant l’approche basée sur le deep-learning pour la synthèse automatique. Enfin, nous allons réaliser une conception rapide mais suffisante de l’architecture globale de notre système, tout en précisant le rôle et le fonctionnement de chaque partie.
II.2 Présentation et définitions
Selon Le Petit Robert, résumer c’est reprendre en plus court un discours, le présenter brièvement en conservant l’essentiel. En d’autres termes, c’est l’abréger, l’écourter, le réduire. De même, en tant qu’exercice intellectuel, le résumé, consiste à réduire un texte tout en lui restant fidèle. Il exige donc de restituer les idées en un nombre déterminé de mots, en évitant au mieux de recopier le texte à résumer. Il faut alors composer un texte
29
plus court qui contienne l’essentiel du message initial.
De cela on tire que le résumé devient automatique s’il est généré par un logiciel ou un système informatique.
Cette définition est en fait correcte bien qu’elle ne soit assez précise pour notre contexte. Il nous faut une définition assez générale et précise, embrassant au mieux l’aspect automatique, ou mieux, l’aspect informatique, qui nous intéresse dans ce mémoire. Une définition assez valable est celle de TORRES-MORENO Juan-Manuel qui dit qu’un résumé automatique est un texte généré par un logiciel, cohérent et contenant une partie importante des informations pertinentes de la source, et dont le taux de compression est inférieur au tiers de la taille du(des) document(s) source(s) [48].
L’introduction du taux de compression dans la définition n’est pas anodine car, on s’est très vite rendu compte que la performance d’un système de résumé automatique dépendait fortement du taux de compression. En effet, les études de [26] montrent que les meilleures performances des systèmes de résumé automatique sont généralement atteintes pour des taux de compression compris entre 15 et 30% [48].
Nous allons adopter, dans ce travail, la définition de TORRES-MORENO Juan-Manuel ci-haut présentée.
Toutefois, on ne doit pas manquer de signaler que la génération automatique des résumés est un problème complexe en soi, tout comme l’évaluation des résultats. Le résumé est en effet une tâche cognitive requérant la compréhension du texte considéré et, les humains n’étant pas toujours bons dans les tâches de synthèse, le manque d’étalon explique qu’il y ait également une difficulté d’automatisation du processus.
II.3 Catégorisation des résumés
Les résumés peuvent être classifiés selon différents critères tels que leur fonction, le nombre de documents source, le genre de document, le type de résumé, le type de résumeur, le contexte,...
II.3. CATÉGORISATION DES RÉSUMÉS
Parcourons de manière succincte ces différents critères de classification [36, 31, 32, 38, 37, 48] :
II.3.1 Selon la fonction
Selon leur fonction, on classifie les résumés en deux groupes qui sont le résumé indicatif et le résumé informatif.
Résumé indicatif
Tel une table des matières, un résumé indicatif renseigne le lecteur sur les thèmes abordés dans un document. Il liste donc les sujets les plus importants évoqués par le texte. Certains systèmes de résumé guidé génèrent un résumé indicatif du texte comme étape initiale, l’utilisateur choisit alors parmi les sujets proposés par le résumé ceux qui l’intéressent et le système produit enfin un résumé informatif du texte guidé par la requête de l’utilisateur. La requête dans ce cas est l’ensemble des sujets sélectionnés à partir du résumé indicatif.
Résumé informatif
Il s’agit d’un modèle rétréci du texte d’origine, relatant le plus largement possible les informations contenues dans celui-ci. Ce type de résumé répond souvent à une attente en résumant de plus le contenu. La problématique ici est donc double : comprendre ce qui n’est pas information dans un texte et connaître le besoin de l’utilisateur final. Néanmoins, si on n’a pas de requête spécifique de la part de l’utilisateur, le résumé informatif est réalisé en veillant à ce que l’ensemble des principaux sujets du texte d’origine soit rapporté. Ainsi, les sujets principaux qui sont rappelés dans le résumé sont répartis de manière fidèle par rapport à l’organisation initiale afin de donner un juste aperçu du texte source.
II.3.2 Selon le nombre de documents source
Selon le nombre de documents source on a les résumés mono-document et multidocument.
Résumé mono-document
Il consiste à résumer un document isolé. Le corpus de documents source est donc ici constitué d’un seul et unique document.
Résumé multi-document
Il s’agit d’un résumé de plusieurs documents (un groupe de documents), très souvent liés thématiquement, en faisant attention à ne pas insérer des informations déjà évoquées.
II.3.3 Selon le genre des documents
Résumé des documents journalistiques
Il s’agit de résumer les documents du type article de presse (sachant qu’ils ont une structure particulière). En effet, on sait par exemple que dans le domaine journalistique, les informations les plus importantes sont souvent mentionnées au début du texte.[36]
Résumé des documents spécialisés
Il s’agit de résumer des documents en provenance d’un domaine précis (géologie, médecine, mathématique,...), fortement spécialisé.
Résumé des documents littéraires
C’est le résumé de documents du type narratif, des textes littéraires, des textes argumentatifs, ...
II.3. CATÉGORISATION DES RÉSUMÉS
Résumé des documents encyclopédiques
Ici il s’agit de résumer des documents de type encyclopédique (en général multithématiques de toute évidence) à l’exemple de Wikipédia...
II.3.4 Selon le type de sortie (résumé obtenu)
Cette classification est très importante et très utilisée. Il s’agit des :
Résumés extractifs (extractive summarization)
Le résumé extrait est formé de segments de texte extraits du(des) document(s) source(s). Ces segments peuvent être des phrases, des propositions ou n’importe quelle unité textuelle présent dans le(s) document(s) à résumer. Le problème consiste donc à repérer les segments de texte qui semblent être les plus pertinents pour faire partie du résumé final. Les éléments obtenus à la fin sont donc explicitement présents dans le(s) document(s) source(s).
Résumés abstractifs (abstractive summarization)
Les méthodes de résumé abstractives imitent, jusqu’à un certain degré, le processus naturel accompli par l’homme pour résumer un document. Par conséquent, elles produisent des résumés plus similaires aux résumés manuels (humains). Ce processus peut être décrit par deux étapes majeures : la compréhension du texte source et la génération du résumé. La première étape vise à analyser sémantiquement le contenu du texte et à identifier les parties à exprimer dans le résumé. C’est en quelques sortes une tâche d’extraction d’information liée au domaine abordé ou de regroupement des phrases du texte source. Vient ensuite la génération du texte.
Bref, on produit un résumé rapportant le contenu du(des) texte(s) source(s) en utilisant un vocabulaire différent et plus concis.
Il existe aussi des résumés dits semi-extractifs, et même aussi des résumés dits par compression [48] mais nous estimons inutile de les décrire ici étant donné que la distinction abstractif-extractif suffit pour notre contexte.
II.3.5 Selon le type de résumeur
Le résumeur est le système qui réalise le résumé. Il peut s’agir d’une entité naturelle (un humain) ou artificielle (un logiciel). On a donc essentiellement les deux cas suivants :
Résumé humain (manuel)
Il s’agit d’un résumé réalisé par un humain. Il peut être fait par l’auteur même du document (on parle souvent de résumé d’auteur), par un expert du domaine traité (on parle souvent de résumé d’expert) ou par un professionnel de résumé (on parle de résumé professionnel).
Résumé automatique
Il s’agit, comme on l’a maintes fois mentionné, d’un résumé fait par un système informatique.
II.3.6 Selon le contexte
Résumé générique
Ici on résume le document sans prendre en compte les besoins d’information de l’utilisateur. On produit juste un résumé complet et le plus mieux fait possible.
Résumé guidé
Pour ces types de résumé, l’utilisateur commande la génération du résumé en précisant les types d’information dont il a besoin.
Résumé mis à jour
Il s’agit d’un résumé de type dynamique par essence. Ici, un ensemble de documents sources est résumé en veillant minutieusement à ce que le document dont le résumé est ajouté à la suite d’un précédent résumé ne puisse pas créer une répétition d’information.
Il y a donc un contrôle de nouveauté.
II.3.7 Selon le destinataire du résumé
On peut aussi classifier un résumé selon le public auquel il est destiné.
Résumé sans profil
Il s’agit d’un résumé qui ne tient pas compte d’un quelconque profil utilisateur. Le résumé est donc généré sans tenir compte de la personnalité des utilisateurs.
Résumé avec profil
Il s’agit d’un résumé dont l’un des éléments guides (requête) est le profil des individus auxquels le résumé est destiné.
En ce qui concerne notre système, nous implémenterons à la fois un résumeur abstractif et un résumeur extractif et ce sera mono-document. En plus de cela, le résumé ne sera pas guidé, il s’agira de produire des résumés génériques, pour des documents de type littéraire (documents du type narratif, des textes littéraires, des textes argumentatifs,...).
II.4 Approches de résumé automatique
Nous allons présenter ici diverses approches algorithmiques pour résumer les documents textuels. Les approches seront abordées en supposant que les résumés sont principalement classés en abstractif et extractif.
II.4.1 Techniques intuitives de résumé [36]
Avec des critères centrés sur le contenu des textes, il existe un grand nombre d’algorithmes assez triviaux de résumé, qui sont basés entre autres sur : • La fréquence d’occurrence des mots et
• L’annotation en rôle sémantique.
Ces critères mettent l’accent sur le contenu du texte et le message qu’il communique.
Fréquence d’occurrence des mots
L’idée majeure des techniques qui utilisent ce critère consiste à considérer que les mots les plus fréquents sont les plus liés au sujet principal du texte à résumer. Cette approche assez simpliste mais fonctionnelle fut introduite en 1958 par Luhn [29], une première tentative de résumé automatique.
On affecte des scores aux phrases présentes dans le texte, en additionnant chaque fois les poids des mots les constituant (on attribue ce poids en fonction de la fréquence d’apparition du mot considéré dans le texte entier). Et, à la fin, le résumé est constitué avec les phrases extraites du texte source, et dont le score dépasse un certain seuil dépendant de la taille maximale imposée pour le résumé. Le tout est finalement réarrangé selon l’ordre d’apparition (des phrases sélectionnées) dans le texte d’origine.
L’annotation en rôle sémantique
Ici, l’idée est simple. En utilisant des techniques de repérage d’entités nommées (voir le chapitre précédent), on identifie les entités présentes dans le document. Après cela, l’entité la plus fréquente est identifiée et considérée comme entité principale. Par la suite, les phrases contenant cette entité sont sélectionnées. Enfin, seules les phrases où l’entité principale possède un rôle sémantique fondamental (non auxiliaire) sont gardées pour le résumé.
L’un des moyens les plus simples pour repérer les entités nommées est de passer par l’apprentissage profond comme on l’a précédemment mentionné.
Il existe tout de même des techniques qui ne se fient qu’à la forme et à la structure du texte, sans en considérer le contenu. L’intuition derrière cette approche est basée sur le constat que dans un texte, les éléments ne sont pas présentés de façon arbitraire. De manière usuelle, les techniques utilisées se basent sur :
La position des phrases;
La similarité avec le titre
La longueur des phrases ou sinon,
Les mots indices (cue word)
La position des phrases
Cette approche est à appliquer en fonction de la nature du document et de son genre. Pour certains types de documents (documents journalistiques par exemple), les phrases se trouvant au début sont généralement plus informatives et décrivent le sujet principal du document. De plus, les phrases situées au début de chaque paragraphe tendent à apporter plus d’informations pertinentes. Le résumé des articles scientifiques par contre, peut essentiellement se former en se basant sur les contenus des parties résumé et introduction (sous l’hypothèse que ces dernières parties sont bien faites). En revanche, dans le cas des revues intégratives (critique et comparaison des études), les phrases les mieux notées sont celles des parties résultats et discussion et conclusion.
Ces exemples suffisent pour illustrer dans quelle mesure cette approche peut s’appliquer.
La similarité avec le titre
Cette approche part du principe selon lequel un bon titre doit informer de manière brève du contenu principal du texte qu’il encadre. Cela permet alors de fixer comme mesure de pertinence des phrases, leur similarité avec les titres. Toute la problématique se réduit donc à la construction d’algorithmes capables de capturer efficacement la similarité.
La longueur des phrases
L’approche consistant à se baser sur la longueur des phrases est assez naïve mais fonctionnelle.
En effet, la longueur moyenne d’une phrase dans un texte dépend de son genre. Généralement, les phrases très courtes sont considérées comme peu informatives alors que les phrases très longues sont présumées favoriser la redondance. Cette caractéristique est exploitée en fixant un intervalle de longueur (entre 15 et 30 mots). Une phrase ayant une longueur en dehors de cet intervalle est pénalisée [45].
Les mots indices
Ici, on considère une liste de mots, constituée manuellement, et qui a comme rôle de permettre de se décider si une phrase doit être prise dans le résumé ou rejetée, selon qu’elle contient ou non un(des) mot(s) de la liste qualifié(s) inhibiteur(s) ou valorisant(s). Comme exemple des mots ou groupes de mots inhibiteurs on trouve : par exemple, accessoirement, ... Et pour les mots valorisants on peut citer : notez bien, ...
Nous devons quand même préciser encore une fois que tout dépend de celui qui écrit la liste.
Les méthodes que nous venons de présenter sont assez intuitives mais constituent la base des processus de synthèse. En effet, synthétiser un texte revient au fond à implémenter un certain nombre de règles, dont font parties évidemment celles que nous venons de mentionner. Néanmoins, ce que nous venons de présenter est décrit en se basant sur le concept de résumé extractif. Nous devons toutefois signaler que les résumés abstractifs se basent au fond sur les mêmes principes, soit en partant des résumés extractifs pour ensuite réaliser des paraphrases, insérer des connecteurs appropriés et éliminer les références anaphoriques dans les résumés, soit en implémentant indirectement toutes ces techniques à travers un modèle d’apprentissage automatique ou un modèle basé sur les graphes capables de capturer d’un seul coup tous ces aspects (ou une grande partie d’entre-eux). Les techniques intuitives ci-haut présentées ne sont pas les seules. Il en existe également d’autres, basées essentiellement sur les théories linguistiques. Entre autres les méthodes d’analyse du discours (par exemple la RST [31] ou Rhetorical Structure Theory)...
II.4.2 Algorithmes classiques de résumé automatique
Comme nous venons de l’introduire dans la section précédente, le résumé automatique est abordé essentiellement selon deux approches qui sont [31] :
1°) Les approches numériques, fondées sur les techniques à base des scores (poids), et
2°) Les approches symboliques fondées sur les techniques purement linguistiques, basées en premier sur une étude sémantique.
Il faut noter qu’on peut considérer aussi des approches basées sur la théorie des graphes comme intégrant les idées de ces deux approches de façon implicite, tout comme celles basées sur l’apprentissage automatique. Mais, dans tous les cas, une vue sur quelques heuristiques (méthodes basées sur le bon sens) est toujours à considérer (surtout en amont, puis en aval du processus de synthèse).
Ici, nous allons présenter les approches essentiellement numériques (on va y inclure celles basées sur l’apprentissage automatique et celles basées sur la théorie des graphes).
Algorithme de Luhn [29]
Il s’agit d’une méthode heuristique pour la synthèse des documents. C’est la plus ancienne méthode de résumé automatique (au sens moderne du terme).
Cette approche n’est pas considérée comme très bien formalisée. Elle exécute implicitement l’approche du TfIdf que nous allons décrire dans la sous-section qui suit celle-ci (sous-section II.4.2).
La sélection (des mots ici) se fait en considérant les hypothèses qui suivent :
la synthèse consiste à supprimer certains mots pour n’en conserver que les plus importants;
les mots se trouvant au début sont probablement importants;
les autres mots utiles respectent une certaine distribution. La figure II.1 montre, selon Luhn, comment choisir ces mots importants (partie hachurée de la courbe).
Figure II.1: Diagramme des fréquences des mots et le choix de Luhn [29]
Cette approche, comme on l’a mentionné au début, est assez moins précise et empirique, mais elle sous-entend les idées fondamentales appliquées plus tard.
Algorithme TF-IDF
Le tf-idf (time-frequency inverse document frequency est une approche essentiellement utilisée pour le résumé extractif. Il s’agit d’une correction de l’approche naïve consistant à poser que plus un mot est répété dans un corpus de texte, plus il y est important.
Soit donc un corpus constitué de D documents et Nj le nombre total de mots (termes) présents dans un document j donné du corpus. Nommons Freq(i,j) le nombre de fois qu’un terme i apparaît dans le document j.
On définit classiquement la fréquence d’apparition par :
Freq(i,j)
T F(i,j) = (II.1)
Nj
L’approche qui se base naïvement sur la fréquence d’apparition des mots dans les textes pour juger de leur importance relative, accorde à chaque mot un poids égal à T F(i,j). La grande faiblesse de cette approche est d’inclure ainsi des termes sans grande pertinence informationnelle comme des prépositions, des articles,... très présents au sein des documents.
Pour corriger cette faiblesse, on pose l’hypothèse que les termes importants apparaissent plusieurs fois dans un document (ou juste dans peu de documents du corpus) et non pas dans plusieurs documents. Puisque dans ce second cas, il est souvent question des éléments communs du langage, sans grande utilité informationnelle. Ceci constitue en fait la loi de Zipt [55] et c’est le fondement de l’approche du tf-idf.
A cet effet, on définit DFi comme étant le nombre de documents dans le corpus, qui contiennent le terme numéro i. Cela permet d’affecter alors le poids selon la formule [5] :
D !
T FIDF(i,j) = log(1+T F(i,j))·log (II.2)
DFi
Dans l’expression, II.2, en supposant que N est le dictionnaire des termes présents dans l’ensemble des documents, il faut noter que : i ∈ {1,...,N} et j ∈ {1,...,D}.
D’où finalement, le poids d’un terme i dans un document j est donné par :
wij = T FIDF(i,j) (II.3)
Pour notre cas, l’application de cette approche consiste à décomposer un long texte en ses phrases et de considérer que chacune de ces phrases est un document et que le texte entier constitue le corpus.
Plusieurs définitions des éléments T F(ij) et IDFi formant l’expression II.2 sont toutefois possibles selon les besoins en terme de performance.
Mais, dans l’ensemble, l’idée de base demeure la même car il ne s’agit en général que de changement des types de normalisation [55].
L’application de cette méthode pour le résumé consiste finalement à calculer le poids de chaque phrase en additionnant les poids des termes la constituant, puis à normaliser le résultat en fonction de la taille de la phrase considérée. Après tout, on définit un seuil qui permet de soutirer les phrases selon leur pertinence ainsi évaluée (en considérant évidemment plus pertinente une phrase dont le résultat de la sommation des poids est élevé).
Algorithme TextRank
TextRank est un algorithme de résumé extractif, basé sur la théorie des graphes et qui s’inspire de l’algorithme PageRank de Google [8, 4].
A la base, on considère un ensemble de N phrases donné, et on calcule les coefficients de liaison de chaque phrase aux N −1 autres. A la fin, on peut obtenir une matrice M de taille N ×N dont chaque terme Mij représente le degré de liaison entre la phrase numéro i et la numéro j. Il s’agit en fait d’une matrice d’adjacence dans laquelle on pose au préalable que Mii = 0, pour tout i (c’est la même idée pour l’algorithme PageRank étant donné qu’il est logique de considérer qu’une page ne peut s’auto-référencer).
Soit donc i ∈ {1,...,N}. Appelons P hri la phrase numéro i du corpus. Cela veut dire qu’on peut écrire :
Liaison P hri ↭ P hrj = Mij = Mji (II.4)
Les valeurs de Mij sont calculées au choix, selon le programmeur. Ce dernier implémente en effet une mesure de similarité selon sa définition de la liaison entre phrases et les besoins en performance.
C’est ainsi qu’on peut utiliser par exemple une mesure de similarité classique nommée similarité cosinus en la basant par exemple sur T FIDF [19].
Pour représenter les mots à comparer, on utilise les méthodes classiques de vectorisation des mots (word embedding). Nous esquisserons ces méthodes dans les sections qui vont suivre, parlant du word embedding ( II.5 ).
Le rang des phrases sont alors calculés de manière itérative en s’inspirant de la formule [33] :
N
Xh i
T extRank(P hri) = (1−K)+K · T extRank(P hrj) ·Mij (II.5)
j=1 j,i
Dans cette formule, K est une constante comprise entre 0 et 1.
Initialement, on prend en général une valeur identique de T extRank(P hri) pour toutes les phrases (souvent T extRank(P hri) = 1), mais la valeur initiale prise n’affecte pas les valeurs finales, juste le temps de convergence [33].
La formule II.5 n’est pas arbitraire, elle est d’ailleurs triviale si on s’inspire de l’algorithme de PagePank la plus simple. Pour cet algorithme (PageRank), on avait pris à l’origine K = 0.85 [8].
Justification de la formule Le principe de PageRank consiste à se dire que, si une page
P agi contient Ni références vers d’autres pages, la probabilité qu’on aille vers l’une de ces pages référencées est de N1i (avec l’hypothèse que les références ne sont pas répétées et que la distribution de leur importance est uniforme). On sait tout de même que plus une page est référencée, plus on doit lui donner de l’importance.
Si alors on pose que l’importance de la page P agi est connue, le calcul de l’importance d’une page P agj vers laquelle elle pointe se calculera logiquement par :
X 1
Importance(P agj) = Importance(P agi)· (II.6) i Ni
Avec i appartenant à l’ensemble des pages qui mentionnent la page P agj en leur sein.
Malheureusement, pour les phrases non référencées (pages dites isolées), on trouve une importance nulle. Pour lutter contre cela, la formule II.6 est un peu modifiée en y introduisant adéquatement une constante non nulle K.
Ce qui donne l’expression [8] :
X 1
Importance(P agj) = (1−K)+K · Importance(P agi)· (II.7) i Ni
On voit alors qu’il s’agit belle et bien de la formule utilisée pour TextRank (formule II.5).
Après initialisation des rangs de chaque phrase du texte ( les T extRank(P hri)) et après calcul de la matrice d’adjacence M. On applique la formule II.5 itérativement et à la convergence, on choisit les phrases qui vont former le résumé selon leur importance ( valeurs des T extRank(P hri) pour toute valeur de i).
A la fin, les phrases sélectionnées sont réarrangées pour former un résumé extrait plus ou moins cohérent.
Il existe également un algorithme nommé LexRank [14] qui est assez similaire à TextRank ici décrit, à la différence près que :
Il prend essentiellement en compte les métriques de similarité robustes;
Il considère la position et la longueur des phrases dans le calcul de leur pertinence; - Il est optimisé pour le résumé multi-document.
Plusieurs autres algorithmes populaires existent, par exemple les algorithmes LSA (Latent Semantic Analysis ou Analyse Sémantique Latente) et LDA (Latent Dirichlet Allocation ou Allocation Latente de Dirichlet) [5].
Le premier, la LSA, est un algorithme statistique, basé sur l’algorithme SVD (Singular Value Decomposition ou décomposition en valeurs singulières). Seulement, cette technique est très gourmande en ressources suite à la complexité de l’algorithme qui implémente le SVD. Le second, la LDA, basé sur la détection des thématiques, peut aussi être utilisé.
Toutefois, il faut remarquer que les algorithmes ici présentés sont essentiellement adaptés à la synthèse extractive. Même si, ces traitements peuvent être mélangés avec les techniques de résolution d’anaphores et les paraphrases pour obtenir des synthèses qui tendent vers la synthèse abstractive, nous devons souligner que les techniques jusque là les plus performantes pour la synthèse abstractive sont essentiellement basées sur le deep learning [36]. Le deep learning peut également être utilisé pour la synthèse extractive, permettant ainsi la génération des synthèses extraites plus cohérentes (avec résolution d’anaphores). Ainsi donc, nous abordons les méthodes de deep learning utilisées pour cet effet dans les parties qui suivent.
II.5 Modèles Seq2Seq
II.5.1 Methodes du Word-Embedding
Tout traitement commence par une représentation numérique des termes (des mots ici) pour qu’ils soient assimilables par le modèle. Une approche naïve consisterait à regrouper tous les mots de notre vocabulaire dans une liste (un dictionnaire) et de les représenter chacun par un nombre unique (un identifiant). Une autre approche, plus classique, consiste à représenter chaque mot par un vecteur de dimension égale à la taille du dictionnaire et dont tous les termes sont nuls, sauf à la position, dans le dictionnaire, du mot qu’on est entrain de vouloir représenter (on parle du one-hot encoding).
Ces représentations, et toutes celles qui s’y apparentent, ont la grande faiblesse d’être peu informatives (au point de vu sémantique). Étant artificiellement construites, sans tenir compte du sens des mots, ni de leur contexte, ces méthodes de représentation rendent la tâche de découverte des caractéristiques par les systèmes de machine learning encore plus difficile. D’ailleurs, l’une des faiblesses de la seconde méthode décrite (le one-hot encoding) est que les vecteurs sont creux (une majorité de valeurs nulles) et de dimension inutilement très grande. On pourrait directement songer à une représentation plus judicieuse pour éviter ces deux soucis, et qui consisterait à réaliser une représentation binaire des termes mais, le problème de la sémantique sera toujours là.
On recourt donc à des méthodes de représentation plus élaborées, partant du principe selon lequel le contexte d’un mot suffit pour en appréhender le sens. Ainsi, tout mot est représenté en réalisant une statistique (implicitement bien sûr) sur les divers mots qui l’accompagnent souvent, de telle sorte que les mots aux sens proches aient aussi des vecteurs très proches. Bref, on en arrive à réaliser la proposition : "Similarité sémantique implique similarité de représentation". Ce sont les méthodes classiques du word embedding (ou plongement lexical). Il s’agit par exemple des méthodes comme le Word2Vec [34, 35], Glove [39], fastText [6]...
II.5.2 Modèles séquence-à-séquence proprement dits
S’agissant des modèles séquence-à-séquence (Seq2Seq), ils ont été présentés dans la section I.5.3 (voir particulièrement la figure I.6). Il s’agit bel et bien des modèles adaptés aux tâches de synthèse, vu qu’en entrée on reçoit une séquence pour ressortir une autre séquence en sortie.
Comme nous l’avons déjà bien mentionné au précédent chapitre, nous n’allons parler que des modèles Seq2Seq de type transformer car actuellement, ils sont les plus adaptés à la tâche que nous voulons réaliser (celle de synthèse automatique). Les transformers (voir la figure I.7) sont un modèle très avantageux car en fait, au-delà de leurs performances et autres avantages, ils facilitent encore plus la recherche en NLP en rendant effectif le transfer learning (apprentissage par transfert) dans ce domaine.
L’entraînement des transformers est semi-supervisé. Il se fait en deux crans (nous les décrirons dans le cadre du NLP) :
1°) Pré-entraînement : il s’agit d’un apprentissage non supervisé, qui consiste à donner au modèle une masse colossale de données textuelles, non étiquetées, pour qu’il développe une compréhension statistique du langage qu’on veut qu’il puisse assimiler.
Au final, on obtient un modèle pré-entraîné.
2°) Affinage de l’apprentissage (fine-tuning) : Ça consiste à finaliser l’apprentissage du modèle pré-entraîné de manière supervisée pour qu’il soit en mesure de réaliser une tâche donnée du NLP (il s’agit du transfer learning en fait). Cette spécialisation, requiert une très faible quantité de données car le modèle aura déjà une représentation assez bonne de la langue. Cela pallie à la fois au problème de manque des données labellisées en NLP et de la consommation en terme de ressource énergétique des gros modèles lors de leur entraînement.
Les méthodes de pré-entraînement sont très déterminantes pour les performances finales du modèle. Ce premier entraînement du modèle a pour rôle de l’amener à construire un modèle de langage [25].
Il existe ainsi plusieurs objectifs de de pré-entraînement (pour construire le modèle de langue). On peut par exemple entraîner le modèle à :
Prédire le mot suivant : donc, lors de cet entraînement non supervisé, on fournit chaque fois au modèle une séquence de mots en lui demandant de prédire le suivant. Il s’agit d’un objectif d’entraînement dit NSP (Next Sentence Prediction) visant à transformer implicitement le transformer en un modèle de langue [11];
Deviner le mot caché (masqué) : on fournit au modèle du texte dont certaines parties (mots ou suite de mots) sont cachées. L’objectif assigné au modèle est alors de retrouver les mots masqués. On parle du MMLMasked Language Modelling [11].
Ainsi, au fur et à mesure, les paramètres du modèle s’affinent, le transformant en un modèle de langue performant. Mais, à part les deux que nous venons de mentionner, il existe d’autres objectifs de pré-entraînement [25, 54] selon les variantes de transformers et les objectifs finaux de spécialisation du modèle.
Bien que la forme classique des transformers est bel et bien celle de la figure I.7, il existe 3 types d’implémentation selon les types de tâche visées en dernier lieu :
1°) Modèles à encodeur seul : on supprime la partie décodeur. Ces modèles sont très bons pour les tâches de compréhension du langage comme la classification par exemple.
2°) Modèles à décodeur seul : on supprime alors la partie décodeur du modèle. Ils sont bons pour les tâches de génération de texte.
3°) Modèles encodeur-décodeur : ou encore modèles seq2seq proprement-dits. Ils sont bons pour les tâches demandant à la fois la compréhension et la génération des textes.
Pour illustrer ce fait, on va considérer donc 3 types de transformers [49, 52] :
1°) Like-BERT : semblables au transformer dénommé BERT Bidirectional Encoder Representations from Transformers. Ce sont des modèles du type encodeur seul. Ils sont également bidirectionnels. Donc, les phrases sont lues dans les deux sens pour mieux saisir tout le contexte.
2°) Like-GPT : donc semblables au transformer dénommé GPT (Generative Pre-trained Transformer) qui n’ont que la partie décodeur et sont dits auto-regressifs car, seules les parties précédant le mot en cours de traitement sont connues du modèle et il y a chaque fois réinjection des sorties à l’entrée.
3° Like-BART/T5 : semblables à BART (Bidirectional and Auto-Regressive Transformers) ou à T5 (Text-To-Text Transfer Transformer). C’est donc ceux du type encodeur-décodeur.
Modèles encodeurs (encoder-model) : Comme on l’a dit, pour ces modèles, on n’implé-
mente que la partie encodeur du transformer d’origine (celui de Vaswani et al. [50]). En plus de cela, ces modèles ont une couche d’attention bidirectionnelle et sont généralement appelés auto-encodeurs (auto-encoding model). Ces modèles sont principalement bons pour les tâches de NLU (Natural Language Understanding) comme la classification, le NER (Name Entity Recognition), l’extractive question-answering,...
Dans ce groupe, les modèles les plus connus sont :
ALBERT [24],
BERT [11],
DistilBERT [43],
RoBERTA [28],
Etc.
Modèles décodeurs (decoder-models): Utilisent seulement la partie décodeur, sont auto-
regressifs et par conséquent les têtes de self-attention n’accèdent qu’aux mots précédant l’étape à laquelle elles sont (pas de regard dans le futur) comme on l’a déjà un peu mentionné. Ces modèles sont particulièrement bons pour les tâches liées fortement au NLG (Natural Language Generation).
Dans ce groupe, les modèles les plus connus sont :
Les GPT (1, 2 et 3) [41],
TransformerXL [10],
Etc.
Modèles encodeur-décodeur (sequence-to-sequence models): Ces modèles utilisent l’in-
tégralité de l’architecture des transformers et sont ainsi bons pour les tâches demandant à la fois du NLU et du NLG comme la synthèse automatique abstractive, le generative question-answering et la traduction automatique.
Ici nous pouvons particulièrement mentionner les modèles comme :
BART [25],
mBART [27],
BARThez [13],
T5 [42],
mT5 [53], • PEGASUS [54],
Etc.
II.5.3 Modèle BART pour la synthèse abstractive
Le modèle BART est comme une combinaison de BERT [11] et de GPT-2 [40, 41] en terme
d’architecture et d’objectif de pré-entraînement, avec quelques optimisations supplémentaires [25]. Pour illustration, voici une image de comparaison :
Figure II.2: Comparaison simplifiée entre BERT, GPT et BART [25]
L’image II.2 étant claire, nous pouvons illustrer les diverses corruptions que peuvent subir les données pour le pré-entraînement. L’image ci-dessous l’illustre :
Figure II.3: Transformations de bruitage expérimentées pour BART [25]
Le modèle BART est bien adapté à la tâche de synthèse abstractive. C’est celui que nous
allons privilégier (les modèles dérivés de BART principalement) pour réaliser cette tâche dans notre système.
Justification du choix de BART
Le choix de BART est dû au fait que c’est le modèle que nous avons trouvé réalisant un bon compromis poids-performances. Aussi, après quelques tests, ses résultats nous ont paru être plus intéressants. En outre, l’objectif d’entraînement utilisé pour BART nous paraît assez général pour construire un modèle de langage performant. Nous justifierons plus précisément ce choix dans le chapitre qui suit, en présentant également quelques résultats des tests.
II.6 Conception de l’architecture globale du système
Il existe un large éventail des méthodes de développement des systèmes informatiques mais, en règle générale, toutes suivent les étapes suivantes [7] :
1°) Spécifications : on définit avec précision ce que fera le système (à quoi est-il destiné?);
2°) Conception et mise en oeuvre : on conçoit et on réalise le système;
3°) Validation : on teste le système pour voir s’il correspond aux objectifs précisés dans les spécifications;
4°) Évolution : ça correspond à tout ce qui vient après la livraison du produit (versionning, maintenances,...).
Ici, on ne va pas utiliser une méthode de conception particulière. Pour pouvoir tout de même y aller méthodiquement, nous nous inspirerons de ces étapes classiquement suivies lors de la conception des systèmes informatiques.
Dans ce second chapitre, nous ne présenterons que les spécifications du système ainsi qu’une ébauche de conception avec une présentation de l’architecture globale. La suite sera traitée dans le chapitre suivant.
II.6.1 Spécifications du système
Le système devra pouvoir permettre de réaliser ce qui suit :
Synthétiser les textes qui lui sont fournis en entrée (saisis directement ou importés dans fichiers .pdf non scannés, des fichiers .docx et .txt);
Servir les synthèses directement ou à travers un fichier .pdf à télécharger;
Obtenir des synthèses produites par plusieurs algorithmes et les évaluer;
Stocker les couples document-synthèse;
Faciliter le parcours des documents en soulignant les parties saillantes;
Permettre l’affinage d’un modèle de synthèse automatique (ici nous réaliserons le fine-tuning du modèle mBART ou du modèle mT5 selon celui qui se prêtera mieux à cet affinage).
C’est cela le minimum de besoins que le système devra être capable de combler.
II.6.2 Présentation des éléments du système
L’architecture globale de notre système est un trois-tiers classique. Elle se présente comme sur la figure II.4 :
Figure II.4: Architecture globale de notre système
La figure II.4 presente l’architéture du système qui est d’une architecture 3 − tiers classique. Il y a toutefois une partie qui n’est pas ici représentée car nous voulons nous donner une grande liberté de conception à son sujet. Il s’agit en fait de l’interface d’accès à l’API (Application Programming Interface), qui permettra aux développeurs de s’authentifier et générer éventuellement un token à utiliser pour implémenter leur propres interfaces devant permettre d’utiliser les services de cette API. Il s’agit donc d’une API privée.
Cette interface permettra aussi de voir toute la documentation de l’API (pour les développeurs) pour mieux utiliser ses services.
Quant au bloc interface que nous venons de présenter sur la figure II.4, c’est en nous mettant à la place d’un développeur lambda qui exploite les services de l’API.
Notre API quant à elle, est une API REST (REpresentationnal State Transfer qui aura 4 end-points principaux dédiés à la synthèse automatique (selon les besoins d’implémentation, on pourra en insérer d’autres mais qui ne concernerons probablement pas la synthèse).
Module de synthèse extraite : ce module réalisera une synthèse en combinant divers résultats d’algorithmes de synthèse extraite. Nous prévoyons, dans un premier temps, ne l’utiliser que pour des petits documents (la taille optimale sera déterminée avec les expérimentations au chapitre suivant).
Module de synthèse abstraite : ce module donnera une synthèse abstraite en utilisant l’un des transformers affinés pour la synthèse ou bien par le module qui sera en train de s’auto-améliorer au cours de l’utilisation du système (on l’a nommé expérimental, voir la figure II.7). Comme les transformers réalisent des synthèses de documents de taille généralement limitée à environ une page, nous mettrons au point, dans cette partie, une pipeline qui nous permettra d’augmenter le nombre de pages (nous pensons à 100 pages mais les expérimentations nous permettrons de choisir une taille optimale, tenant compte surtout de la rapidité).
Module de synthèse extrait simplifié : Il s’agira d’un module qui permettra la réalisation de la synthèse mais en utilisant l’un des algorithmes de synthèse extraite implémentés (soit de manière aléatoire, soit par choix de l’utilisateur).
Module expérimental : Il s’agira d’un module de synthèse abstraite qui sera essentiellement utilisé pour la synthèse des petits documents (quelques pages). Pour ce module, nous comptons mettre au point une routine d’entraînement à partir des synthèses collectées par le système, pour améliorer au fur et à mesure les performances de ce module. Nous comptons réaliser l’entraînement par transfer learning avec les transformers mT5[53] ou mBART [27] comme base. N’ayant pas encore testé cette partie, nous serons fixé sur la méthode à utiliser ainsi que le modèle de base à choisir au chapitre suivant, après les expérimentations.
On peut aussi remarquer qu’il y a un module pre-processing dans la partie interfaces. C’est par suite du fait que, pour des raisons de performance, on devra envoyer à l’API le fichier sous un format particulier. Il faudra réaliser l’acquisition des données dans divers formats (pdf,docx,...) mais les données acquises seront envoyées dans un format plus léger à l’API (du JSON pour notre cas).
La base des données, que nous avons mentionné dans la figure II.4, a un double rôle :
1°) Le stockage des données de l’utilisateur (il s’agira en fait des identifiants des interfaces qui utiliseront l’API);
2°) Le stockage des paires document-synthèse, ainsi que l’appréciation de l’utilisateur (évaluation par les utilisateurs).
II.6.3 Architecture du module de synthèse extractive
Le module de synthèse extractive se présente comme suit :
Comme nous pouvons le voir, un traitement sera fait pour adapter les données reçues à ce qui peut être traité par le système. Ce traitement consistera à ne retenir que des symboles alphanumériques, à réaliser la tokenisation des textes (chaque token sera une phrase pour cette partie) et à affecter un identifiant unique à chaque phrase.
Après cela, les données seront invariablement passées aux algorithmes de synthèse extractive, qui générerons chacun un groupe de poids des phrases. Après cela, le module de pondération et sélection réalisera successivement ce qui suit :
Acquisition des sorties de chaque algorithme de synthèse extractive (il s’agira des dictionnaires dont les clés seront les identifiant uniques des phrases et les valeurs seront les poids affectés par l’algorithme). A chaque algorithme, on donnera un poids qu’on nommera WNomdel′algo compris entre 0 et 1, selon la confiance qu’on lui porte (la somme des poids sera égale à 1 et par défaut, tous les algorithmes pourront avoir le même poids) ;
Élimination des phrases de poids faible (avec comme seuil, la taille maximale de résumé précisée par l’utilisateur);
Réarrangement de chaque dictionnaire obtenu après expulsion des phrases non significatives (les éléments seront arrangés par ordre décroissant des poids pour chaque sortie);
Donner des propabilités aux espaces des poids de chaque dictionnaire par application d’un softmax sur chacun d’eux. Ce qui donnera, pour chaque phrase de chaque dictionnaire, un nouveau poids ωphri, avec i le numéro du dictionnaire et phr le numéro de la phrase considérée dans ce dictionnaire ;
Listage complet des éléments (leurs identifiants) de tous les dictionnaires.
Pour chaque élément de la liste globale ainsi établie, appliquer la formule suivante pour obtenir un nouveau poids :
X
W = Wi ·ωphri (II.8) j
i∈D
Avec Wj le nouveau poids affecté à la phrase ayant un identifiant global j (l’identifiant là d’origine) et D la liste des dictionnaires (les sorties de chaque algorithme);
Arranger toutes les phrases par ordre décroissant dans une unique liste et sélectionner les plus haut dans la liste jusqu’à atteindre le seuil fixé (nombre de mots fixé pour la synthèse).
Constituer une liste avec les éléments sélectionnés.
Réarranger les phrases de la liste selon leur ordre de succession dans le texte d’origine.
Constituer la synthèse extraite.
Ce qui précède constitue en fait l’algorithme que nous allons implémenter pour le module de pondération et sélection.
II.6.4 Architecture du module de synthèse abstractive
Le module de synthèse abstraite n’est pas unique. Nous implémenterons plusieurs modèles (BART, BARThez, PEGASUS, mBART ou mT5 entraîné avec nos données, ainsi que tous ceux qui nous paraîtrons utiles durant les essais); Chaque module de synthèse se présentera néanmoins comme suit :
Figure II.5: Architecture globale du système de synthèse abstractive
Comme nous pouvons le remarquer, il y a toujours un module de mise en forme initial (pre-processing) qui nous permettra en gros de supprimer tous les caractères que nous ne pourrons pas gérer. Vient ensuite le module de tokenisation (le tokenizer ou tokeniseur) [49] qui consistera ici à diviser tout le texte en ses mots constitutifs et à leur affecter des identifiants numériques. Ce sont ces identifiants qui seront fournis au modèle et transformés en vecteurs par la couche d’embedding du modèle.
Le modèle quant à lui, aura toujours une architecture pareille :
Figure II.6: Architecture interne du modèle mentionné sur la figure II.5
Il s’agit en effet de l’architecture classique d’un transformer, comme présenté sur la figure I.7 à l’exception du fait qu’ici on fait explicitement apparaître l’existence de la sortie du modèle. Ça correspond au réseau linéaire suivi d’une couche de softmax tel que présenté sur la figure
I.7. Cette partie, que nous avons nommé head est différente selon les tâches [52], c’est pourquoi nous avons voulu la mentionner explicitement car, selon le besoin, on peut la modifier.
Nous devons finalement mentionner que les modules de tokenisation (nommés tokenizer en anglais) dépendront explicitement des modèles utilisés.
II.6.5 Présentation des interfaces
La partie interface nous permettra juste d’utiliser le service que nous aurons élaboré et d’évaluer par la même occasion ses performances. Elle n’est pas donc cruciale. Toutefois, voici une ébauche d’interface que nous comptons utiliser pour exploiter le service :
Figure II.7: Ébauche d’interface
Avec cette interface, on a une idée générale de la manière dont nous comptons servir le système aux utilisateurs.
II.7. CONCLUSION PARTIELLE II.7 Conclusion partielle
Dans cette partie, nous venons de présenter le résumé automatique des textes, tout en réalisant une vue d’ensemble des méthodes utilisées dans la littérature à cet effet. Nous avons mentionné que la classification des résumés que nous utiliserons sera celle les départageant en abstractive summarization et extractive summarization et que, pour notre cas, il s’agira de réaliser un système de résumé mono-document, avec une partie abstractive et une autre extractive, générant un résumé générique pour des documents de type narratif et argumentatifs.
Nous avons également listé les divers modèles de transformer adaptés à la tâche de synthèse automatique abstraite, et nous avons mentionné devoir privilégier les modèles du type BART pour des raisons qui serons précisées dans le chapitre suivant.
Enfin, nous avons réalisé la conception préliminaire du système tout en précisant que, concernant l’API, la BD (Base des Données) et les interfaces, les détails d’implémentation utiles seront précisés dans la partie dédiée à la conception proprement dite et aux tests, c’est-à-dire au chapitre suivant. Le chapitre suivant nous permettra donc finalement de préciser, réaliser et tester les méthodes que nous avons jusque-là adoptées pour la mise au point de notre système de synthèse automatique des documents.
GENERALEMENT
Place les références là où il le faut STP. Même si c’est une interpretation personnelle, elle tire la source quelque part.
Verifie aussi tous les commentaires que j’ai placé aux différents niveaux du texte
Chapitre III
Conception finale, réalisation et tests
Conclusion générale
Bibliographie
D. Adams. Combining State-of-the-art Models for Multi-document Summarization Using Maximal Marginal Relevance. University of Lethbridge, 2021.
Stergos D. Afantenos, Vangelis Karkaletsis, and Panagiotis Stamatopoulos. Summarization from medical documents: A survey. CoRR, abs/cs/0504061, 2005.
Dzmitry Bahdanau, Kyunghyun Cho, and Yoshua Bengio. Neural machine translation by jointly learning to align and translate. arXiv preprint arXiv:1409.0473, 2014.
Catherine Benincasa, Adena Calden, Emily Hanlon, Matthew Kindzerske, Kody Law, Eddery Lam, John Rhoades, Ishani Roy, Michael Satz, Eric Valentine, et al. Page rank algorithm. Department of Mathematics and Statics, University of Massachusetts, Amherst, Research, 2006.
Michael W Berry and Jacob Kogan. Text mining: applications and theory. John Wiley & Sons, 2010.
Piotr Bojanowski, Edouard Grave, Armand Joulin, and Tomas Mikolov. Enriching word vectors with subword information. Transactions of the association for computational linguistics, 5:135–146, 2017.
Boudjemaa Boudaa. Cours de génie logiciel (avec exercices résolus). Université IbnKhaldoun-Tiaret, Algérie, 02 2020.
Sergey Brin and Lawrence Page. The anatomy of a large-scale hypertextual web search engine. Computer networks and ISDN systems, 30(1-7):107–117, 1998.
O. Carton and D. Perrin. Langages formels : calculabilité et complexité : cours et exercices corrigés. Vuibert, 2014.
Zihang Dai, Zhilin Yang, Yiming Yang, Jaime Carbonell, Quoc V Le, and Ruslan Salakhutdinov. Transformer-xl: Attentive language models beyond a fixed-length context. arXiv preprint arXiv:1901.02860, 2019.
Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. Bert: Pretraining of deep bidirectional transformers for language understanding. arXiv preprint arXiv:1810.04805, 2018.
Youcef Djeriri. Les Réseaux de Neurones Artificiels. 09 2017.
Moussa Kamal Eddine, Antoine J-P Tixier, and Michalis Vazirgiannis. Barthez:
a skilled pretrained french sequence-to-sequence model. arXiv preprint arXiv:2010.12321, 2020.
Günes Erkan and Dragomir R Radev. Lexrank: Graph-based lexical centrality as salience in text summarization. Journal of artificial intelligence research, 22:457–479, 2004.
Thushan Ganegedara. Natural Language Processing with TensorFlow: Teach language to machines using Python’s deep learning library. Packt Publishing Ltd, 2018.
A. Géron. Deep Learning avec Keras et TensorFlow: Mise en oeuvre et cas concrets. Dunod, 2020.
M. Hagiwara. Real-World Natural Language Processing: Practical Applications with Deep Learning. Manning, 2021.
Patrick Hairy. Les réseaux de neurones récurrents pour les séries temporelles, Septembre 2021.
Nitin Indurkhya and Fred J Damerau. Handbook of natural language processing.
Chapman and Hall/CRC, 2010.
D. Jurafsky and J.H. Martin. Speech and Language Processing. Always learning.
Pearson, 2014.
SYNTHESE AUTOMATIQUE DES TEXTES
Min-Yen Kan, Kathleen R. McKeown, and Judith L. Klavans. Applying natural language generation to indicative summarization. CoRR, cs.CL/0107019, 2001.
Akshay Kulkarni and Adarsha Shivananda. Natural language processing recipes. Springer, 2019.
S. Lamsiyah, S. Ouatik El Alaoui, and B Espinasse. Résumé automatique guidé de textes: Etat de l’art et perspectives (guided summarization : State-of-the-art and perspectives ). In Actes de la Conférence TALN. Volume 2 - Démonstrations, articles des Rencontres Jeunes Chercheurs, ateliers DeFT, pages 55–72, Rennes, France, 5 2018. ATALA.
Zhenzhong Lan, Mingda Chen, Sebastian Goodman, Kevin Gimpel, Piyush Sharma, and Radu Soricut. Albert: A lite bert for self-supervised learning of language representations. arXiv preprint arXiv:1909.11942, 2019.
Mike Lewis, Yinhan Liu, Naman Goyal, Marjan Ghazvininejad, Abdelrahman Mohamed, Omer Levy, Ves Stoyanov, and Luke Zettlemoyer. Bart: Denoising sequence-to-sequence pre-training for natural language generation, translation, and comprehension. arXiv preprint arXiv:1910.13461, 2019.
Chin-Yew Lin. Training a selection function for extraction. In CIKM ’99, 1999.
Yinhan Liu, Jiatao Gu, Naman Goyal, Xian Li, Sergey Edunov, Marjan Ghazvininejad, Mike Lewis, and Luke Zettlemoyer. Multilingual denoising pre-training for neural machine translation. Transactions of the Association for Computational Linguistics, 8:726–742, 2020.
Yinhan Liu, Myle Ott, Naman Goyal, Jingfei Du, Mandar Joshi, Danqi Chen, Omer Levy, Mike Lewis, Luke Zettlemoyer, and Veselin Stoyanov. Roberta: A robustly optimized bert pretraining approach. arXiv preprint arXiv:1907.11692, 2019.
H. P. Luhn. The automatic creation of literature abstracts. IBM Journal of Research and Development, 2(2):159–165, 1958.
Minh-Thang Luong, Hieu Pham, and Christopher D Manning. Effective approaches to attention-based neural machine translation. arXiv preprint arXiv:1508.04025, 2015.
Mohamed Hedi Maaloul. Approche hybride pour le résumé automatique de textes. Application à la langue arabe. Theses, Université de Provence - Aix-Marseille I, December 2012. Date Soutenance 18-12-2012.
Inderjeet Mani. Automatic summarization, volume 3. John Benjamins Publishing, 2001.
Rada Mihalcea and Paul Tarau. Textrank: Bringing order into text. In Proceedings of the 2004 conference on empirical methods in natural language processing, pages 404– 411, 2004.
Tomas Mikolov, Kai Chen, Greg Corrado, and Jeffrey Dean. Efficient estimation of word representations in vector space. arXiv preprint arXiv:1301.3781, 2013.
Tomas Mikolov, Ilya Sutskever, Kai Chen, Greg S Corrado, and Jeff Dean. Distributed representations of words and phrases and their compositionality. Advances in neural information processing systems, 26, 2013.
Maali Mnasri. Résumé automatique multi-document dynamique. Theses, Université Paris-Saclay, September 2018.
Marie-Francine Moens. Automatic indexing and abstracting of document texts. Computational Linguistics, 27(1):149–149, 2001.
Ani Nenkova and Rebecca Passonneau. Evaluating content selection in summarization: The pyramid method. In HLT-NAACL 2004 - Human Language Technology Conference of the North American Chapter of the Association for Computational Linguistics, Proceedings of the Main Conference, HLT-NAACL 2004 Human Language Technology Conference of the North American Chapter of the Association for Computational Linguistics, Proceedings of the Main Conference, pages 145–152. Association for Computational Linguistics (ACL), 2004.
SYNTHESE AUTOMATIQUE DES TEXTES
Jeffrey Pennington, Richard Socher, and Christopher D Manning. Glove: Global vectors for word representation. In Proceedings of the 2014 conference on empirical methods in natural language processing (EMNLP), pages 1532–1543, 2014.
Alec Radford, Karthik Narasimhan, Tim Salimans, Ilya Sutskever, et al. Improving language understanding by generative pre-training. 2018.
Alec Radford, Jeffrey Wu, Rewon Child, David Luan, Dario Amodei, Ilya Sutskever, et al. Language models are unsupervised multitask learners. OpenAI blog, 1(8):9, 2019.
Colin Raffel, Noam Shazeer, Adam Roberts, Katherine Lee, Sharan Narang, Michael Matena, Yanqi Zhou, Wei Li, Peter J Liu, et al. Exploring the limits of transfer learning with a unified text-to-text transformer. J. Mach. Learn. Res., 21(140):1–67, 2020.
Victor Sanh, Lysandre Debut, Julien Chaumond, and Thomas Wolf. Distilbert, a distilled version of bert: smaller, faster, cheaper and lighter. arXiv preprint arXiv:1910.01108, 2019.
D. Sarkar. Text Analytics with Python: A Practitioner’s Guide to Natural Language Processing. Apress, 2019.
Barry Schiffman, Ani Nenkova, and Kathleen McKeown. Experiments in multidocument summarization. In Proceedings of the Second International Conference on Human Language Technology Research, HLT ’02, page 52–58, San Francisco, CA, USA, 2002. Morgan Kaufmann Publishers Inc.
S. Srivastava. Natural Language Processing with Python: Hands-On Labs to Apply Deep Learning Architectures to NLP Applications. Independently Published, 2021.
Brahim Tlili. Identification et commande des systèmes non linéaires : Utilisation des modèles de type NARMA. Theses, Ecole Nationale d’Ingénieurs de Tunis, July 2008.
Juan-Manuel Torres-Moreno. Automatic text summarization. John Wiley & Sons, 2014.
Lewis Tunstall, Leandro von Werra, and Thomas Wolf. Natural language processing with transformers. " O’Reilly Media, Inc.", 2022.
Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, Łukasz Kaiser, and Illia Polosukhin. Attention is all you need. Advances in neural information processing systems, 30, 2017.
Lilian Weng. Les réseaux de neurones récurrents pour les séries temporelles, Avril 2020.
Thomas Wolf, Lysandre Debut, Victor Sanh, Julien Chaumond, Clement Delangue, Anthony Moi, Pierric Cistac, Tim Rault, Rémi Louf, Morgan Funtowicz, et al. Transformers: State-of-the-art natural language processing. In Proceedings of the 2020 conference on empirical methods in natural language processing: system demonstrations, pages 38–45, 2020.
Linting Xue, Noah Constant, Adam Roberts, Mihir Kale, Rami Al-Rfou, Aditya Siddhant, Aditya Barua, and Colin Raffel. mt5: A massively multilingual pre-trained text-to-text transformer. arXiv preprint arXiv:2010.11934, 2020.
Jingqing Zhang, Yao Zhao, Mohammad Saleh, and Peter Liu. Pegasus: Pretraining with extracted gap-sentences for abstractive summarization. In International Conference on Machine Learning, pages 11328–11339. PMLR, 2020.
Jan Žižka, František Dařena, and Arnošt Svoboda. Text mining with machine learning:
principles and techniques. CRC Press, 2019.
Annexes
68 |
A aimer le bien, à ne pas être séduit par le mal, à faire ce qu'on doit faire et à se garder de ce qu'il faut éviter. | Nous voulons que tous les êtres humains, ensemble ou pris isolément, jeunes ou vieux, riches ou pauvres, nobles ou roturiers, hommes ou femmes, puissent pleinement s'instruire et devenir des êtres achevés. Nous voulons qu'ils soient instruits parfaitement et formés non seulement sur tel ou tel point, mais également sur tout ce qui permet à l'homme de réaliser intégralement son essence. D'apprendre à connaître la vérité, à ne pas être trompé par des faux semblants. A aimer le bien, à ne pas être séduit par le mal, à faire ce qu'on doit faire et à se garder de ce qu'il faut éviter. A parler sagement de tout, avec tout le monde. Enfin, à toujours traiter les choses, les hommes et Dieu avec prudence et non à la légère. Et à ne jamais s'écarter de son but, le bonheur. Le Galilée de l'éducation comme on le surnommait s'est posé une question à la fois très simple et très révolutionnaire. Il s'était demandé en effet : 'Comment faire en sorte que tous les hommes accèdent à tout le savoir disponible ?'Comment offrir à tous un panorama complet de ce que les hommes savent ? C'est de l'ignorance, et de l'ignorance seule que l'homme doit se libérer. C'est de l'ignorance, et de l'ignorance seule que l'homme doit se libérer. |
Mahatma Gandhi était un homme d'action. | Les exemples ne manquent pas : la marche du sel, le rouet, le satyagraha, la destruction des vêtement de style européen, la libération des femmes et des intouchables… Il entraînai des millions de personnes dans son action. Gandhi ne se déplaçait pas en «papamobile» à l’épreuve des balles, il n’avait comme garde du corps que deux jeunes cousines frêles et délicates et il ne portait que des sandales et un châle de coton qu’il avait filé et tissé lui-même. Il ne parlait pas ex cathedra, ne publiait pas de bulles, ni d’encycliques ni de décrets. Il ne prêchait pas - il agissait Il faisait ce qu’il croyait devoir faire et les foules le suivaient par milliers… par millions… par centaines de millions. |
Lev Davidovich Landau, Fuz/russe né en 1908, prix Nobel en 1962, est l'un des plus grands physiciens du XXe siècle. Le fameux amortissement Landau de Landau suggère une stabilisation spontanée des plasmas, un retour à l'équilibre sans augmentation d'entropie. L'astrophysicien Lynden-Bell a baptisé ce phénomène relaxation violente. Ghys : La « relaxation violente » est comme l'amortissement de Landau, mais la relaxation violente dans un régime fortement non linéaire. Ghys dit que l'analyse de Fourier est utilisée pour tout : pour analyser des sons et les graver sur un CD, mais aussi pour analyser des images et les transmettre sur Internet, ou pour analyser les variations du niveau de la mer et prévoir les marées. Dans la version jointe j'ai supprimé la section 5 buguée (on peut toujours la récupérer si besoin) A la place j'ai mis des calculs sur la composition, en utilisant toujours les mêmes variantes analytiques, qui cette fois semblent fonctionner comme un rêve en ce qui concerne la composition. A suivre, Cédric. Cédric Bourgoin-Jallieu a écrit une théorie de la courbure de Ricci bornée dans les espaces métriques mesurés. L'Institute for Advanced Study est l'endroit où Einstein a passé les vingt dernières années de sa vie. La médaille Fields est la récompense suprême des mathématiciens dans la force de l'âge. Le climat en Europe devient insupportable pour les chercheurs de juz/s et leurs amis, ce qui aide le centre de gravité de la science mondiale. Au JAS, les chercheurs permanents recevront un salaire plus que confortable, et n'auront aucune obligation d'enseigner. "Comment ai-je pu imaginer que c'était si difficile, je n'ai jamais vu ça !" Le paradoxe de Schef/er-Shnirelman prouve qu'une telle monstruosité est possible, du moins dans le monde mathématique. L'équation d'Euler est considérée comme l'une des plus perfides de toutes. Cela fait plus de 250 ans que l'équation d'Euler est née. Version 20 toujours en cours avec le théorème complet stratifié à deux décalages. Il y a maintenant un problème fondamental par rapport au théorème 5.9 : b ne peut pas tendre vers 0 pendant le schéma de Nash-Moser dans ces résultats (comme demandé dans le théorème 9) De nombreuses pannes ont été identifiées et réparées, mais il reste encore tant à faire ! Depuis près de soixante ans, Joël met son énergie inépuisable au service de sa passion, travaillant sans relâche avec ses confrères mathématiciens et physiciens. Il a dix nouvelles versions de l'article, et la plus récente porte le numéro 36 et compte 130 pages. Le théorème 7.4 doit être remodelé, dit Clément Mouhet. Mouhet : "Il n'y a pas de place pour l'erreur. Ce putain de théorème" Mouhet dit qu'il prend une pause le soir pour réparer un trou dans le théorème de Landau. Le marin périt en septembre Et la rose, le même jour Vient se flétrir dans la chambre d'une fille en mal d'amour. Quand j'entends Gundula J anowitz chanter Gretchen am Spinnrade, je redeviens le jeune homme hospitalisé aux soins intensifs de l'hôpital Cochin. Le Cimetière Polka éructé par Tom Waits me renvoie à mon deuxième pneumothorax, dans un grand hôpital de Lyon, avec un colocataire grivois. Le petit René Simard, qui fait pleurer les mères québécoises et les filles japonaises avec son Oiseau cristallin et son époustouflant Ne pleure 1 Midori Iro No Yane. Cédric Villani : "On pense que c'est vrai mais on ne sait pas comment le prouver : c'est une conjecture" Clément Mouhot : "Les mathématiques sont démocratiques, et celui qui parviendra à confirmer ou infirmer cette conjecture sera salué en héros" Vladimir Voevodyski : "Mon état de grâce mathématique a duré tout le temps de mon séjour à Princeton" Voevyski parle de la résolution du problème d'amortissement de Landau. Il parle du fameux théorème des quatre couleurs, sa preuve controversée car rendue inhumaine par l'informatique. La nuit la température était idéale, et il n'y avait personne, pas besoin de maillot de bain... vraiment comme dans une baignoire ! Grâce à la vitesse anormale de l'avion, cela arrivera si vite ! Je commence à comprendre comment améliorer les choses, conformément à mon illumination d'Ann Arbor. Mais ça a l'air énorme ! Ai-je assez confiance pour en parler à la Providence, alors que c'est encore préliminaire ? Villani écrit à Johannes Sjostrand, rédacteur en chef d'Acta Mathematica. Villani : Nous sommes heureux de soumettre une nouvelle version de notre pa pet ; Sur amortissement Landau, /ou publication éventuelle. Villani spécule là-dessus, mais ce ne sera décidé que dans longtemps, le congrès est en août prochain. La conjecture de Poincaré est devenue l'énigme la plus célèbre de toute la géométrie, irriguant tout le XXe siècle. Le Clay Millennium Prize a suivi en 201 0) c) était la première fois que ce prix richement doté était décerné. Au cours des dernières décennies, cet exploit n'a pas d'équivalent, sauf peut-être la preuve d'Andrew Wiles du grand théorème de Fermat. Gabor est le découvreur de Gomboc, cette forme incroyable à l'existence de laquelle croyait Vladimir Arnold, Vladimir Arnold. Gabor : Notre pays fut à une époque le moins antisémite de cette partie du globe, les intellectuels juifs affluèrent et contribuèrent de manière décisive à la fortune intellectuelle de ce pays. Le livre a été imprimé par Normandie Roto Impression s.a s. pour le compte des Éditions Grasset en septembre 2012. De nombreuses exégèses sont disponibles, ainsi que plusieurs variantes subtilement différentes dues à l'auteur et à ses éditeurs. L'article a été complètement réécrit pour intégrer ces améliorations. | THÉORÈME VIVANT CÉDRIC VILLAN! THÉORÈME VIVANT Illustrations de Claude Gondard BERNARD GRASSET PARIS Portrait de Catherine Ribeiro : © APIS. Portrait de Gribouille:© photo de Jean-Pierre Leloir. «Le marin et la rose», paroles de Jean Huard/musique de Claude Pingault : © 1960, Les Éditions Transatlantiques. Extrait de l'Oiseau soleil in Des choses fragiles, Neil Gaiman, traduction de Michel Pagel:© Le Diable Vauvert, 2009. Photo de Bande : © Hervé Thouroude, prise dans l'Atelier d'Expérimentation Musicale de Patrice Moullet ISBN: 978-2-246-79882-8 Tous droits de traduction, de reproduction et d'adaptation réservés pour tous pays. ©Éditions Grasset & Fasquelle, 2012. On me demande souvent à quoi ressemble la vie d'un cher- cheur, d'un mathématicien, de quoi est fait notre quotidien, com- ment s'écrit notre œuvre. C'est à cette question que le présent ouvrage tente de répondre. Le récit suit la genèse d'une avancée mathématique, depuis le moment où l'on décide de se lancer dans l'aventure, jusqu'à ce- lui où l'article annonçant le nouveau résultat - le nouveau théo- rème - est accepté pour publication dans une revue internatio- nale. Entre ces deux instants, la quête des chercheurs, loin de suivre une trajectoire rectiligne, s'inscrit dans un long chemin tout en rebonds et en méandres, comme il arrive souvent dans la v1e. Mis à part quelques aménagements insignifiants liés aux be- soins de la présentation, tout dans le récit est conforme à la réa- lité, ou du moins tel que je l'ai ressenti. Quelques longs passages en anglais sont traduits à la fin de l'ouvrage. Merci à Olivier Nora pour avoir suscité ce projet à l'occasion d'une rencontre impromptue; merci à Claire pour ses relectures attentives et ses suggestions ; merci à Claude pour ses belles illus- trations; merci à Ariane Fas quelle et à l'équipe de Grasset pour la qualité de leur écoute et de leur travail éditorial ; merci enfin à Clément pour une collaboration inoubliable, sans laquelle le sujet de ce livre ne serait pas. Lecteurs et lectrices sont les bienvenus pour me faire part de leurs questions ou commentaires par voie électronique. Cédric Villani Paris, décembre 2011 CHAPITRE 1 Lyon) le 23 mars 2008 Un dimanche à 13 heures; le laboratoire serait désert, s'il n'y avait deux mathématiciens affairés. Un rendez-vous intime pour une séance de travail au calme, dans le bureau que j'occupe depuis huit ans au troisième étage de l'École normale supérieure de Lyon. Assis dans un fauteuil confortable, je tapote énergique- ment sur le large bureau, les doigts déployés telles les pattes d'une araignée, comme mon professeur de piano m'y a en- traîné jadis. À ma gauche, sur une table séparée, une station de travail informatique. À ma droite, une armoire contenant quelques centaines de livres qui parlent de mathématique et de physique. Derrière moi, soigneusement rangés sur de longues étagères, des milliers et des milliers de pages d'articles, photocopiés à une époque ancestrale où les re- vues scientifiques n'étaient pas encore électroniques ; et des reproductions de nombreux ouvrages de recherche, photocopillés à une époque où mon salaire ne me per- mettait pas d'étancher ma soif de livres. Il y a aussi un bon mètre linéaire de brouillons, méticuleusement archi- vés durant de longues années; et tout autant de notes ma- nuscrites, témoins d'innombrables heures passées à écou- ter des exposés de recherche. Sur le bureau devant moi, 9 Gaspard, mon ordinateur portable, baptisé en l'honneur de Gaspard Monge, le grand mathématicien révolutionnaire ; et une pile de feuilles couvertes de symboles mathéma- tiques, griffonnées aux huit coins du monde et rassemblées pour l'occasion. Mon complice, Clément Mouhot, regard pétillant et marqueur à la main, se tient près du grand tableau blanc qui occupe tout le mur en face de moi. -Alors explique, pourquoi tu m'as fait venir, c'est quoi ton projet? Tu n'as pas trop donné de détails dans ton mail. .. -Je me remets à mon vieux démon, évidemment c'est très ambitieux, c'est la régularité pour Boltzmann inhomo- gène. -Régularité conditionnelle? Tu veux dire, modulo des bornes de régularité minimales ? -Non, inconditionnelle. -Carrément ! Pas dans un cadre perturba tif? Tu crois qu'on est prêts ? -Oui, je m'y suis remis, j'ai à peu près bien avancé, j'ai des idées, mais là je suis bloqué. J'ai décomposé la difficulté avec plusieurs modèles réduits, mais même le plus simple m'échappe. Je croyais l'avoir avec un argument de principe de maximum, et là non, tout s'est écroulé. J'ai besoin d'en parler. -Vas-y, je t'écoute. Je parle longuement : le résultat que j'ai en tête, mes tentatives, les différents morceaux que je n'arrive pas à en- chaîner les uns aux autres, et le puzzle logique qui ne se met pas en place, l'équation de Boltzmann qui demeure rebelle. L'équation de Boltzmann, la plus belle équation du monde, comme je l'ai dit à un journaliste ! Je suis tombé dedans quand j'étais petit, c'est-à-dire pendant ma thèse, et j'en ai étudié tous les aspects. On trouve de tout dans l'équation de Boltzmann : la physique statistique, la flèche du temps, la mécanique des fluides, la théorie 10 des probabilités, la théorie de l'information, l'analyse de Fourier ... Certains disent que personne au monde ne connaît mieux que moi le monde mathématique engendré par cette équation. Il y a sept ans, j'ai initié Clément à cet univers mys- térieux, quand il a commencé sa thèse sous ma direction. Clément a appris avec avidité, il est certainement le seul à avoir lu tous mes travaux sur l'équation de Boltzmann ; maintenant il est un chercheur respecté, autonome, brillant et enthousiaste. Il y a sept ans je lui ai mis le pied à l'étrier, aujourd'hui c'est moi qui ai besoin de lui. Je suis sur un problème trop difficile, tout seul je n'y arriverai pas; au minimum il faut que je puisse raconter mes efforts à quelqu'un qui connaît la théorie sur le bout des doigts. -Supposons que les collisions rasantes sont bien pré- sentes, d'accord? un modèle sans eut-off. Alors l'équation se comporte comme une diffusion fractionnaire, dégénérée bien sûr, mais quand même une diffusion, et dès qu'on a des bornes sur la densité et la température, on peut se lan- cer dans un schéma itératif à la Moser, adapté pour tenir compte de la non-localité. -Schéma de Moser ? Hmmm... Attends, je vais prendre des notes. - Oui, un schéma façon Moser. La clé c'est que l' opé- rateur de Boltzmann ... cet opérateur c'est vrai qu'il est bili- néaire, il est non local, mais quand même, moralement il est sous forme divergence, c'est ça qui fait marcher le schéma de Moser. Tu fais un changement de fonction non linéaire, tu grimpes en puissance ... Et en fait il faut un peu plus que la température, il y a la matrice des moments d'ordre 2 qu'il faut contrôler. Mais quand même l'essentiel c'est la positi- vité. -Attends, pas si vite, pourquoi la température suffit pas? 11 J'explique longuement ; on discute, on conteste. Le tableau se retrouve inondé de symboles mathématiques, Clément veut en savoir plus sur la positivité. Comment montrer la positivité stricte sans borne de régularité? Est-ce possible? -C'est pas si choquant, quand tu y penses, les colli- sions produisent des bornes inférieures, le transport dans un domaine confinant aussi, ça va dans le bon sens ; les deux effets devraient se renforcer, à moins d'avoir vraiment pas de chance. Dans le temps Bernt avait essayé, il avait planté. Bon, il y en a un paquet qui ont essayé, sans succès, mais ça reste plausible. -T'es sûr que le transport va rendre positif sans régu- larité? Pourtant, sans collisions, tu transportes la valeur de la densité, ça ne devient pas plus positif ... -Oui mais quand on moyenne en vitesse ça renforce la positivité ... un peu comme les lemmes de moyennes ciné- tiques, mais là c'est pas de la régularité, c'est de la positivité. C'est vrai que personne l'a tellement étudié sous cet angle. Ça me rappelle ... tiens, il y a deux ans, à Princeton, un post- doc chinois m'a posé une question un peu dans ce genre. Tu prends une équation de transport, disons dans le tore, tu supposes zéro régularité, tu veux montrer que la densité spatiale devient strictement positive. Sans régularité ! Il sa- vait le faire pour le transport libre, ou pour un truc plus général en temps petit, mais en temps plus grand il était coincé ... À l'époque j'avais transmis sa question à d'autres) mais j'ai pas obtenu de réponse convaincante. -Alors attends, déjà, comment tu fais avec le bête transport libre ? Transport libre, c'est le jargon pour désigner un gaz idéal dans lequel les particules n'interagissent pas. Un mo- dèle tellement simplifié qu'il n'est guère réaliste, pourtant il est souvent riche d'enseignements. -Boh, avec la solution explicite, ça doit le faire, at- tends, on va essayer de retrouver. 12 Nous nous mettons à chercher, chacun de notre côté, pour retrouver le raisonnement qu'avait dû faire Dong Li. Ce n'est pas un résultat majeur, plutôt un petit exercice. Mais peut-être, comprendre la solution de ce petit exercice va nous mettre sur la voie pour résoudre la grande énigme. Et puis c'est comme un jeu ! Au bout de quelques minutes de griffonnage silencieux, c'est moi qui gagne. -Je crois que je l'ai. Je passe au tableau pour exposer la solution, comme dans une séance d'exercices corrigés. - On décompose la solution selon les répliques du tore ... on change de variables dans chaque morceau ... il y a un jacobien qui sort, tu utilises la régularité Lipschitz ... et finalement tu trouves une convergence en 1/t («un sur t »). C'est lent mais ça sonne bien. -Quoi, alors, t'as pas de régularisation ... la conver- gence est obtenue par moyenne ... moyenne ... Clément réfléchit à voix haute devant mon calcul. Sou- dain il s'illumine, tout excité, agitant l'index en direction du tableau: -Mais alors il faudrait voir si ça peut pas aider pour le damping Landau ! Je suis bluffé. Trois secondes de silence. Vague senti- ment de quelque chose d'important. Je demande des explications, Clément se trouble, s' af- faire, m'explique que cette preuve lui rappelle une discus- sion qu'il a eue il y a trois ans de cela avec un autre cher- cheur d'origine chinoise, Yan Guo, à Providence, sur la côte est des États-Unis. -Dans l'amortissement Landau on cherche une relaxa- tion pour une équation réversible ... -Oui oui, je sais, mais l'interaction ne joue pas de rôle ? On est pas sur du Vlasov, là, c'est juste le transport libre! 13 -Peut-être que l'interaction doit jouer un rôle, oui, et puis ... elle devrait être exponentielle, la convergence. Tu crois que 1/ t est optimal ? -Ça sonne bien, non ? -Mais si la régularité était plus forte? Ça serait pas mieux? -Hmrmrm. Je grogne. Mélange de doute et de concentration, d'in- térêt et de frustration. Après quelques instants de silence, regards fixes et lèvres serrées, l'échange reprend ... Pour passionnant qu'il soit, le mythique (et mystique?) amortissement Landau n'a rien à voir avec notre projet de recherche initial ; au bout de quelques minutes on passe à autre chose. La discussion continue longuement. De@ en aiguille, on voyage à travers les questions mathématiques. On prend des notes, on argu- mente, on s'indigne, on apprend, on prépare un plan d'at- taque. Quand on se sépare, l'amortissement Landau est tout de même sur la longue liste des devoirs à faire à la maison. L'équation de Boltzmann, découverte aux alentours de 1870, modélise l'évolution d'un gaz raréfi~ fait de milliards de milliards de particules, qui se cognent les unes contre les autres; on représente la distribu- tion statistique des positions et vitesses de ces particules par une /onction f ( t, x, v), qui au temps t indique la densité de particules dont la position est (environ) x et dont la vitesse est (environ) v. Ludwig Boltzmann découvrit la notion statistique d'en- tropie, ou désordre, d'un gaz : S = -j j f log f dx dv: 14 en utilisant son équation, il démontra qu'à partir d'un état initial fixé arbitrairement l'entropie ne pouvait qu' augmen- ter au cours du temps, jamais diminuer. En termes imagés, le gaz livré à lui-même devient, spontanément, de plus en plus désordonn~ et cette évolution est irréversible. Avec la croissance de l'entropie, Boltzmann retrouvait une loi découverte expérimentalement quelques décennies plus tôt et connue sous le nom de second principe de la thermodynamique; mais il y ajoutait plusieurs contri- butions conceptuelles exceptionnelles. D'abord il remplaçait une loi empirique, observée expérimentalement et érigée en principe, par une démonstration argumentée; ensuite il introduisait une interprétation mathématique, extraordinai- rement féconde, de la mystérieuse entropie; et enfin il récon- ciliait la physique microscopique -imprévisible, chaotique et réversible-avec une physique macroscopique prévisible et ir- réversible. Ces contributions valent à Boltzmann une place de choix au panthéon de la physique théorique, ainsi que l' atten- tion toujours renouvelée des philosophes et épistémologues. Boltzmann définit ensuite l'état d'équilibre d'un système statistique comme un état d'entropie maximale, fondant ainsi le champ immense de la physique statistique à l'équilibre : c'est l'état le plus désordonné qui est le plus naturel. Le jeune Boltzmann conquérant fit place peu à peu à un vieil homme tourment~ qui se suicida en 1906. Son traité de théorie des gaz, toujours d'actualité, apparaît avec le re- cul comme l'un des plus importants ouvrages scientifiques du dix-neuvième siècle. Mais ses prédictions, confirmées par l'ex- périence, sont toujours en attente d'une théorie mathéma- tique complète,· une des pièces manquantes dans le puzzle est l'étude de la régularité des solutions de l'équation de Boltzmann. Malgré ce mystère persistant, ou peut-être en par- tie grâce à luz: l'équation de Boltzmann est maintenant l'ob- jet d'une théorie florissante,· elle occupe une communauté 15 internationale de mathématiciens, physiciens et ingénieurs, qui se réunissent par centaines dans les colloques Rarefied Gas Dynamics et dans bien d'autres occasions. mubwig iSolh:mann CHAPITRE 2 Lyon, mars 2008 L'amortissement Landau ! Après notre rendez-vous de travail, des souvenirs confus me reviennent en tête : bribes de conversation, discussions inachevées ... Tous les physiciens spécialistes des plasmas sont familiers de l'amortissement Landau, mais pour les ma- thématiciens ce phénomène reste un mystère. En décembre 2006, je me trouvais à Oberwolfach, dans un institut légendaire perdu au cœur de la Forêt-Noire, une retraite où les mathématiciens vont et viennent dans un bal- let incessant pour parler des sujets les plus divers. Portes sans serrures, boissons en libre accès, petites caisses en bois où l'on dépose l'argent, gâteaux à profusion, tables aux- quelles les convives doivent s'asseoir à une place détermi- née par tirage au sort. Ce jour-là à Oberwolfach, le sort m'avait placé à la même table que Robert Glassey et Eric Caden, deux spé- cialistes américains de théorie mathématique des gaz. La veille j'avais fièrement présenté à l'ouverture du colloque une moisson de résultats nouveaux ; et le matin même, Eric nous avait servi un exposé enthousiaste et débordant d'idées, dont nous continuions à parler autour de la soupe fumante. Tout cela mis bout à bout faisait un peu trop pour Robert, qui se sentait vieux et dépassé et soupirait : « Time to retire » ... 17 Eric s'était récrié : pourquoi la retraite, alors qu'il n'y a jamais eu d'époque aussi excitante pour la théorie des gaz ! Et moi aussi je m'étais récrié : pourquoi la retraite, alors que nous avons tellement besoin de l'expérience acquise par Robert en trente-cinq ans de carrière ! -Robert, tell me about the mysterious Landau dam- ping effect, can you explain, is it for real ? Weird, strange étaient les mots qui étaient revenus dans la réponse de Robert. Oui, Maslov a travaillé dessus; oui, il y a le paradoxe de la réversibilité qui semble incompa- tible avec l'amortissement Landau; non, ce n'est pas clair. Eric avait suggéré que cet amortissement était une chimère sortie de l'imagination fertile des physiciens, sans espoir de formulation mathématique. Moi je n'en avais guère retiré d'informations, et j'avais archivé cette conversation dans un coin de mon cerveau. Maintenant nous sommes en 2008, je n'en sais pas plus qu'en 2006. Mais Clément, lui, a eu l'occasion d'en discuter longuement avec Yan Guo, le« petit frère» scientifique de Robert - ils ont eu le même directeur de thèse. Le fond du problème, disait Yan, c'est que Landau n'a pas travaillé sur le modèle originel, mais sur un modèle simplifié, linéarisé. Personne ne sait si ses travaux s'appliquent aussi au« vrai» modèle non linéaire. Yan est fasciné par ce problème, et il n'est pas le seul. Yan Guo 18 On pourrait s'y attaquer, Clément et moi? Pourquoi pas. Mais pour résoudre le problème, il faut d'abord sa- voir exactement quelle est la question! En recherche ma- thématique, identifier clairement l'objectif est un premier pas crucial, et délicat. Et quel que soit cet objectif, la seule chose dont nous sommes sûrs, c'est le point de départ : l'équation de Vlasov qui détermine, avec une excellente précision, les proprié- tés statistiques des plasmas. Le mathématicien, comme la pauvre Dame de Shalott des légendes arthuriennes, ne peut regarder le monde directement, mais seulement à travers son reflet, mathématique en l'occurrence. C'est donc dans le monde des idées mathématiques, régi par la seule logique, que nous devrons traquer Landau ... Ni Clément ni moi n'avons jamais travaillé sur cette équation. Mais les équations sont à tout le monde, et nous allons retrousser nos manches. Lev Davidovich Landau, fuz/ russe né en 1908, Prix Nobel en 1962, est l'un des plus grands physiciens du vingtième siècle. Persécuté par le régime soviétique, libéré de prison grâce au dévouement de ses collègues, il /ut aussi un tyran de la physique théorique de son époque, et l'auteur avec Ev geny Lz/shitz d'un cours magistral qui /ait encore référence. Ses contributions fondamentales sont présentes dans tous les ou- vrages de physique des plasmas : d'abord l'équation de Lan- dau, petite sœur de l'équation de Boltzmann que j'ai étudiée pendant des années au cours de ma thèse,· et puis le célèbre amortissement Landau, qui suggère une stabilisation sponta- née des plasmas, un retour vers l'équilibre sans augmentation d'entropie, à l'opposé des mécanismes qui régissent l'équation de Boltzmann. 19 Physique des gaz, physique de Boltzmann : l'entropie aug- mente, l'information se perci la flèche du temps est à l'œuvre, on oublie l'état initial/ peu à peu la distribution statistique s'approche d'un état d'entropie maximale, aussi désordonné que possible. Physique des plasmas, physique de Vlasov : l'entropie est constante, l'information se conserve, pas de /lèche du temps, on se souvient toujours de l'état initial/ pas d'augmentation du désordre et aucune raison de s'approcher de quoi que ce soit en particulier. Mais Landau a repris l'étude de Vlasov -ce Vlasov qu'il méprise et dont il n'hésite pas à affirmer que presque toutes les contributions sont fausses -et il a suggéré que les /orees électriques s'atténuent spontanément au cours du temps, sans qu'il y ait augmentation d'entropie ni frottements de quelque nature que ce soit. Une hérésie? Le calcul mathématique de Landau, complexe et ingé- nieux, a convaincu la communauté scientifique, qui a donné à ce phénomène le nom d'amortissement Landau. Non sans que des voix incrédules s'élèvent, bien sûr. Lev Larufau CHAPITRE 3 Lyon, le 2 avril2008 La table basse installée dans le couloir est couverte de brouillons, et le tableau noir est envahi de petits dessins. Par la grande baie vitrée on aperçoit une sorte de gigantesque araignée noire cubiste haute sur pattes, le fameux labora- toire lyonnais P4 où l'on fait des expériences sur les virus les plus dangereux du monde. Mon invité, Freddy Bouchet, range ses brouillons et les fourre dans sa sacoche. Pendant une bonne heure, on a dis- cuté de ses recherches, de simulations numériques sur les galaxies, et de la mystérieuse faculté qu'ont les étoiles de s'organiser spontanément dans des configurations stables. Freddy Bouchet Cette stabilisation n'est pas inscrite dans la loi de la gra- vitation universelle, découverte par Newton il y a 343 ans. Pourtant, quand on observe une nuée d'étoiles régies par 21 cette loi de la gravitation, il semble bien que l'ensemble se stabilise après un temps assez grand. On l'observe bien dans de nombreux calculs effectués sur des ordinateurs puissants ... Alors, à partir de la loi de la gravitation universelle, peut -on déduire cette propriété de stabilisation ? L'astrophysicien Lynden-Bell, qui y croyait dur comme... comme un astéroïde ferrique, baptisa ce phéno- mène relaxation violente. La belle oxymore ! -La relaxation violente, Cédric, c'est comme l' amor- tissement Landau. Sauf que l'amortissement Landau c'est en régime perturbatif, et la relaxation violente en régime fortement non linéaire. Fred dy a une double formation de mathématicien et de physicien, il a consacré une partie de sa vie à des problèmes comme celui-ci. Parmi les questions fondamentales qu'il a étudiées, il y en a une dont il est venu plus particulièrement m'entretenir aujourd'hui. -Cédric, tu vois, quand on modélise les galaxies, bien sûr on remplace les étoiles, petits points dans l'univers, par un fluide, comme un gaz d'étoiles. On passe du discret au continu. Mais quelle est l'amplitude de l'erreur commise lors de cette approximation? Comment est-ce que ça dé- pend du nombre d'étoiles ? Dans un gaz, il y a un mil- liard de milliards de particules, dans une galaxie il y en a seulement cent milliards. Est-ce que ça change beaucoup les choses? Mon interlocuteur a longuement discuté, questionné, montré des résultats, tracé des dessins, noté des références. On a évoqué le lien entre ses recherches et l'un de mes che- vaux de bataille, la théorie du transport optimal, fondée par Monge. L'échange a été profitable et Fred dy est satisfait. Pour ma part, je suis tout excité d'avoir vu l'amortissement Landau surgir à nouveau, quelques jours seulement après ma discussion avec Clément. 22 Pendant que Freddy prend congé et s'éloigne, mon voi- sin de bureau, qui jusque-là s'affairait en silence à classer des papiers, intervient. Ses longs cheveux gris, soigneuse- ment coupés au carré, lui donnent un air gentiment contes- tataire. -Cédric, tu sais, je voulais trop rien dire, mais les fi- gures, là, sur le tableau, je les connaissais. Conférencier plénier au dernier Congrès International des Mathématiciens, membre de l'Académie des sciences, souvent présenté - et sans doute à juste titre -comme « le meilleur conférencier du monde » en mathématique, Étienne Ghys est une institution à lui tout seul. Provincial militant, il s'est consacré depuis vingt ans à développer le laboratoire de mathématique de l'ENS Lyon, qu'il a contri- bué plus que tout autre à transformer en l'un des meilleurs centres de géométrie du monde. Aussi bougon que charis- matique, Étienne a toujours son mot à dire sur tous les su- jets. Étienne Ghys -Les figures qu'on a tracées avec Freddy, tu les connais? - Oui, celle-ci on la retrouve dans la théorie K.A.M. Et puis celle-ci aussi, je l'ai déjà vue ... -Tu as une bonne référence? - Oui, ben K.A.M. tu sais ça se trouve un peu partout : tu pars d'un système dynamique complètement intégrable, 23 quasi périodique, tu perturbes un peu, il y a un problème de petits diviseurs qui détruit certaines trajectoires sur le long terme, mais tu as quand même la stabilité en probabilité. - Oui, je connais, mais les figures ? -Attends, je vais te trouver un bon livre là-dessus. Mais il y a plein de figures qu'on trouve dans les livres de cosmologie, qu'on a l'habitude de voir en théorie des sys- tèmes dynamiques. Très intéressant. Je vais me renseigner. Est -ce que ça va m'aider à comprendre ce qui est caché derrière la stabilisa- tion? C'est ce que j'apprécie par-dessus tout, dans mon labo- ratoire si petit et si performant, la façon dont les sujets se mélangent dans les conversations, entre chercheurs d'hori- zons mathématiques divers, autour d'une machine à café ou dans les couloirs, sans craindre les barrières thématiques. Tant de nouvelles pistes à explorer ! Je n'ai pas la patience d'attendre qu'Étienne retrouve une référence pour moi dans sa vaste collection, alors je ré- cupère ce que je peux dans ma propre bibliothèque : un traité d' Alinhac et Gérard, sur la méthode de Nash-Moser. J'ai déjà potassé cet ouvrage il y a quelques années, et je sais que la méthode de Nash-Moser est l'un des piliers de la théorie de Kolmogorov-Arnold-Moser, dite K.A.M., dont a parlé Étienne. Je sais aussi que derrière Nash-Moser il y a l'extraordinaire schéma d'approximation de Newton, ce schéma qui converge avec une vitesse inimaginable, en exponentielle d'exponentielle, et que Kolmogorov a su ex- ploiter de manière si inventive ! Franchement je ne vois aucun lien entre toutes ces belles choses et mon problème d'amortissement Landau. Mais peut-être que l'intuition d'Étienne est la bonne? Trêve de rêvasseries, je fourre le livre dans mon sac à dos déjà si lourd, et je file pour retrouver mes enfants à la sortie de l'école. 24 À peine dans le métro, je sors un manga de la poche de ma veste, et pendant un court et précieux instant, le monde extérieur disparaît pour laisser place à un univers empli de chirurgiens surnaturellement habiles au visage rapiécé, de yakuzas endurcis donnant leur vie pour leurs petites @les aux grands yeux de biche, de monstres cruels se changeant soudain en héros tragiques, de petits garçons aux boucles blondes se transformant peu à peu en monstres cruels. Un monde sceptique et tendre, passionné et désabusé, sans pré- jugé ni manichéisme, qui dégouline d'émotion, frappe au cœur et fait perler les larmes aux yeux du lecteur prêt à jouer le jeu de l'ingénu. Station Hôtel de Ville, il est temps de sortir. Le temps du trajet, le conte a coulé dans mon cerveau et dans mes veines comme un petit torrent d'encre et de papier, je suis nettoyé de l'intérieur. Toutes les pensées mathématiques se sont aussi mises en mode pause. Mangas et mathématiques ne se mélangent pas. Peut -être plus tard, dans les rêves ? Et si Landau, après le terrible accident qui aurait dû lui coûter la vie, avait été opéré par Black Jack ? Sûr que le sulfureux chirurgien l'aurait pleinement ressuscité, et que Landau aurait pu re- prendre son œuvre de surhomme. Tiens, je n'ai plus repensé à la remarque d'Étienne et à cette histoire de théorie de Kolmogorov-Arnold-Moser. Kolmogorov et Landau ... quel rapport ? Alors que je pose le pied hors du métro, le mystère recommence à tourner dans mon cerveau. S'il y a un lien, je le trouverai. En fait, à cette époque je n'ai pas de moyen de deviner qu'il me faudra plus d'un an avant de le trouver, ce lien. Ni de comprendre l'ironie invraisemblable :la figure qui a fait réagir Étienne, qui lui a fait penser à Kolmogorov, c'était la figure qui illustrait une situation où le lien avec Kolmogorov est brisé. Ce jour-là, Étienne a eu une bonne intuition, pour une mauvaise raison. Un peu comme si Darwin avait deviné 25 l'évolution des espèces en comparant les chauves-souris et les ptérodactyles, convaincu à tort d'un lien étroit entre les deux. Dix jours après le tour inattendu pris par ma séance de travail avec Clément, c'est la deuxième coïncidence miracu- leuse qui surgit fort à propos sur mon chemin. Encore faut -ill' exploiter. « Ce physicien russe, comment s'appelle-t-il? On l'a re- levé mort après un accident de voiture comme moi. Il était médicalement mort. J'ai lu le récit de ce cas extraordinaire. La science soviétique a mobilisé toutes ses ressources pour sauver un chercheur irremplaçable. On a même /ait appel à des mé- decins étrangers. On a ranimé ce mort. Pendant des semaines les plus grands chirurgiens du monde se sont relayés à son chevet. Quatre fois l'homme est mort. Quatre /ois on lui a insufflé une vie artificielle, j'ai oublié les détails mais je me souviens que la lecture était fascinante de cette lutte contre une inadmissible fatalité. Sa tombe était ouverte, on l'en a ar- raché de force. Il a repris son poste à l'université de Moscou.» Paul Guimard, Les Choses de la vie La loi de la gravitation universelle de Newton énonce que deux corps quelconques s'attirent avec une force proportion- nelle au produit de leurs masses, et inversement proportion- nelle au carré de leur éloignement : F = Q M1 M2 r2 . Cette loi de gravitation classique rend bien compte du mouvement des étoiles dans les galaxies. Mais même si la loi de Newton est simple, le nombre immense d'étoiles dans une galaxie rend la théorie difficile. Après tout, ce n'est pas parce 26 que r on comprend le fonctionnement de chaque atome pris séparément que r on comprend le fonctionnement d'un être humain ... Quelques années après la loi de la gravitation, Newton faisait une autre découverte extraordinaire : le schéma d' ap- proximation de Newton, qui permet de calculer les solutions d'une équation quelconque F(x) =O. Partant d'une solution approchée x 0 , on remplace la fonc- tion F par sa tangente Txo au point (x 0 , F(x 0 )) (en termes techniques, on linéarise l'équation autour de x 0 ) et on résout l'équation approchée Tx 0 (x) = O. Cela donne une nouvelle solution approchée XIJ et on peut recommencer : on remplace F par sa tangente Tx 1 en x 1 } on définit x2 comme la solution de Tx 1 ( x 2 ) = 0, et ainsi de suite. En notation mathématique précise, la relation qui lie Xn à Xn+l est Les approximations successives x 1 , x 2 , x 3 , ... ainsi obte- nues sont incroyablement bonnes : elles s'approchent de la «vraie» solution avec une rapidité phénoménale. Il su/fit souvent de quatre ou cinq essais pour obtenir une précision supérieure à celle de n'importe quelle calculatrice moderne. Les Babyloniens, dit-on, utilisaient déjà cette méthode pour extraire les racines carrées il y a quatre mille ans/ Newton 27 découvrit que ce procédé s'appliquait à des équations quel- conques, pas seulement au calcul des racines carrées. Bien plus tarci la convergence surnaturellement rapide du schéma de Newton a été utilisée pour démontrer certains des résultats théoriques les plus marquants du vingtième siècle: le théorème de stabilité de Kolmogorov, le théorème de plonge- ment isométrique de Nash ... À lui seu~ ce schéma diabolique transcende la distinction artificielle entre mathématique pure et mathématique appliquée. Le mathématicien russe Andreï Kolmogorov est une fi- gure de légende dans l'histoire des sciences du vingtième siècle. C'est lui qui/onde la théorie moderne des probabilités, dans les années 19 30. Sa théorie de la turbulence des fluides, élaborée en 194 t /ait toujours référence, que ce soit pour la corroborer ou pour l'attaquer. Sa théorie de la complexité pré- figure le développement de l'intelligence artificielle. En 1954, au Congrès International des Mathématiciens, il propose un énoncé stupéfiant. Alors que Poincaré a convaincu ses pairs, voici 70 ans déjà, que le système solaire pré- sente une instabilité intrinsèque -qu'une incertitude sur la position des planètes, si minime soit-elle, rend impossible toute prédiction de la position de ces planètes dans un futur lointain -, Kolmogorov argumente, en mariant avec une au- dace stupéfiante les probabilités et les équations déterministes 28 de la mécanique, que le système solaire est probablement stable. Le théorème de Kolmogorov montre que si l'on part d'un système mécanique exactement soluble (le système solaire tel que l'imaginait Kepler; avec des planètes tournant sagement et pour toujours autour du Solei~ selon des orbites elliptiques immuables) et qu'on le perturbe un tout petit peu (en te- nant compte des forces d'attraction gravitationnelles entre planètes, que Kepler négligeait), alors le système ainsi obtenu reste stable pour la grande majorité des conditions initiales. Le style elliptique de Kolmogorov et la complexité de son argument /ont douter ses contemporains. Avec des ap- proches différentes, le Russe Vladimir Arnold et le Suisse Jürgen Moser parviennent à reconstituer des preuves com- plètes, le premier de l'énoncé originel de Kolmogorov, le second d'une variante plus générale. C'est la naissance de la théorie K.A.M., qui a donné naissance à quelques-unes des plus puissantes et surprenantes pages de la mécanique classique. .!iltufreï l)(p[mogorov La beauté singulière de cette théorie a emporté l'adhésion des scientifiques, et pendant trois décennies on croira à un sys- tème solaire stable, même si les conditions techniques exigées par la théorie de Kolmogorov ne sont pas exactement rem- plies dans la réalité. Il faudra attendre les travaux de Jacques Laskar à la fin des années 1980 pour que l'opinion se retourne encore. Mais ceci est une autre histoire. CHAPITRE 4 Chaillo~ le 15 avri/2008 L'audience retient son souffle, le professeur donne le signal, et tous les enfants font danser leur archet sur les cordes. Méthode Suzuki oblige, les parents assistent à la le- çon collective. De toute façon, dans ce grand chalet entiè- rement occupé par le stage de musique, que faire d'autre ? Les parents répriment les grimaces quand les notes se font trop grinçantes. Ceux qui ont accepté hier de se ridi- culiser en jouant des instruments de leurs enfants, pour le plus grand plaisir de ces derniers, savent combien il est dif- ficile de sortir un son juste de ces instruments diaboliques ! Et puis, aujourd'hui il y a une vraie belle ambiance de tra- vail dans la bonne humeur, les enfants sont heureux. Méthode Suzuki ou pas, ce qui compte par-dessus tout, c'est le don pédagogique du professeur, et celui qui en- seigne le violoncelle à mon fils est tout simplement extra- ordinaire. Assis dans les premiers rangs, je dévore Galactic Dyna- mics, le best-seller de Binney & Tremaine, avec l'enthou- siasme d'un petit enfant découvrant un nouveau monde. Je n'aurais pas cru que l'équation de Vlasov était si importante en astrophysique. Boltzmann est toujours la plus belle équa- tion du monde, mais Vlasov c'est pas si mal ! Non seulement l'équation de Vlasov gagne en prestige dans ma tête, mais également les étoiles gagnent en attrait. 31 Les galaxies spiralées, les amas globulaires, tout ça, je trou- vais assez joli, oui oui, pas mal... Mais maintenant que j'ai une clé mathématique pour y pénétrer c'est tout bonnement passionnant. Depuis notre séance de travail avec Clément, j'ai refait les calculs, je commence à avoir mes idées. Je marmonne. -Comprends pas, ils disent que l'amortissement Lan- dau c'est très différent du mélange des phases ... Mais moi je pense que c'est pareil, au fond. Hrmrmrm. Petit coup d'œil aux chères têtes blondes. Tout va bien. -Hmmm, il est pas mal ce calcul. Et c'est quoi cette note de bas de page... Ce qui compte dans l'équation li- néarisée ce n'est pas l'analyse spectrale, c'est la solution du problème de Cauchy. Ben oui. C'est du bon sens! J'ai tou- jours pensé ça. Alors comment ils font ça ... Hmmm. Trans- formée de Fourier. Décidément, cette bonne vieille analyse de Fourier, on n'a jamais rien fait de mieux. Transformée de Laplace, relation de dispersion ... J'apprends vite, je m'immerge, j'assimile, comme un en- fant qui s'imprégnerait d'une langue étrangère. J'apprends sans prétention, humblement, des notions de base que les physiciens connaissent depuis un demi-siècle. Et la nuit venue, assis en tailleur dans les combles, je me change les idées en dévorant le dernier recueil de nouvelles de Neil Gaiman, Fragile Things -tout chaud, pas encore traduit. C'est un devoir que nous avons de nous raconter des histoires les uns aux autres, dit Neil. Il a raison. His- toire d'une improvisation géniale à la contrebasse. Histoire d'une très vieille dame se remémorant ses amours passées. Histoire du phénix toujours ressuscité et toujours cuisiné comme un plat gourmand. Quand je vais me coucher, je reste éveillé un bon mo- ment. Impossible d'allumer la lumière : toute la famille dort dans une seule pièce. Alors mon cerveau bat la campagne. Les très vieilles galaxies fragiles improvisent une histoire à la Gaiman, le problème mathématique ressuscite encore et 32 toujours, pour être cuisiné par les chercheurs. Les étoiles poussent dans mon cerveau. Quel est le théorème que je voudrais démontrer, au juste ? (Crawcrustle)) said Jackie Newhouse) a/lame) (answer me truly. How long have you been eating the Phoeni>.: ?) (A little over ten thousand years)) said Zebediah. (Cive or take a /ew thousand. It's not hard) once you mast er the trick of it ). it)s just mastering the trick of it that's hard. But this is the best Phoenix r ve ever prepared. Or do I mean) ((This is the best r ve ev er cooked this Phoenix)) ?) (The years !) said Virginia Boote. (They are burning off you !) (They do thal') admitted Zebediah. (You)ve got to get used to the heat) though) be/ore you eat it. Otherwise you can just burn away.) (Why did I not remember this?) said Augustus TwoFea- thers McCay) through the bright /lames that surrounded him. (Why did I not remember that this was how my /ath er went) and his /ather be/ore him) that each of them went to Helio- polis to eat the Phoenix ? And why do I only remember it now ?) (Shall we burn away to nothing ?) asked Virginia) now incandescent. (Or shall we burn back to childhood and burn back to ghosts and angels and then come /orward again? It does not matter. Oh) Crusty) this is al! such fun!) Neil Gaiman) Fragile Things L analyse de Fourier consiste en l'étude des vibrations élé- mentaires des signaux. Supposons que l'on souhaite analyser un signal quelconque) une quantité qui varie à mesure que le temps passe : par exemple) le son est /ait de légères varia- tions de pression atmosphérique. Au lieu des) intéresser direc- tement aux variations complexes de ce signal) Joseph Faurie~; 33 scientifique et homme politique du début du dix-neuvième siècle, eut l'idée de le décomposer en une combinaison de si- gnaux élémentaires, dont chacun varie de manière très simple et répétitive : les sinusoïdes (et leurs frères jumeaux, les cosi- nusoïdes). Chaque sinusoïde est caractérisée par l'amplitude et la fré- quence de ses variations,· dans la décomposition de Fourie1; les amplitudes nous renseignent sur l'importance relative des fréquences correspondantes dans le signal étudié. Ainsi les sons qui nous entourent sont faits de la superpo- sition d'une multitude de fréquences. La vibration à 440 bat- tements par seconde est un la, qui sera perçu avec d'autant plus de puissance que son amplitude est forte. À 880 batte- ments par seconde, on entendra un la de l'octave au-dessus. Si l'on multiplie la fréquence par 3, on passera à la quinte, c'est-à-dire au mi,· et ainsi de suite. Mais en pratique les sons ne sont jamais purs, ils sont toujours faits de la concomitance de très nombreuses fréquences qui en déterminent le timbre,· pour préparer ma maîtrise, j'ai étudié tout cela dans un pas- sionnant cours intitulé« Musique et Mathématique». Et l'analyse de Fourier sert à tout : à analyser les sons et à les graver sur un CD, mais aussi à analyser les images et à les transmettre par Internet, ou à analyser les variations du niveau de la mer et à prédire les marées ... 34 Victor Hugo se moquait de Joseph Fourie1; «petit» pré- /et de l'Isère, pariant que sa gloire d'académicien et d'homme politique fanerait au soleil. Il lui opposait l'homme politique Charles Fourie1; « le grand Fourier», qui passerait à la posté- rité pour ses idées sociales. Je ne suis pas sûr que Charles Fourier a goûté le compli- ment. Les socialistes se méfiaient de Hugo, qui était certes le plus grand écrivain de son époque, mais avait aussi un lourd passé de girouette politique, tour à tour monarchiste, bona- partiste, orléaniste, légitimiste, avant que l'exil le rendît ré- publicain. Et ce qui est sû1; c'est que-avec tout le respect dû à l' écri- vain surdoué dont j'ai dévoré les œuvres quand j'étais enfant -l'influence de Joseph Fourier est maintenant bien plus im- portante que celle de Hugo lui-même; son «grand poème ma- thématique» (comme disait Lord Kelvin), enseigné dans tous les pays du monde, est utilisé chaque jour par des milliards d'humains qui ne s'en rendent même pas compte. * Brouillon du 19 avril2008 Pour obtenir des formules on va être amené à prendre des transformées dans les trois variables x, v et t. On notera fj(k) = J e- 2 i1rxkg(x) dx (k E zd) 9( k, 'f}) =Je - 2 i1rx·k e- 2 i1rv·~ g(x, v) dv dx (k E ::zd, 'f} E ~d). Enfin on notera (transformée de Laplace). Jusqu'à nouvel ordre on fixe k E zd. 35 En prenant la transformée de Fourier en x de l'équation de Vlasov on trouve 8f ---- at + 2i7r(v · k)f = 2i7r(kWp) · \lvfo(v). Par la formule de Duhamel on en déduit Î(t,k,v) = e-2i1r(v·k)th(k,v) + l e- 2 i"("·k}(t-r) 2i7rW(k)P(T, k) k · \l,Jo(v) dv. En intégrant en v on trouve P(t, k) = j Î(t, k, v) dv = J e- 2 in-(v·k)t Îi(k, v) dv + l2i1rW(k) x (! e- 2 in-(v·k)(t-r) k · \l ,Jo(v) dv) P( T, k) dT. (] usti/ication de r intégration en v à /aire ... mais on peut tou- jours supposer au départ que la donnée est en support compact en vitesses, puis approcher? ou tronquer. . .) Le premier terme du membre de droite n'est autre que h ( k' kt) (c'est la même astuce déjà utilisée pour r homogé- néisation du transport libre .. .). Sous des hypothèses faibles sur fo on peut écrire, pour tout sE lR, J e-2in-(,·k)s k . \l Jo( v) dv = +2i7rlkl2 s J e-2in-(" k)s Jo( v) dv = 2i7rlkl 2 sfo(ks ). Donc P(t, k) = i;(k, kt)-47r 2 W(k) [1kl 2 (t-T)]o(k(t-T) )P(T, k) dT. 36 Posons (] e ne suis pas sûr que ce soit une bonne idée de mettre le 47r à cet endroit .. .) Dans certains cas (comme Jo maxwellienne)) Po est positive). mais en général il n)y a pas de raison. On note que p 0 est à décroissance rapide si Jo E Mfoo,l (JRd) ). à dé- croissance exponentielle si Jo est analytique) etc. On obtient finalement (J(t, k) = Ji(k, kt)-W(k) l Po(k(t-T)) (J(T, k) lkl dT. En prenant la transformée de Laplace en À E JR on ob- tient) à condition que tout soit bien définz~ (.CP)(,\, k) = Lxo e>.' }.(k, kt) dt-W(k) x (loo e>.'Po(kt)lkl dt) (.C(J)(À, k); d) où ton tire loo e>.t }.(k, kt) dt (Cp)(À,k) = 0 __ (À), l+W(k)Z TkT où lei= 1. CHAPITRE 5 Ky ota) le 2 août 2008 Le bruissement assourdissant des cigales a cessé, mais dans la résidence étudiante internationale Shugaku-in, la chaleur étouffante continue jusqu'au cœur de la nuit. Pendant la journée j'ai conclu une série de cours des- tinés aux participants du colloque, des chercheurs et étu- diants venus d'une quinzaine de pays différents. Le cours a été bien accueilli. J'ai commencé à l'heure prévue -à une minute près - et j'ai fini à l'heure prévue -à une minute près. Dans ce pays il n'est pas question de prendre des li- bertés avec l'horaire, je me dois d'être aussi ponctuel que le ferry qui m'a amené à Hokkaido la semaine dernière. Le soir, de retour à la résidence, j'ai raconté à mes en- fants la suite des aventures de Korako, le petit corbeau ja- ponais qui se trouve un jour abandonné par ses parents et part pour un long périple à travers la France et l'Égypte, dans des cirques et des marchés arabes, à la recherche d'un code secret, aux côtés de son très jeune maître Arthur. Une histoire à rallonges, improvisée, une« histoire imaginaire», comme dit ma fille, c'est ce qu'elle préfère, et c'est aussi le plus palpitant pour le conteur. Maintenant les enfants dorment, et pour une fois je n'ai pas tardé à suivre leur bon exemple. Après l'histoire 39 imaginaire de mathématique que j'ai servie aux jeunes cher- cheurs en herbe, et l'histoire imaginaire de corbeaux que j'ai inventée pour mes enfants, j'ai bien gagné le droit de me raconter une histoire imaginaire à moi-même: mon cer- veau s'est lancé dans un rêve invraisemblable. L'histoire s'emballe et je me réveille en sursaut, il est un peu plus de 5 h 30. Passé la fraction de seconde bé- nie où l'on se demande sur quel continent on reprend ses esprits, j'entreprends de noter sur mon ordinateur les frag- ments qui restent du rêve, avant que les brumes mentales matinales ne les dispersent. La complexité et la confusion du rêve me mettent de bonne humeur, je les prends comme un signe de bonne santé de mon cerveau. Mes rêves ne sont pas aussi échevelés que ceux que David B. a représentés en bande dessinée, mais ils sont assez tortueux pour me rem- plir d'aise. Depuis quelques mois j'ai mis l'amortissement Landau en réserve. Je n'ai pas avancé dans une quelconque démons- tration, mais j'ai franchi un cap : maintenant je sais ce que je veux démontrer. Montrer qu) une solution de t équation de Vlasov non linéaire) périodique en espace) proche d) un équilibre stable) évolue spontanément vers un autre équilibre. C'est un énoncé abstrait mais bien ancré dans la réalité, dans une thématique d'une importance pratique et théo- rique considérable; un problème simple à énoncer mais probablement difficile à démontrer ; une question originale sur un modèle bien connu. Tout cela me plaît beaucoup : je garde le problème dans un coin de mon cerveau, je le reprendrai à la rentrée de septembre. Au-delà de la réponse à la question (vrai ou faux), j'es- père bien que la preuve sera riche d'enseignements! En ma- thématique, c'est comme dans un roman policier ou un épi- sode de Columba : le raisonnement par lequel le détective confond l'assassin est au moins aussi important que la solu- tion du mystère elle-même. 40 En attendant, je cultive d'autres amours : j'ajoute un appendice à un mémoire rédigé deux ans auparavant ; je progresse dans un travail qui mélange équations cinétiques et géométrie riemannienne. Entre les estimées de positivité locales pour des équations hypoelliptiques et l'équation de Fokker-Planck cinétique en géométrie riemannienne, j'ai de quoi occuper mes longues soirées japonaises. 41 OPTIMAL TRANSPORT AND GEOMETRY K yoto, 28 J uly - 1 August 2008 Cédric Villani ENS Lyon & Institut Universitaire de France &JSPS Plan of the course (5 chapters) • Basic theory • The Wasserstein space • Isoperimetric/Sobolev inequalities • Concentration of measure • Stability of a 4th order curvature condition Most of the time statements, sometimes elements of proof Gromov-Hausdorff stability of dual Kantorovich pb • (Xk, dk) ~ (X, d) via ék-isometries fk : Xk ---t X k---+oo • ck(x, y) = dk(x, y) 2 /2 on xk x xk • /-tk, vk E P(Xk) (fk)#l-tk -----t ft, (fk)#vk -----t v k---+oo k---+oo e 1/Jk : Xk ---t JR Ck-COnvex, 1/J~k(y) = infx[1/Jk(x) + ck(x, y)], achieving sup {/ '1/J~" dvk ~ j '1/Jk dJLk} 42 Then up to extr. 3 ak E JR s.t. ( 'l/Jk -ak) o f~ ~ 'l/J, k--+oo 1/J c-convex achieving sup {! 1/Jc dv-j 1/J dtt }· Moreover V x E X, lim sup fk (ack 'l/Jk(f~(x) )) C Bc'l/J(x ). k--+oo * Korako (extrait du synopsis écrit a posteriort) Quand vient le moment, Korako envoie une boule puante dans l' abrt~ encore un tour qu'il a gardé de ses années de cirque. L) odeur devient terrible et les gardiens se sentent ma~ et alors Ha mad et Tchitchoun s) occupent de remplir les bouches d'aération de sable. C) est t hallali : les fils arrachés, l'abri se détruit, Ha mad assomme tout le monde... (Longue description apocalyp- tique.) Le père d'Arthur est retrouv~ et également son com- pagnon d) infortune. On t avait enlevé pour le faire parler sur un document confidentiel : un papyrus ancien contenant un secret pour faire revivre les momies. Son collègue était égyp- tologue comme lut~ spécialiste d) hiéroglyphes. Les bandits sont tous prisonniers, on les emmène chez Le Fou, on leur explique qu) on va les tuer et les torturer s'ils n'avouent pas qui est leur chef Les interrogatoires s'en- chaînent. Korako est mal à l'aise en voyant la façon dont le père d'Arthur réagit. D'autant qu) il semble se sentir bien ict~ il connaît les lieux comme s'il y avait déjà vécu. Korako décide d'assister en cachette à un interrogatoire et en revient avec une grande surprise : Le Fou et le père d'Arthur se connais- saient déjà. Le lendemain il va voir Arthur et lui annonce l'inquiétante nouvelle. * 43 Rêve du 2 août 2008 (notes) Je fais partie à la fois d'un film historique et d'une fa- mille régnante. Dans le rêve une partie historique, en même temps film, en même temps je participe à l'histoire, plu- sieurs niveaux simultanés de narration. Mais vraiment le prince n'a pas de chance. On ne cesse de l'embêter. La foule, la presse, beaucoup de pression. Le roi = père de la princesse manigance, des histoires d'argent et de fils dis- simulé. Les libertés ne sont pas bien garanties. Je peste contre Le Monde en commentant leur première page. Ils ont encore fait des bêtises sur le plan politique. Mais un grand souci international est lié à l'augmentation du prix des matières premières, les pays nordiques, dont une part importante des revenus est liée au transport, souffrent, par- ticulièrement l'Islande ou le Groenland. En tout cas pas d'amélioration en vue. Je commente sur les possibilités d'al- ler par exemple à Paris ou en tout cas rencontrer des spor- tifs célèbres, ce sont eux les vraies célébrités. Je tape dans le dos des hologrammes représentant mes enfants ... Mais un suicide collectif est décidé. L'heure venue, je me de- mande si tout le monde est bien là. Pas Vincent Beffara, qui jouait le rôle d'un des enfants. Mais maintenant il ne correspond plus très bien au rôle, le tournage a duré long- temps et Vincent a grandi ; à la place on utilise deux fois le même acteur, pour la fin de son rôle il n'a pas grand- chose à dire, un enfant fait bien l'affaire. Je suis très ému, on va déclencher l'opération. Je contemple des tableaux et des affiches sur les murs, il est question de la persécution de certains ordres de religieuses il y a bien longtemps, elles se dénouaient les cheveux avant d'aller à la mort, et cela même pour deux ordres distincts, alors que selon les croyances seules celles qui relevaient d'un certain ordre mouraient dans le même statut, seules celles-ci auraient dû dénouer leurs cheveux. Il y a aussi un tableau appelé Éloge de la dis- sidence ou quelque chose comme ça. On y voit des sortes de monstres/policiers happer des manifestants qui étaient 44 aussi vaguement contestataires. Je fais un dernier bisou à Claire, nous sommes très émus. On approche de 5 h du ma- tin, toute la famille est réunie, il va falloir appeler un service du genre voirie, contrefaire une voix, expliquer qu'on a be- soin d'explosifs et qu'ils peuvent en envoyer ici; quand ils parleront de précautions ou quelque chose, on dira (en an- glais) :merci, je sors de l'asile psychiatrique (sous-entendu : je suis dangereux avec ces explosifs), le gars comprendra que c'est une blague et enverra tout, alors tout va explo- ser. Tout est prévu pour 5 h 30. Je me demande si je vais en fait continuer ma vie dans une réalité alternative, essayer une autre direction, ou renaître en bébé, me retrouver dans les limbes pendant des années avant que ma conscience ne ré-émerge ... Je suis assez anxieux. Réveil à 5 h 3 5 (heure réelle!) CHAPITRE 6 Et les jours et les nuits passèrent Lyon, automne 2008 en compagnie du Problème. Dans mon cinquième étage sans ascenseur, à mon bu- reau, dans mon lit ... Dans mon fauteuil, soir après soir, thé après thé après thé, explorant pistes et sous-pistes, notant méticuleusement tous les possibles, éliminant au fur et à mesure les voies sans lSSUe. Un jour d'octobre, une mathématicienne coréenne, an- cienne élève de Yan Guo, m'a envoyé un manuscrit sur l'amortissement Landau, pour possible publication dans une revue dont je suis éditeur : « On the existence of expo- nentially decreasing solutions of the nonlinear Landau dam- ping problem ». Un instant, j'ai cru qu'elle et son collaborateur avaient démontré le résultat qui me tient tant à cœur : ils construisent des solutions de l'équation de Vlasov qui re- laxent spontanément vers un équilibre ! J'ai aussitôt écrit à l'éditeur en chef que j'étais en conflit d'intérêts et ne pou- vais gérer ce manuscrit. Mais en y regardant de plus près, j'ai compris qu'ils étaient loin du compte : ils prouvaient seulement l'existence de certaines solutions amorties; or ce qu'il faudrait montrer, c'est que toutes le sont ! Si l'on sait seulement que certaines 47 solutions sont amorties, on ne sait jamais si l'on va tomber sur l'une d'entre elles ... et puis un article de deux Italiens, publié dix ans auparavant, démontrait un résultat déjà assez proche, ils ne semblent pas avoir connaissance de ce travail antérieur. Non, le Problème n'a pas été craqué. Cela aurait été dé- cevant, d'ailleurs, si cela avait été si simple ! Un article d'une trentaine de pages, de bon niveau, mais sans difficulté ma- jeure. Au fond de moi, je suis convaincu que la solution requiert des outils complètement nouveaux, et doit nous apporter aussi un regard neuf sur le problème. -Il me faut une nouvelle norme. Une norme, en jargon mathématique, c'est une règle que l'on se donne pour mesurer la taille d'une quantité qui nous intéresse. Si vous comparez la pluviométrie à Brest et à Bordeaux, faut-il comparer les précipitations maximales sur une journée, ou bien intégrer sur toute l'année ? Si l'on compare le maximum, c'est la norme du sup, répondant au doux nom de norme L 00 • Si l'on compare les quantités in- tégrées, c'est une autre norme, qui se fait appeler L 1 . Et il y en a tant d'autres. Pour prétendre au label de «norme», il faut vérifier cer- taines propriétés; par exemple, la norme d'une somme de deux termes doit être inférieure ou égale à la somme des normes de ces termes pris séparément. Mais cela laisse en- core tellement de choix. -Il me faut la bonne norme. Depuis plus d'un siècle que l'on a formalisé le concept de norme, les mathématiciens en ont inventé tant et tant. Le cours que j'enseigne en deuxième année de l'ENS Lyon en est plein. Normes de Lebesgue et de Sobolev, de Hilbert et de Lorentz, de Besov et de Holder, normes de Marcinkie- wicz et de Lizorkin. Normes LP, ws,p, H 8 , Lp,q' Bs,p,q' Ha, MP, ps,p,q' et que sais-je encore! 48 Mais cette fois-ci, aucune des normes que je connais ne semble faire l'affaire. Il faudra en sortir une nouvelle, l'ex- tirper d'un grand haut-de-forme mathématique. -La norme de mes rêves devra être à peu près stable par composition près de l'identité ... et s'accommoder de la @amentation propre à l'équation de Vlasov en temps grand. Gatt im Himmel, comment est-ce possible? J'ai essayé de prendre le sup avec poids, peut-être dois-je introduire un retard ... Avec Clément, on avait bien dit qu'il fallait garder la mémoire du temps écoulé, comparer avec la solution du transport libre, OK je veux bien, mais en quel sens je dois faire la corn paraison ? ? Un jour, en relisant le traité d' Alinhac-Gérard, j'ai re- marqué un exercice. Montrer qu'une certaine norme W est une norme d'algèbre. C'est-à-dire que la norme W du produit de deux termes est au plus égale au produit des normes W de ces termes pris séparément. Je connais cet exercice depuis longtemps, mais en le revoyant j'ai soup- çonné que cela pouvait être utile à mon Problème. -Mouais, mais il faudrait modifier l'évaluation en 0 en mettant un sup, ou une intégrale d'ailleurs, et puis ça ne va pas bien marcher dans la variable de position, il fau- drait une autre norme d'algèbre ... peut-être avec Fourier? ou alors ... Le 19 novembre, après un certain nombre d'essais in- fructueux, je pense avoir trouvé la norme. À cette époque, je noircis des brouillons tous les soirs et j'envoie les résultats à Clément au fur et à mesure. La machine est en marche. Cédurak go.' Soit D le disque unité dans C) et soit W ( D) t espace des /onctions holomorphes sur D satisfaisant à llfllw(D) = f IJ(n)I(O)I < +oo. n=O n. 49 Montrer que, si f E W ( D ), et si g est holomorphe près des valeurs prises par f sur D, alors g o f E W(D). In- dication: on remarquera que llhllw(D) ::; CsupzED(Ih(z)l + 1 h" ( z) 1), et que W ( D) est une algèbre,· puis on écrira f = !1 + !2, avec fs(z) = Ln>N J<~!(o) zn, N étant choisi assez grand pour que la série L~=o g<~,(o) f!l' soit bien définie et converge dans W(D). S. Alinhac & P Gérard, Opérateurs pseudo-différentiels et théorème de Nash-Moser (chapitre In exercice A.l.a) Date: Tue, 18 Nov 2008 10:13:41 +0100 From: Clement Mouhet <clement.mouhot@ceremade.dauphine.fr> To: Cedric Villani <Cedric.VILLANI@umpa.ens-lyon.fr> Subject: Re: Dimanche !HP Je viens de voir tes derniers emails, je vais lire en detail, je prends le jeton pour essayer d'integrer ca en un theoreme de stabilite pour la solution du transport avec petite perturbation analytique la suite bientot ! clement Date: Tue, 18 Nov 2008 16:23:17 +0100 From: Clement Mouhet <clement.mouhot@ceremade.dauphine.fr> To: Cedric Villani <Cedric.VILLANI@umpa.ens-lyon.fr> Subject: Re: Dimanche !HP Une vague remarque apres avoir regarde un papier de Tao (enfin le resume qu'il en donne sur son blog) sur la turbulence faible et Schrodinger cubique 2d defocusant. Sa definition de turbulence faible est : fuite de masse en variable de frequence asymptotiquement, et sa definition de turbulence forte est : fuite de masse en variable de frequence en temps fini. Voila la conjecture qu'il formule pour son equation : Conjecture.* (Weak turbulence) There exist smooth solutions u(t,x) to (1) such that 50 \lu(t)\I_{H-s({\Bbb T}-2)} goes to infinity as t \to \infty for any s > 1. A voir si on peut montrer ca aussi pour les solutions qu'on essaie de construire (pour le transport libre, les derivees en x explosent bien effectivement). Comme dans notre cas ils ont besoin de confinement par le tore apparemment pour pouvoir voir ce phenomene sans que la dispersion dans la variable reelle x l'emporte. Par contre un truc que je comprends pas c'est qu'il defend que ce phenomene est non-lineaire et qu'on ne l'observe pas dans les cas lineaires. Dans notre cas ca semble present deja au niveau lineaire ... a suivre, clement Date: Wed, 19 Nov 2008 00:21:40 +0100 From: Cedric Villani <Cedric.VILLANI@umpa.ens-lyon.fr> To: Clement Mouhet <clement.mouhot@ceremade.dauphine.fr> Subject: Re: Dimanche IHP Alors, voila pour aujourd'hui. J'ai mis quelques reflexions en plus dans le fichier Estimations, supprime la premiere section qui etait devenue plutot obsolete et regroupe diverses estimations qui etaient dispersees dans differents fichiers, de sorte que la tout se trouve en gros dans un seul fichier. Je crois qu'on n'est pas encore au clair sur la norme dans laquelle travailler -du fait que l'equation sur \rho dans le cas d'un champ homogene n'est integrale qu'en temps (!) on est force de travailler dans une norme fixee, qui doit donc etre _stable_ par l'action de la composition par \Dm. -Fourier semble s'imposer pour avoir la conversion de l'analytique en decroissance exponentielle. Je ne sais pas faire la convergence exponentielle directement sans Fourier, bien sur ca doit etre faisable. -du fait que le changement de variable est en (x,v) et que la transformee de Fourier de \rho est un Dirac en \eta, on a l'impression que c'est une norme analytique genre L-2 en k et L-1 en \eta dont on a besoin. -mais la composition ne va certainement jamais etre continue dans un espace de type L-1, donc c'est pas ca, il faut sans doute etre assez malin et probablement 51 commencer par "integrer" les \eta. Resterait une norme genre L-2 analytique dans la variable k. Conclusion il va nous falloir encore etre malins. A suivre, Cedric Date: Wed, 19 Nov 2008 00:38:53 +0100 From: Cedric VILLAN! <Cedric.VILLANI@umpa.ens-lyon.fr> To: Clement Mouhet <clement.mouhot@ceremade.dauphine.fr> Subject: Re: Dimanche !HP On 11/19/08, 00h21, Cedric Villani wrote : > Conclusion : il va nous falloir encore etre malins. Right now mon impression c'est que pour s'en sortir il nous faut ce theoreme de continuite de la composition par Omega pour la norme analytique L-2 en Fourier (sans perte de poids ... ) et en considerant \eta comme un parametre. Bon a demain :-) Date: Wed, 19 Nov 2008 10:07:14 +0100 From: Cedric VILLAN! <Cedric.VILLANI@umpa.ens-lyon.fr> To: Clement Mouhet <clement.mouhot@ceremade.dauphine.fr> Subject: Re: Dimanche !HP Apres une nuit de sommeil il est apparu que c'est IRREALISTE : l'action de la composition par Omega va FORCEMENT faire perdre un peu sur lambda (c'est deja le cas quand Omega= (1-epsilon) Id). Donc il va bien falloir s'en accommoder malgre les apparences. A suivre .... Cedric Date: Wed, 19 Nov 2008 13:18:40 +0100 From: Cedric Villani <Cedric.VILLANI@umpa.ens-lyon.fr> To: Clement Mouhet <cmouhot@ceremade.dauphine.fr> Subject: update Ci-joint le fichier mis a jour J'ai rajoute la sous-section 3.2 dans laquelle j'examine une objection de fond apparente liee a un truc dont on avait parle au telephone, le probleme de la perte d'espace fonctionnel due au changement de 52 variable. La conclusion c'est que ce n'est pas perdu, mais il faudra etre tres precis sur les estimations du changement de variable. Cedric Date: Wed, 19 Nov 2008 14:28:46 +0100 From: Cedric Villani <Cedric.VILLANI@umpa.ens-lyon.fr> To: Clement Mouhot <cmouhot@ceremade.dauphine.fr> Subject: update Nouveaux ajouts en fin de section 3.2. Maintenant ca a l'air de plutot bien se presenter. Date: Wed, 19 Nov 2008 18:06:37 +0100 From: Cedric VILLAN! <Cedric.VILLANI@umpa.ens-lyon.fr> To: Clement Mouhot <cmouhot@ceremade.dauphine.fr> Subject: Re: update Je crois que la section 5 actuelle est fausse ! ! Le probleme se situe apres l'endroit ou tu ecris "En repartissant les puissances et factoriels" : la ligne qui suit a l'air OK, mais dans la formule d'encore en dessous les indices ne collent plus (N_{k-i+1}/(k-i+1)! devrait donner N_k/k! et pas N_k/(k+1)!) En fait le resultat me paraissait beaucoup trop fort. Ca voudrait dire qu'en composant par une approximation de l'identite on garde le meme indice de norme analytique. Alors que je pense qu'on doit viser quelque chose comme \lf\circ G\1_\lambda \leq const. ou un truc dans ce style. A suivre, Cedric \lf\1_{\lambda \IG\1} \IG\1 Date: Wed, 19 Nov 2008 22:26:10 +0100 From: Cedric Villani <Cedric.VILLANI@umpa.ens-lyon.fr> To: Clement Mouhot <cmouhot@ceremade.dauphine.fr> Subject: good news Dans la version en attachement j'ai vire la section 5 buggee (on pourra toujours la recuperer en cas de 53 besoin) et a la place j'ai mis des calculs sur la composition, en utilisant toujours les memes variantes analytiques, qui cette fois semblent marcher comme dans un reve vis-a-vis de la composition (la formule que j'avais suggeree n'est pas la bonne, finalement c'est encore plus simple, mais bien le meme genre). A suivre, Cedric Date: Wed, 19 Nov 2008 23:28:56 +0100 From: Cedric Villani <Cedric.VILLANI@umpa.ens-lyon.fr> To: Clement Mouhet <cmouhot@ceremade.dauphine.fr> Subject: good news Nouvelle version ci-jointe. J'ai verifie que le calcul habituel peut se faire avec la norme suggeree par la regle de composition (section 5.1). C'est un tout petit peu plus complique mais ca a l'air de donner le meme genre de resultat. C'est tout pour aujourd'hui. Cedric CHAPITRE 7 Bourgoin-Jallieu) le 4 décembre 2008 Surgissant de la nuit, les phares m'éblouissent à la sortie du parking. Je m'approche, c'est ma troisième tentative. -Excusez-moi, vous allez à Lyon ? -Euh ... oui. -Est-ce que vous pourriez me ramener, s'il vous plaît? À cette heure-ci il n'y a plus de train ! La conductrice hésite une fraction de seconde, jette un coup d'œil à ses passagers et m'invite à monter à l'arrière du véhicule. Je prends place. -Merci infiniment ! -Vous étiez au concert, c'est ça? -Oui oui, c'était chouette, hein ? - Ouais, très bien. -Pour les vingt ans des Têtes Raides, quand même, je pouvais pas louper ça ! Mais je déteste conduire, alors je suis venu en train, en me disant que je trouverais bien un Lyonnais pour me ramener en stop. - Avec plaisir, pas de souci. Moi je conduisais mon fils, et puis lui, à côté de vous, c'est son ami. Bonsoir tout le monde ... -Le pogo était pas très dur, la salle était grande, on se marchait pas sur les pieds, c'était détendu. - Oui, les filles n'ont pas eu à se plaindre. -Oh, certaines aiment quand ça dépote! 55 Nostalgie de certaine charmante punkette piercée, dé- bordant d'énergie, que le hasard d'un pogo avait jeté dans mes bras lors d'un concert de Pigalle. -Elle est jolie votre araignée. - Oui, j'ai toujours une araignée, c'est mon style, je les fais faire sur mesure à Lyon. Atelier Libellule. -Vous êtes musicien? -Non! -Artiste? -Mathématicien ! -Quoi, mathématicien ? - Oui oui ... ça existe ! -Vous travaillez sur quoi ? -Hmmm, vous voulez vraiment savoir ? - Oui, pourquoi pas ? -Allez, on ne se moque pas ! Une respiration. -J'ai développé une notion synthétique de courbure de Ricci minorée dans les espaces métriques mesurés corn- plets et localement compacts. -Quoi!! -C'est des blagues? - Pas du tout. C'est un article qui a eu pas mal de re- tentissement dans la communauté. -Vous pouvez répéter? C'est trop bien! -Alors voilà, j'ai développé une théorie synthétique de minoration de la courbure de Ricci dans les espaces mé- triques mesurés séparables, complets et localement com- pacts. -Ouah! -Et à quoi ça sert ? La glace est brisée, c'est parti. J'explique longuement, je parle, je démystifie. La théorie de la relativité d'Einstein, et la courbure qui dévie les rayons lumineux. La courbure, pierre angulaire de la géométrie non euclidienne. Courbure positive, les rayons se rapprochent ; courbure négative, les 56 rayons s'écartent. La courbure, qui s'explique avec les mots de l'optique, peut aussi s'exprimer avec les mots de la phy- sique statistique : densité, entropie, désordre, énergie ciné- tique, énergie minimale ... c'est la découverte que j'ai faite avec quelques collaborateurs. Comment parler de courbure dans un espace piquant comme un hérisson ? Le problème du transport optimal, que l'on retrouve en ingénierie, en météorologie, en informatique, en géométrie. Mon livre de mille pages. Je parle, parle au fur et à mesure que les kilo- mètres défilent. -Ça y est, on entre dans Lyon. Où est-ce que je vous dépose? -J'habite dans le premier -le quartier des intel- lectuels! Mais laissez-moi où ça vous arrange, je me dé- brouillerai. -Pas de souci, on vous ramène chez vous, vous m'in- diquerez la route. -C'est super. Je vous dois combien, je peux participer au péage? -Non non, c'est pas la peine. -Merci, vous êtes adorable. -Avant de partir, vous pouvez m'écrire une formule mathématique ? 57 Deux figures extraites de Optimal transport, old and new, C. Villani, Springer-Verlag, 2008. geodesies are distorted location of the observer the light source how the observer thinks the light source looks like FIG. 7.1-The meaning of distortion coefficients: Because of positive curvature effects, the observer overestimates the surface of the light source; in a negatively curved world this would be the contrary. t = 1/2 S =-J plogp t=O t = 1 FIG. 7.2-The lazy gas experiment: Togo from state 0 to state 1, the lazy gas uses a path of least action. In a nonnegatively curved world, the trajectories of the particles first diverge, then converge, so that at intermediate times the gas can afford to have a lower density (higher entropy). CHAPITRE 8 Dans un village de la Drôme, le 25 décembre 2008 En famille pour les fêtes. J'ai bien avancé. Quatre fichiers informatiques, mis à jour simultanément au fur et à mesure que nous progressons, contiennent tout ce que nous avons compris sur l'amortissement Landau. Quatre fichiers que nous avons échangés, complétés, corri- gés, retravaillés, et parsemés de notes-NdCM pour les re- marques de Clément, NdCV pour les remarques de Cédric. Écrits dans le langage TEX de Knuth, notre maître à tous, ils se prêtent à merveille à nos manœuvres d'approche. Il y a quelque temps, nous nous sommes revus à Lyon, et Clément a pesté contre une inégalité que j'avais écrite dans un des fichiers : Il a juré qu'il ne comprenait vraiment pas comment je pou- vais dire une chose pareille, et j'ai bien dû admettre que mes mots avaient dépassé ma pensée. Il m'avait semblé qu'elle allait de soi, cette inégalité, mais à bien y réfléchir je ne sa- vais plus au nom de quoi je l'avais écrite, je ne voyais plus pourquoi elle m'était apparue comme une évidence. Maintenant je ne sais toujours pas pourquoi j'avais cru à cette inégalité, mais j'ai compris pourquoi elle est vraie ! C'est grâce à la formule de Faà di Bruno. 59 Il y a seize ans, à l'École normale supérieure de Paris, notre professeur de géométrie différentielle nous avait pré- senté cette formule qui donne les dérivées successives des fonctions composées ; elle était si compliquée que nous l'avions accueillie avec hilarité et qu'il avait dû s'excuser, avec un air piteux et un brin d' autodérision : «Ne riez pas, c'est très utile ! » Elle est effectivement utile cette formule, il avait raison : c'est grâce à elle que mon inégalité mystérieuse est vraie ! Cela dit, il fallait être patient. Je jure (devant Boltzmann, Knuth et Landau réunis) que durant seize ans elle ne m'a servi strictement à rien, la formule, à tel point que j'en avais oublié jusqu'au nom pourtant peu banal. Mais c'était resté dans un coin de mon cerveau : il y a une formule pour les dérivées des fonctions composées ... Avec Google et Wikipedia, il m'a suffi de quelques instants pour retrouver et le nom de la formule, et la formule elle- même. En tout cas, l'apparition de la formule de F aà di Bruno est symptomatique du tour combinatoire inattendu que prend notre travail ; mes brouillons, d'ordinaire couverts d'ouïes de violoncelles (des intégrales : J -j'en ai écrit tant que le mot vient à mon esprit automatiquement dès que je me concentre ! ) , mes brouillons sont cette fois-ci infes- tés d'exposants entre parenthèses (des dérivées multiples : f( 4 ) = J"") et de points d'exclamation (des factorielles : 16! = 1 x 2 x 3 x ... x 16). Au fond je suis dans l'air du temps : pendant que les enfants ouvrent leurs cadeaux de Noël avec excitation, je suspends des exposants aux fonctions comme des boules à des sapins, et j'aligne des factorielles comme autant de bougies renversées. Donald Knuth est le dieu vivant de tin/ormatique. «S'il entrait dans la salle pendant le colloque », disait un jour un a mt~ «tous les participants tomberaient à genoux devant lui». 60 Professeur à tU niversité Stan ford) Knuth a pris une re- traite anticipée et coupé son courrier électronique pour se consacrer à plein temps à la fin de son œuvre majeure) L'Art de la programmation) commencée il y a cinquante ans) dont les quelques volumes déjà parus ont révolutionné le sujet. 'Donaiâ 1(nutli En publiant ces merveilles) Knuth prit conscience de la piètre qualité graphique des formules mathématiques telles qu) elles étaient rendues par les logiciels disponibles dans le commerce; il se promit de guérir durablement le mal. Chan- ger d) éditeur ou de fontes ne lui suffisait pas) il décida de re- penser tout le processus à la racine. En 1989 il publia la pre- mière version stable du logiciel TEX) aujourd) hui le standard utilisé par tous les mathématiciens pour composer et échanger leurs travaux. Cette nouvelle strate d) universalité a pleinement joué son rôle quand les échanges mathématiques sont devenus massi- vement électroniques au début du vingt et unième siècle. Le langage de Knuth et ses dérivés sont des logiciels libres) dont le code est accessible à tous. Les mathématiciens n) échangent que le fichier source) fichier texte constitué uni- quement de caractères ASCII reconnus par tous les ordina- teurs du monde. Ce fichier contient) dans un langage sobre) toutes les instructions nécessaires pour reconstruire les textes et formules jusque dans les moindres détails. 61 Grâce à ce logicie~ Knuth est probablement la personne vivante qui a le plus changé le quotidien des mathématiciens. Knuth n'a cessé d'améliorer son produit, lui attribuant des numéros de versions qui sont des approximations de 1r, d'autant plus précises que le logiciel est plus abouti : après la version 3.14 vint la version 3.14t puis 3.1415, etc. La ver- sion courante est la version 3.1415926,· selon le testament de Knuth, elle passera à 1r le jour de sa mort, figeant ainsi TEX pour l'éternité. Formule de Faà di Bruno (Arbogast 1800, Faà di Bruno 1855) ... Ce qui en TEX s'écrit \[(f\circ H)~{(n)} = \sum_{\sum_{j=1}~n j\,m_j n} \frac{n!}{m_1!\ldots m_n!}\, \bigl(f~{(m_1 + \ldots + m_n)}\circ H\bigr)\, \prod_{j=1}~n\left(\frac{H~{(j)}}{j!}\right)~{m_j}\] Date: Thu, 25 Dec 2008 12:27:14 +0100 (MET) From: Cedric VILLANI <Cedric.VILLANI©umpa.ens-lyon.fr> To: Clement Mouhot <clement.mouhot@ceremade.dauphine.fr> Subject: Re: parties 1 et 2, proches de fin Et voila, pour Noel tu as droit aussi a la partie II. Ca se presente tres bien, finalement tout marche en gros du mieux que l'on pouvait esperer (sauf que la perte d'exposant a l'air d'etre au moins comme la racine cubique en la taille de la perturbation, mais il n'y a pas de raison qu'on ne puisse pas regagner ca par un schema iteratif a la Newton). Je te renvoie les deux fichiers : analytic et scattering, et pour 62 l'instant j'arrete d'y toucher. Il faudra les relire en grand detail, mais je pense que maintenant la priorite c'est de faire converger les parties 3 et 4 (edp et interpolation), je suggere que tu m'envoies edp des qu'il a l'air de tenir a peu pres debout meme s'il n'est pas bien degrossi ; comme ca on pourra bosser en parallele sur edp et sur interpolation. (Je me charge de la mise en anglais et en forme ... ) Et joyeux Noel! Cedric Date: Thu, 25 Dec 2008 16:48:04 +0100 From: Clement Mouhot <clement.mouhot@ceremade.dauphine.fr> To: Cedric VILLANI <Cedric.VILLANI@umpa.ens-lyon.fr> Subject: Re: parties 1 et 2, proches de fin Joyeux Noel et merci pour ces cadeaux;)!! Je travaille sur le fichier edp pour faire un theoreme complet en norme sup et mixte, j'ai bon espoir meme en norme mixte aussi en fait (pour le scattering c'est vraiment en norme d'apres ton dernier fichier donc ca semble necessaire). Pour le fichier d'interpolation, l'inegalite de Nash precisee dont on avait besoin est redigee (en francais) dans la version que je t'avais envoyee, dis-moi s'il faut y mettre d'autres choses ? La suite tres bientot Amicalement, Clement Date: Fri, 26 Dec 2008 17:10:26 +0100 From: Clement Mouhot <clement.mouhot@ceremade.dauphine.fr> To: Cedric Villani <Cedric.VILLANI@umpa.ens-lyon.fr> Subject: Re: parties 1 et 2, proches de fin Salut, Voici une version preliminaire, en anglais, du theoreme edp complet dans ta norme mixte. C'est a partir de la page 15 du fichier. Je te l'envoie deja pour donner une idee, meme s'il me reste des trucs a verifier sur les details de calculs et les indices ... , et la limitation en temps borne qui est bizarre pour le moment. En tout cas la norme mixte a l'air de se comporter pas mal du tout avec le raisonnement que je faisais sur les transferts de derivees avec les normes sans Fourier. J'ai mis au debut de la section 4 avec le theoreme en question des remarques sur pourquoi 63 ca me semble bien marcher. Par contre je travaille toujours avec une norme a quatre indices (meme si c'est bien une norme mixte selon ta definition) et pour le moment je ne vois pas bien comment passer a trois indices seulement en fait ... Je continue a y reflechir. Amicalement, Clement Date: Fri, 26 Dec 2008 20:24:12 +0100 From: Clement Mouhot <clement.mouhot@ceremade.dauphine.fr> To: Cedric Villani <Cedric.VILLANI@umpa.ens-lyon.fr> Subject: Re: parties 1 et 2, proches de fin Ce que j'appelais "limitation de temps borne" est le fait que la perte sur l'indice due au scattering etant lineaire en temps telle que je l'ai mise dans l'hypothese, ca donnait un temps borne pour pas avoir une perte plus grande qu'une certaine constante. Mais il me semble vu ton fichier "analytic" que l'hypothese doit pouvoir etre renforcee en quelque chose comme une perte $$ \varepsilon \, \min \{ 1, (t-s) \} $$ ce qui permet que cette perte reste petite pour $t$ grand et $s$ loin de $t$ ... a+, clement CHAPITRE 9 Princeton, le 1er janvier 2009 Dans la nuit noire, le conducteur du taxi est complète- ment paumé. Son GPS lui indique une direction évidem- ment absurde, tout droit dans les arbres. On tente un appel à son bon sens: on est déjà passé par ici, visiblement le GPS n'est pas à jour, il faut explorer les alentours. On dirait bien qu'on est perdus, et ce qui est sûr c'est qu'on va s'embourber si on suit les instructions de la machine! À l'arrière, les enfants ne s'affolent guère. L'une s'est endormie, fatiguée par le voyage en avion et le décalage ho- raire. L'autre observe en silence. Il n'a que huit ans mais il a déjà été à Taiwan, au Japon, en Italie, en Australie et en Californie, alors le taxi perdu au milieu de la forêt du New Jersey en pleine nuit, ce n'est pas ça qui va l'inquiéter, il sait que tout va s'arranger. On tourne en rond, on retrouve un peu de civilisation, et un être hun1ain à un arrêt de bus pour nous renseigner. Le GPS n'est pas le détenteur exclusif de la vérité topogra- phique. Enfin l'Institute for Advanced Study -lAS pour les intimes - se dévoile à nous. Si imposant, au beau milieu des bois, un petit air de château. Pour y parvenir, il fallait contourner le grand terrain de golf. 65 C'est ici qu'Einstein a passé les vingt dernières années de sa vie. Certes, à l'époque il n'était plus le fringant jeune homme de 1905 qui révolutionna la physique. Pourtant il a marqué ces lieux de sa présence plus que tout autre. Et puis il y a eu John von Neumann, Kurt Godel, Hermann Weyl, Robert Oppenheimer, Ernst Kantorowicz, John Nash, tous ces grands penseurs dont le seul nom fait frissonner. Actuellement ce sont Jean Bourgain, Enrico Bombieri, Freeman Dyson, Edward Witten, Vladimir Voevodsky, et bien d'autres ... Plus que Harvard, Berkeley, New York ou toute autre institution, l'lAS peut prétendre au titre de temple de la mathématique et de la physique théorique. Bien sûr, il n'y a pas autant de mathématiciens qu'à Paris, capitale mondiale de la mathématique ; mais à l'lAS on trouve le distillat, la crème de la crème. Membre perma- nent de l'lAS, c'est peut-être le poste le plus prestigieux du monde! Et puis juste à côté il y a l'Université de Princeton, avec Charles Fefferman, Andrei Okounkov, et tant d'autres. À Princeton, les médailles Fields sont d'une banalité, vous en avez parfois trois ou quatre autour de vous pour le dé jeu- ner! Sans parler d'Andrew Wiles, qui n'a pas eu la médaille Fields, mais dont la popularité a dépassé celle de n'im- porte quel autre mathématicien quand il a résolu la grande énigme laissée par Fermat, celle qui a attendu trois cent cin- quante ans son Prince Charmant. Bref, s'il existait des pa- parazzi spécialisés dans les grands mathématiciens, ils pour- raient planter leur caméra dans le réfectoire de l'lAS, et tous les jours avoir des images fraîches des people. De quoi faire rêver ... mais c'est pas tout ça, maintenant il s'agit de trouver les logements, l'appartement où nous al- lons passer six mois, et pour commencer, dormir! Qu'est-ce que je vais faire pendant six mois dans cette toute petite ville de Princeton ? 66 J'en ai, des choses à faire ! J'ai besoin de concentration. Je vais pouvoir me consacrer à temps plein à mes amours mathématiques ! D'abord il faut que je torde enfin le cou à cet amortis- sement Landau. J'ai bien avancé, le cadre fonctionnel est bien en place, allez, je me donne deux semaines pour le boucler ! Et puis après, je boucle un autre projet, celui avec Alessio et Ludovic, on va bien le trouver, ce fichu contre- exemple pour démontrer qu'en dimension 3 ou plus les do- maines d'injectivité d'une métrique riemannienne presque sphérique ne sont pas forcément convexes. On va le trouver et cela tuera la théorie de la régularité du transport optimal non euclidien ! Et après il me restera cinq mois, je les passerai sur mon grand rêve, la régularité pour Boltzmann! Pour cela j'ai amené des brouillons que j'ai griffonnés dans une dizaine de pays différents. Cinq mois, cela risque d'être insuffisant. Je voulais y consacrer deux ans, toute la fin de mon mandat à l'Institut universitaire de France, ce mandat pendant lequel je béné- ficie d'horaires d'enseignement réduits pour mener à bien de grands travaux de recherche. Mais j'ai été pris par tel et tel projet. Il y a eu mon second livre sur le transport optimal, commencé en janvier 2005. Initialement je comptais me limiter à 150 pages et rendre ma copie en juillet 2005 ; finalement ce sont 1 000 pages qui étaient prêtes en juin 2008. Plusieurs fois j'ai songé à y mettre un terme en cours de route, pour me remettre à Boltzmann. Mais j'ai préféré continuer. Au fond, je ne sais pas si j'ai eu le choix : c'est le livre qui a décidé, il ne pouvait en être autrement. Pour des histoires que /aime bien, /ai par/ois pris du re- tard. .. mais c'est rien. Mais voilà, maintenant, il ne me reste plus que dix- huit mois avec service d'enseignement réduit, et je n'ai pas encore entamé ce qui devait être mon Grand Projet sur 67 l'équation de Boltzmann. Alors, cette invitation à Prince- ton tombait à pic. Pas de livre, aucune charge administra- tive, aucun cours, je vais pouvoir faire de la mathématique en continu! Tout ce qu'on me demande, c'est de participer de temps à autre à des discussions et séminaires d'analyse géométrique -le thème à l'honneur cette année à l'Institute for Advanced Study. Au labo, ils n'ont pas tous apprécié. Ils m'auraient tous vu en directeur de labo à partir de janvier 2009, et c'est juste le moment que je choisis pour battre en retraite. Tant pis, il y a des moments où il faut être égoïste. Après tout j'ai travaillé pendant des années pour le développement de l'équipe de l'ENS Lyon, et une fois cette parenthèse prin- cetonienne refermée, j'accomplirai encore bien des tâches administratives pour l'intérêt général. Et puis il y a la Médaille ! La médaille Fields, celle que les prétendants osent à peine nommer, la MF. La récompense suprême pour les mathématiciens dans la force de l'âge, attribuée tous les quatre ans lors du Congrès International des Mathémati- ciens, à deux, trois ou quatre mathématiciens de moins de 40 ans. Certes, il y en a, des prix chics, en mathématique ! Le prix Abel, le prix Wolf, le prix Kyoto sont sans doute plus difficiles encore à obtenir que la médaille Fields. Mais ils n'ont pas le même retentissement, la même exposition. Et ils arrivent en fin de carrière, ne jouent pas le même rôle de tremplin et d'encouragement. La MF a un rayonnement bien supérieur. On n'y pense pas, et on ne travaille pas pour elle. Cela porterait malheur. On ne la nomme même pas, et j'évite de prononcer son nom. J'écris la MF, et le destinataire comprend. L'an dernier j'ai décroché le prix de la Société mathéma- tique européenne, attribué tous les quatre ans à dix jeunes chercheurs européens. Aux yeux de beaucoup de collègues, 68 c'était un signe que j'étais encore dans la course pour la MF. Parmi mes points forts, il y a mon spectre très large, surtout pour ma génération : analyse, géométrie, physique, équa- tions aux dérivées partielles ... En outre, le jeune prodige australien Terry Tao n'est plus un concurrent : il a déjà été médaillé au dernier Congrès International, âgé de 31 ans à pe1ne. Mais mes accomplissements ne sont pas irréprochables. Le théorème de convergence conditionnelle pour l' équa- tion de Boltzmann, dont je suis si fier, suppose la régula- rité ; pour que ce soit parfait il aurait fallu la démontrer. La théorie des bornes de Ricci au sens faible commence tout juste, et puis notre critère général de courbure-dimension ne fait pas encore l'unanimité. Et le grand écart mathé- matique dont j'ai fait preuve a du bon, mais aussi des dé- fauts : probablement aucun expert ne maîtrise l'ensemble de mon dossier. En tout cas pour avoir une chance, et aussi pour mon équilibre personnel, il faut maintenant que je dé- montre un théorème difficile sur un problème physique si- gnificatif. La limite d'âge à 40 ans, quelle pression! Je n'ai en- core que 3 5 ans ... Mais la règle a été renforcée au dernier Congrès International, en 2006 à Madrid. Désormais il faut avoir moins de 40 ans au 1er janvier de l'année du Congrès. À l'instant où la nouvelle règle a été publiquement annon- cée, j'ai compris ce que cela signifiait pour moi : en 2014 je serai trop vieux de 3 mois ; la MF ce sera donc en 2010 ou jamais. Depuis, il ne s'est pas passé un jour sans que la Médaille s'invite dans mon cerveau. Et à chaque fois, je la repousse. Pas de manœuvre politique, on ne concourt pas explicite- ment pour la médaille Fields, et de toute façon le jury est se- cret. Je n'en parle à personne. Pour accroître mes chances de décrocher la Médaille, il ne faut pas y penser. Ne pas penser à la MF, penser uniquement à un problème mathé- matique qui m'occupera corps et âme. Et ici à l'lAS, je vais 69 être à l'endroit idéal pour me concentrer, sur les traces des grands anciens. Dire que je vais habiter dans la rue Von Neumann! Quand le krach de 1929 survient, les Bamberger peuvent s'estimer heureux. Ils ont /ait fortune dans la grande distri- bution du New Jersey, puis ils ont revendu leur a/faire six semaines avant que tout s'effondre. Dans une économie en ruine, ils sont riches, très riches. Rien ne sert d'être riche si l'on n'utilise pas son argent; alors ils veulent servir une noble cause, ils rêvent de chan- ger la société. Ils pensent à une grande école de soins den- taires, mais on les convainc que l'utilisation la plus efficace de leur argent sera de /onder un nouvel institut de sciences théoriques. La théorie ne coûte pas si cher, avec ce qu'ils ont ils pourront /onder, pourquoi pas, le meilleur institut du monde, un institut qui pourra rayonner par-delà les mers et les océans.' Et puis, en mathématique ou en physique théorique, même si les spécialistes ne s'entendent pas sur tout, ils sont d'accord entre eux pour savoir qui sont les meilleurs. Et si ces meilleurs sont bien identifiés, on pourra les faire venir.' Alors on prendra les meilleurs pour le nouvel institut Bamberg er. Après des années de négociation, ils acceptent les uns après les autres. Einstein. Gode!. Weyl. Von Neumann. Et encore d'autres ... Le climat en Europe devient insuppor- table pour les chercheurs juz/s et leurs amis, ce qui aide le centre de gravité de la science mondiale à se déplacer de l'Allemagne vers les États-Unis. En 1931 le rêve de Bamberger se concrétise : c'est l'inauguration de l'Institute /or Advanced Study, l'Institut d'études avancées, juste à côté de la prestigieuse et presque bicentenaire Université de Prin- ceton (elle-même soutenue par une autre famille de riches mécènes, les légendaires Rockefeller). À l'JAS les chercheurs permanents recevront un salaire plus que confortable, et n'au- ront aucune obligation de donner des cours. 70 I:Institut a évolué: aujourd} huz: dans le département des sciences de la nature, on trouve non seulement de la physique théorique sous toutes ses /ormes (astrophysique, physique des particules, mécanique quantique, théorie des cordes .. .), mais aussi de la biologie théorique. Un département de sciences sociales et un département d'histoire sont venus s'ajouter. Avec toujours la même tradition d'excellence. Dans ce temple du savoir les mathématiciens défilent, racontent leurs dernières trouvailles, essaient d'attirer l'at- tention des plus grands. Ceux qui sont invités à restet; pour quelques mois ou quelques années, ne doivent penser qu'à une chose icz~ et c'est pour cela qu'on les paie : pro- duire les meilleurs théorèmes du monde, sous l'œil narquois d'Einstein qui est présent partout, en bronze, en photogra- phie, en peinture. Et tout est pensé pour que les mathématiciens n'aient à se soucier de rien d'autre que de mathématique. Si vous ar- rivez en /a mille, on inscrira vos enfants à l'école pour vous, longtemps à l'avance. Une armée de secrétaires prendra en charge vos besoins matériels. Un logement vous sera réservé à quelques minutes de l'Institut. r: excellente cantine vous dis- pensera de chercher un restaurant, et la forêt s'of/rira à vos promenades. À peine pénétrerez-vous dans la bibliothèque de mathématique à l'ancienne qu'une assistante se jettera sur vous pour vous aider à trouver le livre que vous recherchez ou pour vous expliquer le système de fiches aussi désuet qu' effi- cace. Tout semblera vous dire : Écoute, petit gars, ici tu as tout ce qu'il te faut, alors oublie tous tes soucis, pense seulement à la mathématique, mathématique, mathématique. Si vous passez par l'Institut en ét~ allez rendre visite à la bibliothèque de sciences humaines, de l'autre côté de l'étang par rapport au département de mathématique -la nuit, c'est désert -, et vous vous prendrez pour un explorateur décou- vrant une grotte emplie de trésors d'un autre temps, de vieux recueils de cartes d'un mètre et plus, de gigantesques diction- naires et de lourdes encyclopédies. 71 Puis) en sortant de la bibliothèque) arrêtez-vous sur le banc tout près; la nuit c) est le plus bel endroit du monde. Si vous avez de la chance) vous entendrez des cerfs brame1; vous verrez les lumières fantomatiques des lucioles) vous contem- plerez les reflets de la lune miroitant dans les eaux noires) et vous sentirez passer les spectres de certains des plus puissants esprits du vingtième siècle) formant une brume invisible au- dessus de l'étang. CHAPITRE 10 Princeton) le 12 janvier 2009 Tard le soir dans mon appartement princetonien, assis par terre sur la moquette, entouré de feuilles de brouillon, devant la grande baie vitrée par où les enfants, le jour, ob- servent les écureuils gris. Je réfléchis et griffonne sans dire mot. Dans le bureau, juste à côté, Claire visionne Death Note sur un ordinateur portable. Il n'y a guère de cinémas à Princeton, alors il faut bien s'occuper le soir. Je lui ai tant vanté les mérites de cette série animée diabolique ... à son tour elle est devenue accro. Et c'est l'occasion d'entendre du japonais. Aujourd'hui j'ai eu Clément au téléphone. Ces derniers jours on a enclenché la vitesse supérieure. À Princeton, je n'ai pas de cours; et lui, chargé de recherche au CNRS, n'a pas d'obligations non plus. Alors on peut travailler tant qu'on veut. Et puis, le décalage horaire entre collaborateurs, ça a du bon. Avec sept heures de décalage, on peut travailler presque en continu. Si Clément bosse jusqu'à minuit à Paris, deux heures plus tard à Princeton je suis dans mon bureau, prêt à prendre le relais. On s'est accrochés sur un certain calcul. Il a une astuce assez jolie, où l'on triche sur le temps d'existence de la so- lution, il y met beaucoup d'espoirs. Moi, je veux bien ad- mettre que son idée jouera un rôle important (et ce sera 73 effectivement le cas, bien au-delà de ce que je peux imagi- ner!), mais je n'arrive décidément pas à croire qu'elle suf- fise à nous sauver. Il nous faut une autre estimation. Une nouvelle astuce. Date: Mon, 12 Jan 2009 17:07:07 -0500 From: Cedric VILLAN! <Cedric.VILLANI@umpa.ens-lyon.fr> To: Clement Mouhet <clement.mouhot@ceremade.dauphine.fr> Subject: bad news Alors, je n'arrive pas a reproduire le transfert de regularite avec des estimations aussi bonnes que toi (apres conversion dans les espaces a 3 indices, il y a quelque chose qui cloche). J'ai repris ton calcul et trouve deux endroits qui clochent : (a) le dernier indice dans la p. 39, 1.8 (avant "We use here the trivial estimate") me semble etre \lambda+2\eta plutot que \lambda+\eta; (b) il me semble impossible que dans l'hypothese (5.12) l'estimee ne depende pas de \kappa (les limites \kappa\to 0 et \kappa\to\infty changent l'espace du tout au tout). Conclusion: il me semble qu'il y a un probleme .... A suivre, Cedric Date: Mon, 12 Jan 2009 23:19:27 +0100 From: Clement Mouhet <clement.mouhot@ceremade.dauphine.fr> To: Cedric Villani <Cedric.VILLANI@umpa.ens-lyon.fr> Subject: Re: bad news Je regarderai plus en detail demain apres-midi. Mais je suis d'accord avec le point (a), il doit surement y avoir d'autres pbs d'indices d'ailleurs. Pour le point (b), ce que je pensais utiliser pour dire que (5.12) dependait pas de kappa (pour kappa dans un compact), c'est la faible dependance en v du champ de scattering $X-{scat}_{s,t}$ : comme $\Omega_{s,t}$ est proche de l'identite a O(t-s) pres, on a $X-{scat} _{s,t} = x + O(t-s)$. D'ou le fait que toute derivation en v soit "ecrasee" dans le O(t-s) ? a bientot, clement 74 Date: Sun, 18 Jan 2009 13:12:44 +0100 From: Clement Mouhot <cmouhot@ceremade.dauphine.fr> To: Cedric Villani <Cedric.VILLANI@umpa.ens-lyon.fr> Subject: Re: transfert Salut Cedric, Du fait que je refere une review de Jabin sur les lemmes de moyenne (son cours de Porto Ercole) j'ai fait quelques calculs pour voir le lien avec nos calculs, et j'ai l'impression que dans l'estimation lineaire le transfert de regularite est relie aux lemmes de moyenne, mais exprime en L-1/L-\infty ce qui semble pas usuel. Par exemple si on essaie de transferer de la regularite de x vers v sans que le gain en x soit proportionnel a (t-s) on est limite a un gain <1 pour avoir l'integrabilite en temps, ce qui est coherent avec la limite 1/2 en 1-2. Une autre nouveaute ici dans les calculs semble etre que quand le gain est proportionnel a (t-s) il n'y a plus la limite 1... A voir aussi si ce gain proportionnel a (t-s) peut etre utile dans la theorie de regularite non-lineaire (ta question de depart) ... Et de ton cote quelles sont les nouvelles ? Amicalement, Clement CHAPITRE 11 Princeton, le 15 janvier 2009 Comme chaque matin, je passe dans la salle com- mune pour chercher du thé. Ici ce n'est pas la bonhomie d'Einstein, ce sont plutôt les traits acérés d'André Weil, re- présenté sous forme de buste en bronze. La salle commune n'est pas exubérante. On y trouve un grand tableau noir, cela va de soi, de quoi préparer du thé, et des échiquiers, ainsi que des piles de magazines consacrés au jeu d'échecs. L'un attire mon regard, on y célèbre Bobby Fischer, le plus grand joueur de tous les temps, disparu il y a environ un an. Frappé de plein fouet par la paranoïa, il a fini sa vie en misanthrope incohérent. Mais au-delà de la folie, restent les parties d'échecs extraordinaires d'un joueur dont on n'a jamais trouvé l'égal. En mathématique ils ont été plusieurs à avoir le même genre de destin tragique. Paul Erdos, le mathématicien errant, auteur de 1500 ar- ticles (record du monde), l'un des fondateurs de la théo- rie probabiliste des nombres, arpentant le monde dans ses habits élimés, sans maison, sans famille, sans emploi, avec seulement son sac, sa valise, son calepin et son génie. Grigori Perelman, qui passa sept années solitaires à percer en secret les mystères de la fameuse conjecture de Poincaré, et stupéfia le monde mathématique en lui offrant une solution inattendue, que l'on croyait impossible. C'est 77 peut-être pour ne pas gâcher la pureté de cette solution qu'il refusa le million de dollars offert par un mécène amé- ricain, et démissionna de son poste. Alexander Grothendieck, légende vivante qui révolu- tionna en profondeur la mathématique, créant une école de pensée parmi les plus abstraites jamais développées par l'humanité. Il démissionna du Collège de France et se réfu- gia dans un petit village pyrénéen, séducteur reconverti en ermite, en proie à la folie et à la manie de l'écriture. Kurt Gode!, le plus grand logicien de tous les temps, qui démontra, à la surprise générale, qu'aucune théorie mathé- matique n'est complète et qu'il subsiste toujours des énon- cés qui ne sont ni vrais ni faux. Au déclin de sa vie, rongé par un complexe de persécution, il finit par se laisser mourir de faim, de crainte de se faire empoisonner. Et John Nash, mon héros mathématique, qui en dix an- nées et trois théorèmes révolutionna l'analyse et la géomé- trie avant de sombrer lui aussi dans la paranoïa. La marge est étroite, dit-on, entre le génie et la folie. Mais l'un comme l'autre sont des concepts mal définis. Et puis que ce soit avec Grothendieck, avec Godel ou avec Nash, on voit bien que les périodes de folie ne corres- pondent pas aux périodes de productivité mathématique. L'inné et l'acquis, un autre débat classique. Fischer, Grothendieck, Erdos, Perelman étaient tous d'origine juive. Parmi eux, Fischer et Erdos étaient en outre d'origine hon- groise. Quiconque a pratiqué le milieu mathématique sait combien les talents juifs dans ce domaine sont nombreux, et ne peut que s'émerveiller devant l'extraordinaire palma- rès hongrois. Comme le disait une boutade en vogue dans certains cercles de scientifiques américains des années 40, « Les Martiens existent : ils ont une intelligence surhu- maine, parlent une langue incompréhensible, et prétendent venir d'un lieu appelé la Hongrie. » Cela dit, Nash est un Américain pure souche, sans rien dans son ascendance qui eût pu laisser prévoir son destin 78 exceptionnel. De toute façon, un destin dépend de tant de choses ! Brassage génétique, brassage des idées, brassage des expériences et des rencontres, tout cela participe à la merveilleuse et dramatique loterie de la vie. Ni les gènes, ni l'environnement ne peuvent tout expliquer, et c'est bien ainsi. What happens when you gather 200 of the world}s most serious scholars} isola te them in a wooded compound} liberale them /rom al! the mundane distractions of university lz/e} and tell them to do their best work? Not much. Truel a lot of cut- ting edge research gets done at the celebrated Institute /or Advanced Study near Princeton. Due to the Institute 1 s remar- kable hospitality} there is no better place /or an academie to sit and think. Yet the problem} according to many /ellows} is that the only thing there is to do at the Institute is sit and think. It would be an understatement to cal! the lAS an Ivory Towe1; /or there is no more lo/ty place. Most world-class aca- demie institutions} even the very serious} have a place where a weary bookworm can get a pint and list en to the jukebox. Not so the lAS. Old hands talk about the salad days of the 40s and 50s when the Institute was party central /or Prince- ton1s intellectual elite. John von Neumann invented modern computing, but he is also rumored to have cooked up a col- lection of mind-numbing cocktails that he liberally distribu- ted at wild /etes. Einstein turned physics on its head} but he also took the occasional turn at the fiddle. Taking their eues /rom the Ancients} the patriarchs of the Institute apparent/y believed that men (as they would have said) should be well- rounded} engaging in activities high and law} according to the Golden Mean. But now the Apollonian has so overwhelmed the Dionesian at the Institute that} according to many mem- bers} even the idea of having a good time is considered only in abstract terms. Walking around the Institute}s grounds} you might trip over a Nobel laureate or a Fields medalist. Given the generous support of the Institute} you might even become 79 one. But you can be pretty certain that you won't have a drink and a laugh with either. (Extrait de l'article ((DNE, le seul groupe de rock qu'il y ait jamais eu à l'Institute /or Advanced Study", par Marshall Poe, Encyclopedia o/Memory [DNE =Do Not Brase].) CHAPITRE 12 Princeton} le 17 janvier 2009 Samedi soir, dîner en famille. La journée a été entièrement consacrée à un voyage or- ganisé par l'Institut pour ses visiteurs. Voyage au saint des saints pour tous ceux qui aiment l'histoire de la Vie: le Mu- séum d'histoire naturelle à New York. Je me souviens très bien de ma première visite dans ce Muséum, il y a tout juste dix ans. Quelle émotion de voir certains des fossiles les plus célèbres du monde, des fossiles reproduits dans ces guides et dictionnaires de dinosaures que je dévorais adolescent. Aujourd'hui je me suis replongé dix ans en arrière et j'ai oublié mes soucis mathématiques. Mais maintenant, à table, ils reviennent. Claire observe, un peu interloquée, mon visage tour- menté de tics. La preuve de l'amortissement Landau ne tient toujours pas debout. Dans ma tête, ça s'agite. Comment /aire} bon sang, comment /aire pour obte- nir une décroissance par transfert de régularité en position} quand on a composé les vitesses ... c} est cette composition qui introduit une dépendance en vitesses} mais je n} en veux pas} des vitesses ! Quel bazar. Je ne converse guère et réponds de manière minimale, au mieux par quelques mots, au pire par des grognements. 81 -Il faisait froid aujourd'hui! On aurait pu faire de la luge ... Tu as vu de quelle couleur était le drapeau de l'étang, aujourd'hui? -Hmmm. Rouge. Je crois. Drapeau rouge : même si l'étang est gelé, interdiction de marcher dessus, c'est trop dangereux. Drapeau blanc :vous pouvez y aller les gars, c'est du solide, sautez, riez, dansez sur la glace si vous le souhaitez. Et dire que j'avais accepté de présenter mes résultats au séminaire de physique statistique de Rutgers du 15 janvier ! Comment ai -je pu accepter, alors que la preuve n'était pas complète?? Qu'est-ce que je vais leur raconter? Mais voilà, quand je suis arrivé ici tout début janvier, j'étais tellement sûr de finir le projet en deux semaines chrono! Heureusement que cet exposé a été repoussé de deux semaines supplémentaires ! Et même avec ce report, est-ce que je vais être prêt?? La date est toute proche main- tenant ! ! Mais comment aurais-je pu imaginer que c'était si difficile, je n'ai jamais vu ça! C'est les vitesses, le problème, les vitesses ! Quand il n'y avait pas la dépendance en vitesses, on pouvait séparer les variables après transformée de Fourier; mais avec les vitesses, comment /aire ? ? Et les vitesses c'est oblig~ dans l'équation non linéaire, que je les considère ! -Ça va? Faut quand même pas te rendre malade ! Re- lax, détends-toi. -Mouaif. -On dirait que tu es vraiment obnubilé. -Écoute, là j'ai une mission. Ça s'appelle l'amortisse- ment Landau non linéaire. -Tu devais pas travailler sur l'équation de Boltzmann, c'était ça ton grand projet, tu crois pas que tu es en train de perdre de vue l'essentiel ? -M'en fiche. Maintenant c'est l'amortissement Landau. 82 Mais l'amortissement Landau continue a Jouer à la froide beauté inaccessible. Je suis incapable de l'aborder . . . . Il y a quand même ce petit calcul que j'ai fait en ren- trant du musée, il donne de l'espoir, non ? Mais que c'est com- pliqué.' J'ai ajouté deux paramètres de plus à la norme. Nos normes dépendaient de cinq indices, c'était déjà le record du monde, maintenant il va y en avoir sept .' .'Mais pourquoi pas, quand les deux indices sont appliqués à une fonction qui ne dépend pas de la vitesse, ça redonne la même norme qu'avant, c'est cohérent ... Il faut que je le vérifie bien, ce calcul. Mais si je le regarde trop maintenant, il va être /aux, alors atten- dons demain.' Bon san& il faudrait tout refaire, tout avec ces maudites normes à sept indices. J'ai l'air si sombre, Claire a pitié de moi, elle sent qu'il faut un geste pour me réconforter. -Allez, demain c'est dimanche, si tu veux tu peux aller passer la journée au bureau, je m'occupe des poutchous. À cet instant, rien au monde ne saurait me faire plus plaisir. Date: Sun, 18 Jan 2009 10:28:01 -0500 From: Cedric VILLANI <Cedric.VILLANI©umpa.ens-lyon.fr> To: clement.mouhot©ceremade.dauphine.fr Subject: Re: transfert On 01/18/09, 13h12, Clement Mouhot wrote : > Et de ton cote quelles sont les nouvelles ? J'avance... d'abord je suis en dents de scie, mais finalement je me suis convaincu qu'en procedant comme tu faisais, on ne gagne pas assez en temps grand. J'ai trouve une autre methode qui gagne juste sur la variable de temps, elle a l'air de bien marcher mais un seul defaut, elle fait intervenir des espaces un peu plus compliques, avec 2 indices de plus :-) Cependant toutes les estimations ont l'air de marcher pareil pour cette nouvelle famille, mais il va falloir bien verifier. En tout cas ce sont des trucs hyperfins, et je crois l'un des coeurs du probleme. Ce soir je 83 t'envoie une nouvelle version si tout va bien, avec des trous a completer, et on devrait pouvoir recommencer a bosser en parallele. Amities Cedric Date: Sun, 18 Jan 2009 17:28:12 -0500 From: Cedric Villani <Cedric.VILLANI@umpa.ens-lyon.fr> To: clement.mouhot@ceremade.dauphine.fr Subject: Re: transfert Voici le nouvel etat du fichier. Pour faire tenir ca debout (je ne parle pas encore du schema de Newton), il faut (i) verifier que les normes 11 bihybrides 11 que j'ai introduites dans la fin de la section 4 verifient les memes proprietes que les normes hybrides 11 Simples 11 , et qu'en consequence on a des estimations similaires sur les caracteristiques dans ces normes (!) (ii) trouver un moyen de combiner les deux effets distincts qui sont decrits dans la nouvelle section 5; (iii) mettre tout ca dans la fin de la section 7 et completer pour mettre l'estimee sur la densite complete; (iv) tout verifier ! Autant dire qu'on a du pain sur la planche. Pour l'instant je suggere que tu verifies ce que j'ai ecrit, et tu me dis quand tu vois quelque chose de suspect. Je te dirai si je vois plus tard des choses qu'on peut clairement bosser en parallele ... Quelques precisions en plus : Au sujet de tes estimees de transfert de regularite, je pense qu'elles etaient buggees, le resultat etait trop fort, je ne suis pas arrive a les reproduire dans les normes habituelles; en revanche j'ai utilise ta strategie pour faire un transfert dans la section 5. Mais quand on essaie de s'en servir en temps grand (t\to\infty, \tau restant petit) ca semble planter, les exposants autorises ne permettent pas de faire converger l'integrale en temps. J'ai concocte (ne me demande pas comment) une recette pour gagner sur l'integration en temps, mais cette fois sans gagner sur la regularite. Il reste a combiner les deux. A suivre, amities Cedric 84 Date: Mon, 19 Jan 2009 00:50:44 -0500 From: Cedric Villani <Cedric.VILLANI@umpa.ens-lyon.fr> To: clement.mouhot@ceremade.dauphine.fr Subject: Re: transfert J'ai relu le fichier et fait un peu de debuggage, donc c'est la version ci-attachee qui fait foi. Dans l'immediat je propose le partage des taches suivant : - tu te charges de faire tenir debout la Proposition 4.17 et le Theoreme 6.3, c'est un peu bestial mais ca aura l'avantage de te forcer a relire toutes mes estimations des sections 4 et 6 en detail :-) ce qui n'est pas du luxe, car on est a la merci d'une erreur de calcul sur les conditions que doivent verifier les exposants. Pour l'instant a ces deux endroits j'ai mis des enonces 11 pipeau 11 avec des estimations ecrites un peu au hasard, il se peut que ce soient les bonnes mais il se peut aussi que la realite soit plus compliquee. Pas besoin de rediger les preuves, mais il faut etre sur des bornes qu'on obtient, tout le reste en depend. -pendant ce temps je m'occupe de finir les sections 5 et 7 (modulo l'input qui viendra du Theoreme 6.3). -egalement je vais discuter demain avec Tremaine pour la partie physique de l'intro. -si tu arrives a mettre en forme ta remarque ci-dessous, tu peux l'incorporer dans l'intro de la section 5, ou j'ai deja mentionne le lien avec les lemmes de moyenne. (Attention, comme on travaille dans la classe analytique il n'est pas parfaitement convaincant que ce soit un phenomene L-1/L-\infty??) Si tu as le temps de bosser tout de suite la-dessus, et que tout marche bien, on doit pouvoir se fixer comme objectif d'avoir boucle tout ca d'ici 2-3 jours, et il ne restera plus que Newton/Nash-Moser a bien mettre en place. (Mais je pense que la priorite est de corriger les enonces de 4.17 et 6.3 pour etre sur de ne pas ba tir sur 11 du vent 11 .) Amities Cedric 85 Date: Mon, 19 Jan 2009 13:42:27 +0100 From: Clement Mouhot <clement.mouhot@ceremade.dauphine.fr> To: Cedric Villani <Cedric.VILLANI@umpa.ens-lyon.fr> Subject: Re: transfert Salut Cedric, ca devient de plus en plus monstrueux;) ! ! Extraits du fichier global-3 (18 janvier 2009) 4.7 Bihybrid norms We shall be led to use the following more complicated norms: Définition 4.15. We define the space Zcp..,~')),f.L;p by T,T (. .. ) After trial and error, the best we could do was to reco- ver this decay in the "bi-hybrid" norms described in Sub- section 4.7 : Proposition 5.6 (regularity-to-decay estimate in hybrid spaces). Let f = ft(x, v), g = gt(x, v), and a(t,x) = l J f 7 (x-v(t-r),v)g 7 (x-v(t-r),v) dvdr. Th en llo-(t)ll.r>-t+~t::; (, ~ ,) sup llfrll 2 ~,~t;l sup Jlgrll 2 <>-,~->-),w /\ /\ 0:'Sr:'St T 0:'Sr:'St (T,Ü) CHAPITRE 13 Princeton) le 21 janvier 2009 Grâce à l'astuce trouvée le soir de la visite au Muséum, j'ai pu repartir. Et aujourd'hui, je suis plein d'espoir et d' ef- froi mêlés. Face à une difficulté majeure, j'ai fait quelques calculs explicites et j'ai fini par comprendre comment gérer un terme trop gros. En même temps, je suis saisi de vertige devant la complexité de ce qui s'ouvre à moi. La brave équation de Vlasov, que je croyais commen- cer à connaître, fonctionnerait donc par à-coups? Le calcul montre, sur le papier, qu'il y a des temps particuliers où elle réagit trop vite par rapport aux stimuli. Je n'ai jamais en- tendu parler de quelque chose de tel, ce n'est pas dans les articles et les livres que j'ai lus. Mais en tout cas on avance. Date: Wed, 21 Jan 2009 23:44:49 -0500 From: Cedric VILLAN! <Cedric.VILLANI@umpa.ens-lyon.fr> To: Clement Mouhot <clement.mouhot@ceremade.dauphine.fr> Subject: ! ! Ca y est, apres des heures a patauger lamentablement je suis persuade d'avoir identifie la raison qui cancelle le O(t) dont je me plaignais au telephone aujourd'hui. C'est MONSTRUEUX ! 87 Apparemment ce n'est pas dans les estimees bilineaires, pas dans le schema de Moser, c'est au niveau de l'equation "de Gronwall" ou on estime \rho en fonction d'elle-meme.... le point est qu'on a un truc du genre u(t) \leq source + \int_o-t a(s,t) u(s) ds ou u(t) est une borne sur \1\rho(t)\1. Si \int_o-t a(s,t) ds = 0(1), tout va bien. Le probleme c'est que \int_o-t a(s,t) ds semble pouvoir etre egal a O(t) (vraiment aucune obstruction, j'ai pris les cas les plus parfaits possibles et ca peut toujours se produire). Mais quand ca se produit, c'est en un point strictement interieur a [O,t], genre vers le milieu (ca correspond au cas ou on a k et \ell tels que 0 = (k+\ell)/2); ou aux 2/3 si on avait 0= (2/3)k + \ell/3, etc. Mais alors l'equation de recursion sur u(s) ressemble a u(t) \leq source + epsilon t u(t/2) et les solutions de ce truc ne sont pas bornees a priori, mais sont a croissance lente ! (sous-exponentielle) Mais comme la norme sur \rho contient la decroissance exponentielle, on obtient bien finalement cette decroissance .......... . Mettre ce truc en forme semble un peu monstrueux (il faut repertorier des resonances, en gros). C'est mon travail de demain. En tout cas tout ca ne remet pas en question le programme de verification des proprietes des normes bihybrides. Amities Cedric Date: Wed, 21 Jan 2009 09:25:21 +0100 Subject: Re: ! ! From: Clement Mouhot <clement.mouhot@ceremade.dauphine.fr> To: Cedric Villani <Cedric.VILLANI@umpa.ens-lyon.fr> Ca a l'air effectivement monstrueux ! De mon cote j'ai regarde la partie Nash-Moser et je suis d'accord aussi que ca parait peu probable qu'on puisse absorber le facteur t dedans... Par contre si je 88 comprends bien l'argument de borne sur u(t) il faut absolument que le point s ou a(s,t) est grand reste uniformement a une distance strictement positive de t... Un autre truc c'est que on aurait donc une borne sous-exponentielle en temps lors de la resolution du probleme non-lineaire. Et pour le faire manger par la norme sur \rho il faudrait accepter de perdre un peu sur son indice, ce qu'on doit a mon avis eviter absolument dans la partie Nash-Moser.... ? amicalement, clement CHAPITRE 14 Princeton) le 2 8 janvier 2009 Noir ! J'ai besoin d'obscurité, de rester seul dans le noir. La chambre des enfants, volets fermés, très bien. La régu- larisation. Le schéma de Newton. Les constantes exponen- tielles. Tout virevolte dans ma tête. Jus te après avoir ramené les enfants à la maison, je suis allé me réfugier dans leur chambre, pour continuer à re- muer mes pensées. Demain c'est mon exposé à Rutgers, et la preuve ne tient toujours pas debout. J'ai besoin de mar- cher en solitaire pour réfléchir. Il y a urgence! Claire en a encaissé d'autres sans broncher; cependant, que je me retrouve à marcher en rond, seul dans une pièce noire, pendant qu'elle prépare le repas, cela fait un peu trop. -C'est quand même très bizarre ! ! Je n'ai pas répondu, tous mes canaux mentaux étaient saturés par la réflexion mathématique et le sentiment d'ur- gence. Je suis quand même allé manger avec le reste de la famille, puis j'ai travaillé toute la soirée. Un certain calcul, sur lequel je comptais ferme, ne marche plus, j'avais dû me tromper. Grave ou pas grave ? Vers deux heures du matin j'arrête, j'ai l'impression que finalement tout va bien marcher. 91 Date: Thu, 29 Jan 2009 02:00:55 -0500 From: Cedric Villani <Cedric.VILLANI@umpa.ens-lyon.fr> To: Clement Mouhot <cmouhot@ceremade.dauphine.fr> Subject: global-10 !!! ! Je crois que maintenant on tient les bouts manquants. -D'abord, j'ai enfin trouve (sauf erreur) comment faire pour perdre un epsilon aussi petit que l'on veut (quitte a perdre une tres grande constante, genre exponentielle ou exponentielle carre en 1/epsilon). Ceci resulte d'un calcul parfaitement diabolique que j'ai pour l'instant juste ebauche a la fin de la section 6. Il a l'air totalement miraculeux mais il tombe pile comme il faut, ca semble convaincant. -Ensuite, je crois avoir aussi identifie les endroits ou l'on perd sur les caracteristiques et le scattering. Il va falloir refaire tous les calculs dans cette section, ca s'annonce assez atroce... J'ai mis quelques commentaires dans une sous-section a la fin de cette section. Avec ca, je pense qu'on a maintenant tous les elements pour nourrir le Nash-Moser. Demain jeudi je ne suis pas la. Voici le plan que je suggere pour la suite : je me charge de reprendre la section 6 avec la croissance sous-exponentielle, et pendant ce temps tu te lances dans les estimees de scattering qui ne sont pas tristes. On se donne pour objectif d'avoir en debut de semaine prochaine redige tout sauf la derniere section. Ca marche ? Amities Cedric CHAPITRE 15 Rutgers, le 29 janvier 2009 Aujourd'hui est le jour tant redouté. Je suis invité au séminaire de physique statistique de l'Université Rutgers, à environ trente kilomètres de Princeton. Eric Carl en et Joel Lebowitz, qui tous deux habitent à Princeton et travaillent à Rutgers, m'accompagnent en voiture. C'est ma seconde virée à Rutgers; la première fois, c'était pour une journée à la mémoire de Kruskal, l'inven- teur des solitons, un grand esprit. Les anecdotes plaisantes rapportées par les orateurs sont encore vivaces dans mon esprit - Kruskal discutant dans l'ascenseur avec deux col- lègues, se prenant tellement à la conversation qu'ils y res- tent pendant vingt minutes tandis que d'autres entrent et sortent de l'ascenseur qui monte et descend. Mais aujourd'hui c'est moins plaisant. Je suis sous ten- sion! D'habitude, dans un exposé de recherche (un « sémi- naire») on raconte quelque chose qui a été minutieusement vérifié et répété. C'est ce que j'ai toujours fait jusqu'à pré- sent. Mais aujourd'hui ce n'est pas le cas : le travail que je vais présenter n'est pas bien peaufiné, et la démonstration n'est même pas complète. Certes, hier soir je me suis convaincu que tout marche- rait bien, qu'il suffisait d'écrire la fin. Mais ce matin les doutes étaient de retour. Avant de se dissiper à nouveau. Dans la voiture, encore, j'y pense. 93 Au moment où je fais l'exposé, je suis sincèrement per- suadé que tout marche bien. Autosuggestion ? Je ne donne pas beaucoup de détails mathématiques, mais j'insiste sur la signification du problème et son interprétation physique. J'exhibe la fameuse norme, dont la complexité fait frémir le public. Et encore, je me contente de présenter la version à cinq indices, pas celle à sept ... Nous sommes une dizaine à déjeuner ensemble après l'exposé, les discussions vont bon train. Dans l'auditoire tout à l'heure, il y avait un grand lutin aux yeux brillants, tout jubilant : Michael Kiessling; maintenant il me raconte avec un enthousiasme communicatif ses amours de jeunesse pour la physique des plasmas, l'écran tage, l'écho plasma, la théorie quasi -linéaire ... MichaeL Kiessting L'écho plasma éveille toute mon attention. Quelle belle expérience! On prépare un plasma, c'est-à-dire un gaz dans lequel on a séparé les électrons des noyaux ; on le prépare au repos, et au début de l'expérience on dérange ce repos en appliquant un bref champ électrique, une« impulsion». On attend ensuite que le courant ainsi créé s'estompe, puis on applique un second champ. On attend encore que cela s'estompe, et c'est là que survient le miracle : si les deux im- pulsions sont bien choisies, on observera une réponse spon- tanée, à un instant précis, on appelle cette réponse l'écho ... 94 Étrange, non? On pousse un cri (électrique) dans le plasma, puis un second cri (à une hauteur différente), et un peu plus tard le plasma répond (à une hauteur encore différente ! ) . Tout cela me rappelle les calculs que j'ai effectués il y a quelques jours : une résonance en temps .... mon plasma qui réagissait à certains instants bien particuliers ... je croyais avoir perdu la tête, mais peut-être que c'est la même chose que ce phénomène des échos, bien connu en physique des plasmas? Je verrai plus tard, pour l'instant je vais discuter avec les professeurs d'ici. Alors, qui est dans votre équipe, en ce moment ? Vous avez fait de bons recrutements ? Oui oui, tout va bien, il y a Untel et Untel, et puis Untel... L'un des noms me fait bondir. -Quoi, Vladimir Scheffer travaille ici ! ! -Oui, ça fait un bail. Pourquoi, Cédric, tu connais ses travaux? -Mais bien sûr, j'ai fait un séminaire Bourbaki sur son fameux théorème d'existence de solutions paradoxales de l'équation d'Euler ... li faut que je le rencontre ! -Tu sais, nous on ne le voit pas beaucoup, ça fait long- temps que je n'ai pas discuté avec lui. On va essayer de te le trouver après le repas. Joel est parvenu à le contacter, et Scheffer nous a re- joints dans le bureau de Joel. Je ne suis pas près d'oublier cette entrevue. Scheffer a commencé par s'excuser longuement de ne pas avoir pu venir plus tôt, nous a parlé de son job consis- tant à étouffer dans l'œuf certaines menaces légales contre l'Université-déposées par des élèves dépités? Puis on a discuté de mathématique en tête à tête, dans une petite pièce, autour d'un tableau noir. -J'ai fait un séminaire Bourbaki sur vos travaux, j'ai imprimé le texte pour vous! li est en français mais peut- être que vous pourrez en profiter. J'explique en grand détail 95 comment votre théorème d'existence de solutions para- doxales a été amélioré et simplifié par Camillo De Lellis et Lâszl6 Székelyhidi. -Ah, c'est très intéressant, merci. -Je voulais savoir, comment avez-vous eu cette idée, comment diantre avez-vous eu l'idée de construire ces solu- tions incroyables ? - Je vais vous expliquer, c'est très simple. Dans ma thèse, j'avais montré qu'il existe des objets impossibles, des choses qui ne devraient pas exister dans notre monde. Voici la méthode. Il dessine quelques bosses au tableau, et une sorte d'étoile à quatre branches. Je reconnais la figure. - Oui, je connais ça, c'est la configuration T 4 de Tartar! -Vraiment? Bon, peut-être, je ne sais pas, en tout cas j'avais fait ça pour construire des solutions impossibles de certaines équations elliptiques. Et j'ai compris qu'il y avait une recette générale. Il explique la recette. - Oui, ça aussi je connais, c'est l'intégration convexe de Gromov! -Ah bon? Non, je ne crois pas, c'est beaucoup plus simple mon affaire, la construction marche tout simple- ment parce qu'on est dans l'enveloppe convexe, et on peut 96 à chaque fois exprimer la solution approchée comme une combinaison convexe et puis .... Dans ce qu'il me dit je reconnais tous les ingrédients de cette théorie appelée l'intégration convexe. Ce type a tout retrouvé tout seul sans savoir ce que faisaient les autres ? Il a vécu sur la planète Mars ? -Et donc, la mécanique des fluides? -Ah oui ! Donc, un jour, j'avais assisté à un exposé de Mandelbrot, et je me suis dit : j'aimerais bien faire pareil ; alors je me suis mis à étudier l'équation d'Euler d'un point de vue fractal, et j'ai compris que je pouvais refaire le même genre de choses que dans ma thèse. Mais c'était compliqué. J'écoute avec une attention extrême. Mais après deux ou trois phrases générales, il s'interrompt brutalement. - Et maintenant, je suis désolé, je dois rentrer, je prends les transports en commun, en ce moment avec la neige c'est très glissant et je n'ai pas un très bon équilibre, et puis mon chemin est assez long, et .... La fin de l'entretien se passe à évoquer toutes les bonnes raisons pour lesquelles il doit prendre congé. La discussion mathématique a duré environ cinq minutes, pendant les- quelles je n'ai rien appris. Dire que c'est là l'homme qui est à l'origine du théorème le plus surprenant de toute la méca- nique des fluides ! La preuve vivante que l'on peut être un esprit supérieur et un piètre communicant. De retour chez Joel, je parle de mon entrevue et regrette qu'elle n'ait duré que cinq minutes. -Tu sais, Cédric, cinq minutes avec Vlad, c'est à peu près autant que tout ce qu'on a pu discuter avec lui dans les cinq dernières années. C'est le moment de tirer un trait sur cette rencontre qui restera gravée dans ma mémoire ... je vais revenir à mes af- faires d'amortissement Landau. Le temps de rentrer à Princeton, les doutes sont reve- nus. À bien y réfléchir, la preuve ne va pas marcher. 97 Ce séminaire à Rutgers marque un moment clé dans ma quête. Avoir annoncé des résultats qui ne sont pas encore démontrés est une faute grave, une rupture dans le contrat de confiance qui lie l'orateur à son auditoire. Pour que la faute ne soit pas trop énorme, je suis dos au mur, il faut à tout prix que je prouve ce que j'ai annoncé. On dit que John Nash, mon héros mathématique, avait coutume de se mettre sous une pression invraisemblable en annonçant des résultats qu'il ne savait pas encore montrer. En tout cas c'est ce qu'il a fait pour le théorème de plonge- ment isométrique. À partir du séminaire à Rutgers, je ressens un peu de cette même pression. Le sentiment d'urgence ne va plus me quitter pendant les mois qui viennent. Il faut complé- ter cette preuve, ou je suis déshonoré ! ! Imaginez :vous vous promenez en forêt par un paisible après-midi d' ét~ vous vous arrêtez près d'un étang. Tout est calme, pas un souffle de vent. Soudain, la sur/ace de l'étang est prise de convulsions, tout s'agite dans un formidable tourbillon. Et puis, après une minute, tout est calme à nouveau. Tou- jours pas un souffle de vent, pas un poisson dans l' étangy alors que s'est-il passé? Le paradoxe de Schef/er-Shnirelman, certainement le ré- sultat le plus surprenant de toute la mécanique des fluides, prouve qu'une telle monstruosité est possible, du moins dans le monde mathématique. Il n'est pas basé sur un modèle exotique, des probabili- tés quantiques, de l'énergie noire ou que sais-je encore. Il repose sur l'équation d'Euler incompressible, la doyenne de toutes les équations aux dérivées partielles, le modèle accepté par tous, mathématiciens comme physiciens, pour décrire un fluide par/ait incompressible, sans frottements internes. Cela fait plus de 250 ans que l'équation d'Euler est née, et pourtant on n'a pas encore percé tous ses mystères. 98 Pire : t équation d'Euler est considérée comme l'une des plus traîtresses de toutes. Quand le Clay Mathematics Institute a mis à prix sept problèmes de mathématique, pour un million de dollars chacun, il a pris soin d'inclure la régularité des so- lutions de Navier-Stokes, mais il a soigneusement évité de parler d'Eulet; encore bien plus monstrueux. Pourtant l'équation d'Euler a l'air de prime abord si simple, si innocente, on lui donnerait sans confession le bon Dieu de la mécanique des fluides.' Nul besoin de modéliser les variations de densité ou de comprendre la mystérieuse visco- sit~ il su/fit d'écrire les lois de conservation : conservation de la masse, conservation de la quantité de mouvement, conser- vation de l'énergie. Mais ... voilà qu'en 1994 Schel/er montre que l'équation d'Euler dans le plan autorise une création spontanée d' éner- gie .' Création d'énergie à partir de rien .' On n'a jamais vu des fluides engendrer de telles monstruosités dans la nature .' Autant dire que l'équation d'Euler nous réserve encore des surprises de taille. La preuve de Schel/er était un tour de /oree de virtuosité mathématique, et elle était aussi obscure que difficile. Je doute que quelqu'un d'autre que son auteur l'ait jamais lue en dé- tail, et je suis certain que personne ne saurait la reproduire. En 1997, le mathématicien russe Alexander Shnirelman, réputé pour son originalité, présentait une nouvelle preuve de cet énoncé surprenant. Il proposait peu après d'imposer aux solutions de l'équation d'Euler un critère, physiquement réaliste, destiné à interdire les comportements pathologiques. Las / Il y a quelques années, deux jeunes mathématiciens brillants, l'Italien De Lellis et le Hongrois Székelyhidz~ prou- vaient un théorème général, encore plus choquant, et mon- traient au passage l'impuissance du critère de Shnirelman à résoudre le paradoxe. En prime, grâce aux techniques de l'intégration convexe, ils proposaient une nouvelle méthode pour engendrer ces solutions monstrueuses, un procédé lim- pide s'inscrivant dans une voie explorée par de nombreux 99 chercheurs avant eux : Vladimir Sverdk, Ste/an Müller, Bernd Kirchheim ... Ainsz~ avec De Le !lis et Székelyhidz~ on découvre qu'on en sait encore moins que ce qu'on croyait sur l'équation d'Euler. Et pourtant ce n'était déjà guère. Extrait de mon séminaire Bourbaki de 2008 Théorème (Scheffer 1993, Shnirelman 1997). Il existe une solution faible non nulle de l'équation d'Euler incompressible en dimension 2, av at + v . (v 0 v) + v P = J, \7. v= 0, sans forçage (f 0 ), à support compact en espace-temps. Théorème (De Lellis et Székelyhidi 2007, 2008). Soient n un ouvert de IRn, T > 0, et e une /onction uniformément continue nx ]0, T[ ~ ]0, +oo~ avec e E L 00 (]0, T[; L 1 (!1) ). Alors pour tout TJ > 0 il existe une solution faible (v, p) de l'équation d'Eule~; sans forçage ( f 0), telle que (z) v E C(IR; L~(IRn))n; (iz) v(x, t) = 0 si (x, t) tf_ nx]O, T[; en particulier v(-, 0) =v(-, T) -0; (iii) [v(x; tW = -~ p(x, t) = e(x, t) pour toutt E ]0, T[ et presque tout x E !1; (iv) sup llv( ·, t)IIH-l(JRn):::; TJ. 0'5:t'5:T En outre, (v) (v, p) = lim ( vk, Pk) dans L 2 ( dx dt), k--+oo où chaque ( vk, Pk) est un couple de /onctions coo à support compact, solution classique de l'équation d'Euler avec un for- çage fk E cr: (IRn x IR; IRn) bien choisz~ fk ----+ 0 au sens des distributions. CHAPITRE 16 Princeton) le 25 février 2009 Tranquille, la vie à Princeton ! La forêt, les écureuils gris, l'étang, le vélo. Et la bonne cuisine ! L'autre jour nous avons eu un filet d'espadon grillé, bien tendre et bien assaisonné, du velouté de citrouille comme à la maison, un dessert fondant aux mûres et à la crème ... À peine sommes-nous remis du repas de midi, voici que sonnent 15 heures : c'est le moment d'aller boire un thé dans le vénérable Fuld Hall, à l'entrée de l'lAS, tout en dé- gustant des gâteaux faits maison qui changent tous les jours. Les madeleines tout particulièrement me font craquer, elles ne sont pas moins délectables que celles que je préparais pour mes voisins et voisines de l'internat, il y a quinze ans. Il est vrai qu'ils ont une faiblesse au niveau du pain, et que la baguette craquante ne se trouve guère à Princeton ; mais la lacune la plus flagrante au niveau des produits de première nécessité, celle qui fait souffrir toute la famille, c'est le piètre niveau du fromage! Où sont les comtés frui- tés, les roves délicats, les échourgnacs parfumés, les brillat- savarins moelleux? où trouver tendres navettes, piquantes olivias et indestructibles mimolettes ? Ce mois-ci j'ai fait un bref séjour sur la Côte Ouest, à Berkeley, pour une visite éclair au Mathematical Sciences Research lnstitute -le MSRI, en abrégé -le leader mondial 101 des instituts d'accueil et de rencontres de mathématiciens. J'étais tout ému en retrouvant cette ville dans laquelle j'ai vécu pendant cinq mois en 2004 ! Et bien sûr je n'ai pas manqué de faire un tour au Cheeseboard, mon endroit préféré à Berkeley, une coopé- rative fromagère basée sur des principes socialistes qui vont bien avec la légende locale, et où l'on trouve une sélection de fromages à faire pâlir nombre de fromagers français. Au Cheeseboard, j'ai fait le plein, et j'ai pu acheter des roves, je savais que les enfants se jetteraient goulûment des- sus. Je me suis ouvert aux vendeurs de l'indigence froma- gère du New Jersey; on m'a exhorté à aller faire un tour chez Murrays à New York. Ainsi soit-il! En France, l'équivalent du Mathematical Sciences Re- search Institute, c'est l'Institut Henri Poincaré, IHP pour les intimes, fondé en 1928 grâce aux mécènes Rockefeller et Rothschild. Voilà deux mois déjà que le conseil d'admi- nistration de l'IHP m'a adoubé nouveau directeur de cet institut-à l'unanimité, m'a-t-on dit. Mais je n'ai pas encore accepté, j'ai posé un certain nombre de conditions, et cela prend du temps à décanter, beaucoup de temps. Il y a quatre mois que j'ai été approché pour ce poste de directeur. Passé le moment de surprise, je me suis dit que ce serait une expérience intéressante et j'ai accepté de candi- dater. Je n'en ai pas parlé à mes collègues de l'ENS Lyon, de peur qu'ils ne le prennent mal. .. Pourquoi accepter un poste de directeur d'institut après avoir refusé un poste de direc- teur de laboratoire ? Pourquoi partir à Paris alors que je me suis épanoui à Lyon? Et de nos jours, qui souhaite être di- recteur d'un laboratoire scientifique, accablé de tâches ad- ministratives, ployant sous les règles qui sont chaque année plus contraignantes? Que c'était naïf, de croire que ma candidature pourrait rester secrète ! Pas en France ... Les collègues lyonnais l'ont vite appris, et ils n'en sont pas revenus. C'était tellement in- congru, un chercheur de mon âge envisageant de prendre 102 un poste réputé si lourd, ils se sont dit que je leur cachais quelque chose, qu'il y avait un secret personnel derrière cette candidature. Pas de secret, non, juste une sincère envie de relever le défi. Mais seulement dans de bonnes conditions ! Or les nouvelles ne sont pas très encourageantes, les discussions en France semblent s'enliser ... Alors, débarquement à Paris ou retour à Lyon ? Peut-être ni l'un ni l'autre. Fromage ou pas, la vie ici est très agréable, et on me propose de rester encore un an à Princeton, voire plus si affinités, avec d'excellentes condi- tions financières et matérielles. En prime, Claire a repris du service en recherche, elle cartonne aux cours doctoraux en géosciences à l'Université de Princeton, où elle s'est inté- grée à une équipe qui travaille sur une nouvelle découverte extraordinaire - il pourrait s'agir des plus anciens fossiles d'animaux connus, rien que ça ! Le directeur de l'équipe l'exhorte à se lancer dans un stage postdoctoral. De toute façon, en me suivant à Princeton elle a perdu son poste d'enseignante à Lyon, et il est déjà trop tard pour participer au prochain mouvement des enseignants : tout cela n'incite pas vraiment au retour. Pour elle, rester ici serait certaine- ment plus simple et plus gratifiant. Dans ces conditions, difficile de résister aux sirènes princetoniennes. Bien sûr, je ne peux envisager de m'ins- taller définitivement dans un pays qui a tant de retard sur la qualité du pain ... mais pour quelques années, pourquoi pas? Après tout, s'ils sont incapables de me faire une bonne proposition à Paris, je n'y peux rien ! Tout cela tourne et remue dans ma tête depuis des se- maines, et précisément cette nuit, je me suis résolu à en- voyer un mail en France pour décliner la direction de l'IHP. Mais ce matin, quand j'ouvre ma boîte aux lettres élec- tronique, c'est le coup de théâtre : ça y est, toutes mes conditions sont acceptées ! OK pour le complément de sa- laire, OK pour la décharge d'enseignement, OK pour la 103 prolongation de ma bourse personnelle. Tout cela paraî- trait routine aux États-Unis, mais pour la France c'est un deal extraordinaire. Claire lit attentivement la proposition par-dessus mon épaule. -S'ils font tout bien comme il faut, tu dois rentrer. Elle a exprimé ma pensée. Je rentrerai donc en France à la fin du mois de juin ; on dira au revoir à Princeton ! Il faudra prévenir mes nouveaux collègues américains que je ne resterai pas parmi eux. Certains le prendront bien (bon courage Cédric, ça va être passionnant), certains s'inquiéteront pour moi (Cédric, as-tu bien réfléchi, diri- ger un institut aussi compliqué, c'est la fin de ta recherche), d'autres encore seront horriblement vexés (tel ce célébris- sime chercheur à Princeton qui cessera de m'adresser la pa- role pendant trois mois). Mes relations diplomatiques vont devenir encore plus complexes, aux États-Unis comme en France. Au milieu de la confusion, une certitude : le plus impor- tant de tout ce qui est en train de m'arriver, c'est le travail en cours avec Clément. Situé sur le Campus Pierre et Marie Curie) Flnstitut Henri Poincaré (IHP)) «Maison des Mathématiques et de la Physique théorique») a été /ondé en 1928 pour délivrer les mathématiques françaises de leur isolement de f époque). il devint rapidement un haut lieu de la formation scientifique et de la culture françaises. Einstein y a enseigné la relativité générale et Volterra y a introduit en France f analyse mathé- matique de la biologie. J;JHP a aussi abrité le premier ins- titut français de statistique) et le premier projet d) ordinateur français. Même les artistes t ont fréquent~ puisque les sur- réalistes aimaient y trouver t inspiration) comme en attestent photographies et toiles de Man Ray. Lieu de formation mathématique de FUniversité de Paris dans les années 50 et 60) tombé en désuétude dans les années 104 1970, l'IHP fut rénové et re/ondé au début des années 1990 pour prendre sa /orme actuelle : à la /ois école interne de l'Université Pierre et Marie Curie (UPMC) et instrument de politique scientifique nationale soutenu par le Centre Natio- nal de la Recherche Scientifique (CNRS). La gestion de proxi- mité par une très grande université met l'IHP à l'abri des aléas et lui assure un suivi par une équipe importante (tech- nique et administrative) qu'un institut de cette taille ne pour- rait héberger. Le soutien du CNRS lui apporte des moyens supplémentaires et lui permet de bénéficier d'un réseau na- tional de compétences. L'IHP remplit des /onctions multiples : lieu d'échanges scientifiques nationaux et internationaux, il accueille des pro- grammes thématiques, des cours doctoraux de haut niveau, et d'innombrables colloques et séminaires. Il a un rôle fédé- rateur pour les universités françaises et sert d'ambassade des mathématiques françaises auprès de la société. La richesse de la vie scientifique parisienne entretient dans ses locaux un foisonnement mathématique sans pareil sur la scène interna- tionale. Le conseil d'administration de l'IHP, en partie élu par un scrutin nationa~ comprend des représentants de nom- breuses institutions scientifiques françaises; son conseil scien- tifique, totalement indépendant, est constitué de personnali- tés scientifiques de premier plan. Ses locaux historiques, sa bibliothèque de référence, son expertise dans l'invitation de chercheurs étrangers, son partenariat étroit avec les sociétés savantes et autres associations consacrées aux mathématiques, sont autant d'éléments qui contribuent à son rayonnement. Extrait d'une note de synthèse sur l'Institut Henri Poincaré (C. Villani, septembre 2010). CHAPITRE 17 Princeton, l'après-midi du 25 février 2009 Les enfants sont revenus de l'école, construisent des ca- banes et observent les écureuils sur la pelouse ... Mais à l'autre bout du fil, Clément est moins serein. -La stratification des estimations permet de résoudre certains des problèmes que j'évoquais... mais il en reste plein! -Bon, en tout cas on avance. -J'ai bien étudié le Alinhac-Gérard, et il y a un gros souci dans les estimations : il faudrait un peu de marge de régularité pour avoir la convergence vers zéro du terme de régularisation, et en prime la régularisation pourrait tuer la convergence bi -exponentielle du schéma. -Moui, j'avais pas fait attention à ça. Tu es sûr qu'on perd le taux de convergence du Newton? Bon, on va bien trouver. - Et les constantes de régularisation dans l'analytique sont monstrueuses ! -Bon, effectivement c'est inquiétant ces constantes ex- ponentielles, mais on va s'en sortir aussi, là je suis confiant. - Et puis de toute façon ces constantes elles explose- ront trop vite pour être tuées par la convergence du schéma de Newton! Parce qu'il faut régulariser le background pour gérer l'erreur créée par la fonction b, elle est en l'inverse du temps, mais il y a une constante, et cette constante doit per- mettre de contrôler les normes qui viennent du scattering ... 107 or ces normes croissent au cours du schéma, puisqu'on veut des pertes sommables sur À ! -Bon, effectivement je suis d'accord qu'on ne voit pas trop encore comment faire. Mais je suis confiant, on va s'en sortir! -Attends, tu y crois encore, vraiment, qu'on va s'en sortir par régularisation ? -Mais oui, là on est dans les détails techniques, mais globalement quand même on a drôlement avancé ! On a compris le coup des résonances et de l'écho plasma, on a compris le principe du time cheating, on a des bonnes estimées de scattering, on a les bonnes normes, on y est presque! Ce jour-là Clément a dû me prendre pour un optimiste pathologique, de ceux dont on dit qu'ils sont fous à lier, qui continuent à espérer contre toute attente alors qu'aucune is- sue n'est en vue. La nouvelle impasse semble terrible, mais j'y crois encore. Il faut dire qu'au cours des trois dernières semaines nous avons déjà été trois fois dans des impasses, et à chaque fois nous avons réussi à trouver une issue de secours. Il est vrai aussi que les obstacles qui semblaient vaincus sont revenus nous narguer sous une forme diffé- rente ... Décidément, l'amortissement Landau non linéaire, c'est l'Hydre de Lerne ! Mais ce jour-là, je suis convaincu, envers et contre tout, que rien ne pourra nous arrêter. Mon cœur vaincra sans coup férir. Date: Mon, 2 Feb 2009 12:40:04 +0100 Subject: Re: global-10 From: Clement Mouhot <cmouhot@ceremade.dauphine.fr> To: Cedric Villani <Cedric.VILLANI@umpa.ens-lyon.fr> Je te donne des remarques au fil de l'eau : -pour les normes a deux shifts, pour le moment je reste confiant, je suis en train de regarder en detail le scattering pour voir si les estimations que j'ai 108 sont suffisantes pour le passer en normes a deux shifts, -ok sur la section 5, ca s'emboite effectivement nickel le transfert de regularite + gain de decroissance, ca fait un truc tres joli ! Si je comprends l'apport de la partie 11 gain de decroissance 11 c'est de reporter le 11 gros 11 decalage sur le shift sur une seule des fonctions (ca devient un decalage entre les deux shifts de la norme a deux shifts), en esperant qu'en appliquant ca au champ cree par la densite, ca sera indolore ? -sur la section 6, ok sur l'idee generale et les calculs, mais (1) je ferais plutot sans sommer les series en k et 1 car les coefs m'ont pas l'air sommables (pas grave), (2) pour pouvoir prendre epsilon petit dans les hypotheses du theo. 6.3, il me semble necessaire d'avoir c petit aussi, est-ce verifie dans la suite ? D'autres remarques a suivre ... amicalement, clement Date: Sun, 8 Feb 2009 23:48:32 -0500 From: Cedric Villani <Cedric.VILLANI@umpa.ens-lyon.fr> To: Clement Mouhot <cmouhot@ceremade.dauphine.fr> Subject: news Alors, deux bonnes nouvelles : - la lecture des articles sur l'echo plasma montre que ce phenomene est cause par precisement les memes 11 resonances 11 qui posent tant de souci dans la section 6. En fait j'ai ete d'autant plus bluffe qu'ils utilisent des notations presque identiques, avec un \tau... Cela me renforce dans la conviction que le danger identifie dans la section 6 est physiquement significatif, en bref il s'agit de savoir si les ECHOS AUTOCONSISTANTS dans le plasma vont s'accumuler pour detruire peu a peu le damping. -je crois que j'ai trouve la bonne faconde traiter le terme \ell = 0 que j'avais mis de cote 11 provisoirement 11 dans la section 5 (dans \sigma_O du Theoreme 5.8 : on l'estime comme le reste, mais on garde tous les termes, et on utilise le fait que \1 \int f(t,x,v) dx \1 = 0(1) en temps grand (ou plutot 109 \1\int \nabla_v f(t,x,v) dx \1 = 0(1)) Ceci N'EST PAS une consequence de notre estimee sur f(t,x,v) dans la norme glissante, c'est une estimee en plus. Pour une solution du transport libre, \int f(t,x,v) dx est preserve au cours du temps, donc c'est parfaitement raisonnable. Quand on ajoute le scattering, ca ne sera plus 0(1), mais O(t-\tau) ou quelque chose comme ca, et alors ce doit etre tue par la decroissance exponentielle en t-\tau que j'ai gardee dans la presente version du Theoreme 5.8. Les modifications que j'ai faites dans la version ci-attachee sont : * modifications dans les sections 1 et 2 pour bien rendre compte de ces papiers sur l'echo plasma (j'avais pas bien compris quelle etait l'experience, et probablement tous les matheux sont passes a cote de l'importance majeure de ce truc, la je crois qu'on a des kilometres d'avance sur les autres) * ajout d'une sous-section a la fin de la section 4 pour preciser quelles sont les normes en temps avec lesquelles on va travailler; j'y mentionne cette histoire de regularisation par moyenne spatiale, qui est d'ailleurs egalement coherente avec les sources indiquees par Kiessling * modifications dans la section 5 pour tenir compte du traitement du terme \ell=O * ajout d'une reference sur l'experience plasma Une CONSEQUENCE IMPORTANTE est que dans la section 8 il faudra non seulement propager la regularite glissante surf, mais aussi propager la regularite (en v) uniforme (en t) sur \int f dx. Je n'ai fait aucune modif dans la section 7 mais comme tu as du le comprendre, ce que j'ai mis dans la section 7.4 "Ameliorations" est perime, au sens ou je l'ai ecrit avant d'avoir realise que c'etait la difference (\lambda \tau + \mu) -(\lambda' \tau' + \mu'), ou quelque chose du meme tonneau, qui devrait vraiment compter. Je n'ai pas modifie non plus la section 8 mais il y a plein de trucs que j'avais ecrits qui sont aussi caducs au sujet du "zero mode" de f_\tau. 110 Quelles nouvelles de ton cote ? Maintenant tout repose sur la section 7. Amities Cedric Date: Sat, 14 Feb 2009 17:35:28 +0100 Subject: Re: global-18 final From: Clement Mouhot <cmouhot@ceremade.dauphine.fr> To: Cedric Villani <Cedric.VILLANI@umpa.ens-lyon.fr> Voila donc la version 19 avec une version complete des enonces des theoremes 7.1 et 7.3 de scattering en norme hybride a un et a deux shifts. Apparemment (ouf !) le theoreme de composition avec deux shifts de la section 4 est suffisant pour la preuve. Ca a l'air de tourner mais il faut que tu verifies bien, la version a deux shift est encore une horreur. J'ai pas integre encore la correction Sobolev, mais ce point est surement moins dangereux. Sinon j'ai modifie un truc (y compris dans le theoreme a un shift) : les estimations sur les pertes d'indices et d'amplitude sont maintenant non seulement uniformes, mais tendent vers 0 en \tau \to +\infty, comme demande dans la section 8. Et ces pertes sont en O(t-\tau) pour (t-\tau) petit. Je m'y remets demain, pour ajouter la correction Sobolev, et completer la section 8 en fonction de la section 7. Amicalement, clement Date: Fri, 20 Feb 2009 18:05:36 +0100 Subject: Re: Version 20 en cours From: Clement Mouhot <clement.mouhot@ceremade.dauphine.fr> To: Cedric Villani <Cedric.VILLANI@umpa.ens-lyon.fr> Voici la version 20 toujours en cours avec le theoreme stratifie a deux shifts complet. Il y a maintenant un probleme de fond par rapport au theoreme 5.9 : b ne peut pas tendre vers 0 au cours du schema de Nash-Moser dans ces resultats (comme demande dans le theoreme 5.9) car il sert a corriger un terme d'erreur du au scattering lui-meme, qui ne tend pas vers zero vu qu'il est lie au champ... Je regarde maintenant en detail le theoreme 5.9. amicalement, clement CHAPITRE 18 Princeton) le 2 7 février 2009 Aujourd'hui, c'est un peu la fête à l'Institut : un col- loque d'équations aux dérivées partielles géométriques. Très beau casting, avec de nombreuses vedettes : tous les orateurs pressentis ont accepté l'honneur de venir parler à Princeton. Dans la salle de conférences, je me suis installé tout au fond, debout derrière le grand bureau qui sert à l' occa- sion de régie. C'est la meilleure place, je l'ai piquée à Peter Sarnak, l'un des professeurs permanents de l'Institut. Ici je suis sûr de rester bien en éveil, et je peux étaler mes brouillons sur le bureau, alors que les assis, moins proté- gés de l'assoupissement, doivent se contenter d'une petite tablette. Tout en écoutant le conférencier, j'arpente à l'occasion le fond de la salle en chaussettes. C'est idéal pour activer les idées. À la pause, je me précipite, toujours en chaussettes, vers mon bureau à l'étage. Coup de fil à Clément. -Clément, tu as vu mon message d'hier, et le nouveau fichier? -Le nouveau schéma que tu obtiens en écrivant d'abord la formule des caractéristiques ? Oui, je vois le truc, j'ai commencé à écrire des calculs, mais ça m'a l'air assez monstrueux. 113 Décidément, le mot « monstrueux » revient sans cesse dans nos conversations ... -Je sens venir des problèmes de convergence, reprend Clément. J'ai peur même pour le schéma de Newton et les termes d'erreur de linéarisation. Et puis il y a un autre truc plus technique, c'est que dans tous les cas tu auras le scat- tering de l'étape précédente qui n'est pas petit ! Je suis vexé que ma brillante idée ne l'ait pas convaincu. -Bon, on va voir, si ça marche pas tant pis, on reste avec le schéma actuel. - En tout cas c'est flippant, on a déjà écrit plus de cent pages de démonstration, et on y est toujours pas! ! Tu crois vraiment qu'on va y arriver? -Patience, patience, on y est presque ... En bas, la pause est finie, je redescends en hâte pour profiter de la suite du colloque. Les équations aux dérivées partielles (EDP) sont des re- lations entre les taux de variation de certaines quantités en /onction de dz//érents paramètres. Il s'agit d'un des domaines les plus dynamiques et variés des sciences mathématiques, défiant toute tentative d'unification. Les EDP se retrouvent dans tous les phénomènes de la physique des milieux conti- nus, et concernent tous les états de la matière : gaz, fluides, solides, plasmas; ainsi que toutes les théories physiques : clas- sique, relativiste, quantique, etc. Mais les équations aux dérivées partielles se retrouvent aussi derrière de nombreux problèmes géométriques; on parle alors d'EDP géométriques. Elles permettent de déformer des objets géométriques selon des lois bien déterminées. Dans ce domaine, on applique un mode de pensée analytique à un problème de géométrie : mélange des genres qui est devenu de plus en plus fréquent tout au long du vingtième siècle. Le colloque de février 2009 à Princeton abordait trois thèmes principaux : les géométries con/ormes (des chan- gements de géométries qui distordent les distances mais 114 préservent les angles)). le transport optimal (comment trans- porter de la masse d) une configuration initiale prescrite à une configuration finale également prescrite) en dépensant le moins d) énergie possible); et les problèmes de frontière libre (où r on recherche la forme de la frontière qui sépare deux états de la matière) ou deux matériaux). Trois domaines qui touchent aussi bien à la géométrie et à r analyse qu) à la phy- szque. Dans les années 50) John Nash avait en son temps boule- versé les équilibres entre géométrie et analyse) quand il avait découvert que le problème géométrique abstrait du plonge- ment isométrique pouvait se résoudre par des techniques de décorticage fin d) équations aux dérivées partielles. Il y a quelques années) pour résoudre la conjecture de Poincar~ Grigori Perelman utilisa une EDP géométrique ap- pelée flot de Ricci) inventée par Richard Hamilton. Cette réso- lution analytique d) un problème emblématique de la géomé- trie a bouleversé à nouveau les équilibres entre disciplines) et provoqué un essor sans précédent en faveur des EDP géomé- triques. La bombe de Perelman résonne comme un écho de celle de Nash) à cinquante ans de distance. CHAPITRE 19 Princeton) le 1er mars 2009 Incrédule, je lis et relis le message qui vient de s'afficher sur l'écran de mon ordinateur. Clément a un nouveau plan ? Il ne veut plus faire de ré- gularisation? Il ne veut plus regagner la perte de régularité encodée dans le décalage en temps? D'où il sort ça ? Depuis plusieurs mois on a en tête de faire tourner un schéma de Newton avec régularisation, comme dans Nash-Moser; et maintenant Clément me dit que c'est un schéma de Newton sans régularisation qu'il faut faire ! ? Et il dit qu'il faut estimer le long des trajec- toires, en gardant le temps initial et le temps final, avec deux temps différents ? ? Pourquoi pas, après tout. Mais quand même ! Cédric, il faut faire attention, les jeunes sont redoutables, tu es en train de te faire dépasser ! D'accord, c'est inéluctable, les jeunes finissent toujours par vaincre ... mais ... déjà ? Remettons les larmoiements à plus tard, pour l'instant il faut essayer de comprendre ce qu'il a voulu dire. Enfin, c'est quoi cette histoire d'estimations, pourquoi faudrait-il garder la mémoire du temps initial? Au bout du compte, Clément et moi on se sera bien par- tagé les trouvailles sur ce projet : à moi les normes, les esti- mations de déflexion, la décroissance en temps grand et les 117 échos ; à lui le time cheating, la stratification des erreurs, les estimations à deux temps et le procédé sans régularisation. Et puis il y a l'idée des normes glissantes, née d'une séance de travail en commun, et dont on ne sait pas vraiment à qui elle est due ... Sans parler bien sûr des centaines de petites astuces. Et si on y repense, c'était pas si mal, qu'on ait divergé en milieu de projet : pendant un mois ou deux chacun était braqué sur sa propre idée et restait sourd aux arguments de l'autre, mais maintenant on a compris qu'il fallait marier les deux points de vue. En tout cas, si Clément a raison, le dernier grand verrou conceptuel vient de sauter. En ce dimanche 1er mars notre entreprise entre dans une nouvelle phase, plus fastidieuse mais plus sûre. Le schéma d'ensemble est en place, c'est la fin de l'exploration tous azimuts. Maintenant il faut consoli- der, renforcer, vérifier, vérifier, vérifier ... Ce sera le moment de mettre en œuvre notre puissance de feu en analyse ! Bien plus tard, Clément m'avouera que durant ce week-end il s'était résolu à tout arrêter. Samedi matin il a commencé à rédiger un message sinistre:« Tout espoir est perdu ... l'écueil technique en face de nous est insurmon- table ... aucune piste en vue ... j'abandonne. » Mais il a re- culé le moment d'envoyer, il a voulu chercher les mots pour me convaincre et me réconforter, il a mis son message en réserve. Le soir venu, quand il a repris sa rédaction, armé d'une feuille et d'un crayon pour se remettre en tête les pistes infructueuses, il a vu avec stupéfaction la bonne tac- tique s'ouvrir devant lui. Le lendemain, levé à 6 heures du matin après quelques heures de sommeil agité, il a tout ré- écrit pour mettre au propre l'idée clé qui doit nous tirer de l'ornière. Ce jour-là on est passés à un cheveu de l'abandon du projet. Plusieurs mois de travail ont failli disparaître - au mieux au réfrigérateur, au pire en fumée. 118 Mais de l'autre côté de l'Atlantique, je ne soupçonne pas qu'on a frôlé la catastrophe, tout ce que je vois, c'est l'enthousiasme qui transpire dans le message de Clément. Demain je garde les enfants, il n'y a pas école à cause de la tempête de neige; mais dès le lendemain, ça va barder, il n'a qu'à bien se tenir, le Problème. Je vais emmener Landau avec moi partout, dans les bois, sur la plage, dans mon lit, ça va être sa fête. En février 2009 j'ai échangé avec Clément une bonne centaine de mails; en mars ce sera plus de 200. Date: Sun, 1 Mar 2009 19:28:25 +0100 Subject: Re: global-27 From: Clement Mouhot <cmouhot©ceremade.dauphine.fr> To: Cedric Villani <Cedric.VILLANI©umpa.ens-lyon.fr> Peut-etre un espoir sur une autre piste : ne pas regulariser mais essayer de propager la norme a un shift dont on a besoin a chq etape du schema, mais le long des caracteristiques de l'etape precedente. Donc dans l'ordre on estimerait au rang n (j'ecris pas a chaque fois les pertes sommables sur lambda et mu) : 1) norme F de la densite \rho_n d'indice lambda t + mu 2) norme Z de la distrib h_n d'indice lambda, mu et t 3) norme C de la moyenne spatiale <h_n> d'indice lambda 4) norme Z au temps tau avec un shift -bt/(1+b) le long des caracteristiques (completes) S_{t,tau} de l'ordre n-1. On derive en tau pour obtenir une equation sur H_tau := h-n _tau \circ S_{t,tau} -{n-1} du type (je mets pas les eventuels signes moins) \partial_tau H = (F[h-n] \cdot \nabla f-{n-1}) \circ S_{t,tau} -{n-1} + (F[h-{n-1}] \cdot \nabla h-{n-1}) \circ S_{t,tau} -{n-1} Donc en gros dans cette equation il n'y a plus du tout le champ et on traite tout le membre de droite comme un terme source, en utilisant les bornes du point 1) sur la densite : On estime la norme Z avec le shift b sur la densite on traite l'erreur commise a cause 119 des caracteristiques par ce shift (car la norme est projetee sur x) et pour les autres termes on utilise l'hypothese de recurrence du point precedent pour borner les normes en presence. 5) Il faut maintenant avoir une borne (en norme shiftee) sur f-n \circ S_{t,tau} -n (avec les caracteristiques du bon ordre n), en utilisant la borne de l'hypothese de recurrence (en norme shiftee) sur f-{n-1} \circ S_{t,tau} -{n-1} Grace au point 4) ci-dessus par addition on obtient une borne sur f-n \circ S_{t,tau} -{n-1} Puis il faut utiliser qu'on peut borner f-n \circ S_{t,tau} -n (caracteristiques du crann) en fonction de f-n \circ S_{t,tau} -{n-1} (caracteristiques du cran n-1) modulo une perte, sommable quand n tend vers l'infini. L'idee en general en resume serait : - Pour estimer la densite, on a pas le choix, il faut des caracteristiques et une norme shiftee (avec un shift d'ordre 1) sur la distribution du cran precedent, le long des caracteristiques du cran precedent, - Mais une fois qu'on a la borne sur les caracteristiques, on peut travailler le long des caracteristiques et en norme shiftee, car projetes sur la densite, ces deux phenomenes s'annulent. Un point par contre mis de cote dans ce que je viens de dire c'est le gradient en v sur le background, qui ne commute pas avec la composition par les caracteristiques, mais on pourrait esperer qu'on ait quelque chose comme norme shiftee de ( \nabla_v f-{n-1} ) \circ S_{t,tau} -{n-1} plus petit que constante fois norme shiftee de \nabla_v ( f-{n-1} \circ S_{t,tau} -{n-1}) ... Si tu es dans le coin on peut en discuter au tel je suis chez moi encore une heure : je crois que ca rejoint en bonne partie ton schema, avec la difference de distinguer fondamentalement deux etapes et de regarder les choses le long des caracteristiques que dans un deuxieme temps. Amicalement, Clement 120 Date: Mon, 2 Mar 2009 12:34:51 +0100 Subject: Version 29 From: Clement Mouhot <clement.mouhot@ceremade.dauphine.fr> To: Cedric Villani <Cedric.VILLANI©umpa.ens-lyon.fr> Donc voici une version 29, ou j'ai vraiment essaye d'implementer la strategie dont je te parlais hier c'est dans la section 9 de stabilite lineaire que j'ai entierement reecrite, et les sous-sections 11.5 et 11.6 de la section du schema de Newton ou j'ai mis les grandes lignes de l'etude de convergence. Sauf grosse erreur, j'ai vraiment l'impression qu'on arrive au but ! ! CHAPITRE 20 Princeton, le 11 mars 2009 De retour de la savoureuse cantine. Conversation pleine d'entrain, de mathématique et de ragots. Aujourd'hui Peter Sarnak était attablé en face de moi, je l'ai lancé sur son patron, Paul Cohen, celui qui a prouvé l'indécidabilité de l'hypothèse du continu avant de se tour- ner vers d'autres horizons mathématiques, celui pour qui le jeune Peter, en quête du frisson de la recherche, a quitté son Afrique du Sud natale. Avec son enthousiasme bien connu, Peter avait évoqué Cohen et son goût pour la résolution de problèmes ex nihilo, sans s'appuyer sur les travaux des autres. Peter Sarnak -Cohen ne croyait pas aux mathématiques incrémen- tales! -Incrémentales? - Oui, il pensait que la mathématique progresse par sauts brusques. Toi et moi, comme les autres, on progresse 123 surtout en améliorant d'autres travaux, mais pas Cohen ! Il ne fallait pas lui parler d'améliorer quelque chose, on se serait fait rembarrer. Il ne croyait qu'aux révolutions. Toujours un plaisir d'être à côté de Peter. À table il y avait aussi mon jeune voisin de bureau, Emanuel Milman, israélien, jeune étoile montante de la géométrie des convexes. Fils, petit-fils et neveu de mathématiciens, Emanuel est récemment devenu papa. D'un futur mathé- maticien ? En tout cas il parle avec autant d'enthousiasme de ses espoirs mathématiques que de son merveilleux rejeton. Près d'Emanuel, il y avait Sergiu Klainerman, qui a fui la Roumanie communiste dans les années 70. Sergiu est devenu mondialement célèbre quand il a prouvé, avec le phénoménal mathématicien grec Demetri Christodoulou, un résultat fondamental de Relativité Générale, dans une démonstration-fleuve de 500 pages. J'aime beaucoup discu- ter avec Sergiu de mathématique, de politique et d'écologie, tous sujets sur lesquels nos sensibilités divergent souvent. Et puis si la conversation était si animée à notre table, c'était aussi grâce à Joel Lebowitz, qui malgré ses quatre- vingts ans sonnés déborde toujours d'énergie. Joel s'inté- resse à tout, veut tout savoir, et si on le branche sur la physique statistique, son domaine de prédilection, il est in tarissable. JoeL Lebowitz Je profite de ce que Joel est là pour lui demander d'ex- pliquer à Emanuel le problème de la transition de phase 124 d'un gaz de sphères dures. Simple à poser, fondamental, et défiant l'imagination de toute la communauté de la phy- sique statistique depuis un demi-siècle. Après tout, n'est-ce pas inadmissible qu'en 2009 on ne sache toujours pas expliquer le mystère du changement d'état: pourquoi un liquide se change-t-il en gaz quand on le chauffe, pourquoi se transforme-t-il en solide quand on le refroidit ? Qui sait, un jeune comme Emanuel pourrait avoir une nouvelle idée ... Après la pause du repas, tous les problèmes en cours me reviennent en tête. Il y a toujours des questions admi- nistratives à régler du côté de l'Institut Poincaré, ou plu- tôt de mon rattachement lyonnais que je souhaite conser- ver tout en exerçant mon mandat de directeur. Au labo, ma grande complice Alice Guionnet défend mes intérêts, mais tout est si compliqué ... Et j'ai une série de séminaires à préparer, et surtout, l'amortissement Landau ne tient tou- jours pas debout ! Dans les dix derniers jours, Clément et moi, nous avons rédigé dix nouvelles versions de notre ar- ticle; la dernière en date porte le numéro 36 et compte 130 pages. Nombre de fautes ont été repérées et réparées, une section très instructive de contre-exemples a été ajou- tée, mon collègue lyonnais Francis Filbet nous a fourni de merveilleuses images d'amortissement Landau réalisées par ordinateur. Mais il reste tant à faire ! Alors dans ma tête ça récapitule en sourdine : il faut affiner les estimations sur les caractéristiques et /aire passer le supremum à l'intérieur de la norme) se concentrer sur les @ rw interactions coulom- biennes) ajouter un indice de correction de régularité Sobolev un peu partout (sept indices) porca miseria .' )) garder la stra- tification dans l'exponentielle le long du schéma de Newton) /aire tourner l'énorme récurrence ... Mais l'infatigable Joel m'entraîne dans une séance de travail avec un autre collègue français, et je sens un grand désespoir m'envahir. Il y a tellement de choses sur lesquelles je devrais me concentrer, et voilà plusieurs jours que je 125 travaille jusqu'à deux heures du matin ... dans la torpeur de l'après-repas, je suis à peine en état de rassembler mes idées. Impossible de dire non à Joel, mais voyant la séance de tra- vail s'allonger, je craque et j'opte pour un vil subterfuge : je prends congé en déclarant que je dois aller chercher les enfants à l'école (alors qu'aujourd'hui c'est leur maman qui fait le job); puis j'attends que les deux confrères partent tra- vailler dans une autre salle, reviens discrètement dans mon bureau, m'allonge à même le sol, m'endors et laisse mon cerveau tourmenté remettre ses pensées en ordre. Sitôt réveillé, je me remets au travail. Paul Cohen, jeune collègue et rival ambitieux de Nash à Princeton, est l'un des esprits les plus créatifs du vingtième siècle. Son plus grand titre de gloire est la solution de l' hy- pothèse du continu, aussi appelée problème du cardinal in- termédiaire. Cette énigme, qui faisait partie de la liste des 23 problèmes phares énoncés par Hilbert en 1900, était à l'époque considérée comme l'une des plus importantes en ma- thématique,· sa résolution lui vaudra bien évidemment la mé- daille Fields, en 1966. Pour expliquer l'hypothèse du continu, quelques rappels seront utiles. Les nombres entiers (t 2, 3, 4, .. .) sont en nombre in/inz~ bien sûr. Les nombres fractionnaires (112, 315, 4127, 53417843/14366532, .. .) aussi. Les nombres fraction- naires semblent plus nombreux que les nombres entiers, mais ce n'est qu'une illusion : on peut dénombrer les fractions, par exemple 1, 1/2,2/1, 1/3,3, 1/4,2/3,3/2,4, 1/5,5, 1/6,2/5,3/4, 4/3' 512, 6, ... et ainsi de suite en augmentant peu à peu la somme (nu- mérateur + dénominateur) -comme l'explique si bien Ivar Ekeland dans son réjouissant conte, Le Chat au pays des nombres. Il n'y a donc pas plus de nombres fractionnaires que de nombres entiers, il y en a exactement autant. 126 En revanche, si l'on se tourne vers les nombres réels, ceux qui s'écrivent avec une infinité de décimales (ce sont aussi les limites de nombres fractionnaires), alors un magnifique argument dû à Cantor montre que ceux-là sont en quantité bien plus grande, il est impossible de les compter. Nous avons donc une quantité infinie de nombres entiers, et une quantité infinie encore plus grande de nombres réels. Alors, existe-t-il un infini qui soit à la /ois plus grand que celui des entiers et plus petit que celui des nombres réels ? Des générations de logiciens se sont cassé les dents sur ce problème, certains cherchant à montrer que ouz~ cet infini intermédiaire existe; d'autres au contraire que non, il n'existe pas. Paul Cohen n'était pas spécialiste de logique, mais croyait au pouvoir de son cerveau; un jour il se mit à travailler à ce problème, et à la stupéfaction générale montra que la réponse n'est ni ouz~ ni non. Il existe un monde mathématique avec un infini intermédiaire, il existe aussi un monde mathématique sans infini intermédiaire, et c'est à nous de choisir lequel nous souhaitons. L'un ou l'autre sera juste, si on le désire. Joel Lebowitz est le pape de la physique statistique, la science qui cherche à découvrir les propriétés des systèmes constitués d'un très grand nombre de particules. Gaz /ait de milliards de milliards de molécules, populations biologiques faites de millions d'individus, galaxies /ait es de centaines de milliards d'étoiles, réseaux cristallins faits de milliards de mil- liards d'atomes... ils sont nombreux, les problèmes qui re- lèvent de la physique statistique .' Et depuis presque soixante ans, Joel met son énergie inépuisable au service de sa passion, travaillant sans relâche avec ses collègues mathématiciens et physiciens. Avec deux sessions par an depuis plus d'un demi- siècle, la série de colloques qu'il a mise en place est certaine- ment la plus ancienne et la plus fournie de toutes les séries organisées par un chercheur en activité. 127 Né en Tchécoslovaquie il y a plus de quatre-vingts ans) Joel a eu une vie tellement remplie) de bons et de mauvais souvenirs. Sur son avant-bras un numéro est tatoué) il n) en parle jamais. Dans toutes les compagnies) Joel est le premier à rire et à boire) et à discuter de physique statistique bien sût; sur tous les airs et sur tous les tons. On devrait mesurer t énergie des gens en milli-]oels) en millièmes de foe~ disait t un de nos confrères en riant : un millième de t énergie de Joel c) est déjà bien. Ou peut-être même un pico-foe~ en y refléchissant. Date: Mon, 9 Mar 2009 21:42:10 +0100 From: Francis FILBET <filbet@math.univ-lyon1.fr> To: Cedric Villani <Cedric.VILLANI@umpa.ens-lyon.fr> Cc: Clement Mouhot <cmouhot@ceremade.dauphine.fr> Hello Voila le resultat du week-end. Des petits films, c'est pas grand chose (ca vaut pas un Desplechin) : dans la partie simul numerique de particules chargees. http://math.univ-lyon1.fr/-filbet/publication.html C'est le cas plasma. J'ai pas encore change le signe pour le cas gravit mais je suis tres etonne par ce que tu dis. Je pense qu'il faut un fond neutralisant pour garder un potentiel periodique i.e. \int_O~L E(t,x)dx= 0 lorsque l'on a des cond aux limites periodiques Date: Mon, 9 Mar 2009 22:11:10 +0100 From: Cedric VILLAN! <Cedric.VILLANI@umpa.ens-lyon.fr> To: Francis FILBET <filbet@math.univ-lyon1.fr> Cc: Cedric Villani <Cedric.VILLANI@umpa.ens-lyon.fr>, Clement Mouhot <cmouhot@ceremade.dauphine.fr> Les images sont magnifiques ! C'est tres emouvant de voir 11 en vrai 11 les effets des equations sur lesquelles on a bosse 11 dans l'abstrait 11 •••• Cedric CHAPITRE 21 Princeton) le 13 mars 2009 Je referme la porte de la chambre des enfants, ma fille glousse encore dans son lit en repensant aux aventures de Goofy, le héros de l'histoire imaginaire du jour. Dormez pe- tites merveilles) il fera jour demain. Dans son lit elle aussi, Claire profite de sa dernière occa- sion de réviser son japonais avant son départ sur le terrain avec ses collègues géologues, demain à l'aube. C'est le mo- ment propice pour me mettre au travail. Je prépare un thé, j'étale mes brouillons. Encore une montagne de problèmes techniques, qu'on est en train d'abattre au fur et à mesure avec Clément. Le plus gros morceau de la démonstration, la section 10, est en cours de construction. Il y a ce fichu contrôle du mode zéro, j'en étais sûr, qu'il allait me faire baver. Et je dois exposer le résultat dans dix jours ! Dix petits jours pour faire tenir tout ça debout. Date: Fri, 13 Mar 2009 21:18:58 -0500 From: Cedric Villani <Cedric.VILLANI@umpa.ens-lyon.fr> To: Clement Mouhot <cmouhot@ceremade.dauphine.fr> Subject: 38 ! En attachement la version 38. Les modifs : - 2-3 typos corriges par ci par la que tu pourras voir avec diff en cas de besoin 129 -la section 9 est maintenant complete modulo un certain nombre de formules, c'est le moment d'etre courageux et de mener les calculs au bout ! C'est assez beau de voir comme tous les ingredients s'emboitent pour aboutir au resultat. L'organisation de cette section justifie a posteriori le plan de l'ensemble du papier (en particulier de mettre les caracteristiques au debut). Quelques repassages devraient permettre de mettre la section en forme, et apres ce sera mur pour le choix des constantes (Bonjour les calculs !) -j'ai coupe en gros tous les anciens commentaires, en particulier ceux lies a la regularisation. -il reste cependant deux trous lies aux moyennes spatiales ! * le premier concerne la necessite de stratifier les estimations sur < \nabla h-k \circ \Om-n > (section 9.4). Ceci est delicat, comme je l'explique dans le fichier, on ne peut pas s'appuyer sur la recurrence, et on ne peut pas s'appuyer sur de la regularite car \Om-n est tres peu regulier. La seule solution que je voie consiste a utiliser de la regularite Sobolev additionnelle des caracteristiques, qui elle est propagee uniformement en n. Attention, c'est de la regularite en vitesse qu'on a besoin, mais normalement c'est OK, la regularite Sobolev de la force entraine de la regularite sur toutes les variables. Il faut gagner exactement une derivee, ce qui veut dire que Coulomb apparait critique ici aussi ....... . * le deuxieme c'est le traitement du mode d'ordre 0 dans les estimations de la section 6, ou pour l'instant cela ne marche pas (constantes trop grandes pour qu'on continue a verifier le critere de stabilite). Je suis assez optimiste, je compte recycler mon ancienne idee d'utiliser le changement de variables du scattering, et les estimations sur les caracteristiques DIRECTES. A l'epoque de mes anciennes tentatives, je n'avais pas les bons ordres de grandeur en tete, on n'avait pas encore stratifie, bref on etait beaucoup moins bien armes. Je propose le partage suivant d'abord tu t'occupes de faire converger la section 9 en oubliant les deux 130 trous ci-dessus; puis tu t'occupes de regler son sort au premier trou. Pendant ce temps je bosse sur le deuxieme trou. A priori je ne touche pas au fichier tex dans les prochains jours. Pour le cas coulombien on verra ensuite, je pense que boucher les trous est prioritaire .... Cette semaine va etre un peu dure pour moi car je serai seul a gerer les enfants, et en prime il y a des invites au labo. Mais c'est un peu le sprint final. Amities Cedric CHAPITRE 22 Princeton} nuit du 15 au 16 mars 2009 Installé à même la moquette, entouré de feuilles de brouillon gribouillées, j'écris, je tape avec une exaltation fiévreuse. Aujourd'hui dimanche j'ai fait attention à ne pas faire de mathématique durant la journée, j'ai commencé par amener les enfants à un brunch chez Alice Chang où l'on côtoyait moult grands noms mathématiques. Professeur à l'Univer- sité de Princeton, conférencière plénière au Congrès In- ternational des Mathématiciens il y a quelques années, Alice Alice Chang est une spécialiste reconnue en analyse géométrique ; c'est elle qui m'a invité à l'lAS pour participer au programme qu'elle y organise cette année. 133 Ce matin, pendant le brunch, on a discuté d'un peu tout, et par exemple du fameux classement de Shanghai, ce classement de toutes les universités du monde, dont les politiques et les médias français sont si friands. Quand j'ai abordé ce sujet avec Alice, je me suis demandé comment elle allait réagir, elle qui est à la fois professeur dans l'un des départements de mathématique les plus célèbres du monde, et d'origine chinoise. Allait -elle manifester sa fierté devant l'importance qu'a pris ce classement chinois? Sa réaction m'a désarçonné. -Cédric, c'est quoi le classement de Shanghai ? Quand j'ai expliqué de quoi il retournait, elle m'a re- gardé comme si je marchais sur la tête. Cédric, je ne com- prends pas, il est considéré en France comme très presti- gieux d'être sur ce classement chinois?? (Coco, tu ne crois pas que tu inverses les rôles ? ) J'aimerais bien présenter Alice aux collègues français qui font de la politique, tiens. Enfin, ce n'est que tard le soir, une fois les enfants cou- chés, que je me suis mis à travailler. Et là c'est le miracle, tout semble s'enchaîner comme par enchantement ! Tout tremblant je rédige les 6 ou 7 dernières pages, qui, j'en suis persuadé, vont sonner la complétion de la démonstration, du moins pour des interactions plus régulières que l'interac- tion coulombienne. Il y a de nombreuses chausse-trappes, mais rien qui ne semble surmontable. À 2 h 30, je vais me coucher, mais ça s'agite tellement dans ma tête que je reste longtemps, longtemps éveillé, les yeux grands ouverts. À 3 h 30, je sombre dans le sommeil. À 4 h, mon fils vient me réveiller, il a trempé son lit. Ce n'est pas arrivé depuis des années, il fallait que ça arrive cette nuit ... C'est la vie, en avant, il faut changer les draps et tout le tintouin. Il y a des fois où tout conspire pour vous empêcher de dormir. Aucune importance ! 134 Tout mathématicien digne de ce nom a ressentz~ même si ce n) est que quelque/ois) r état d) exaltation lucide dans lequel une pensée succède à une autre comme par miracle ... Contrai- rement au plaisir sexue~ ce sentiment peut durer pendant plusieurs heures) voire plusieurs jours. André Weil CHAPITRE 23 Princeton, 22 mars 2009 Finalement, ma solution était encore fausse, il a fallu près d'une semaine pour s'en convaincre. La plus grande partie de la preuve tenait toujours, mais le maudit mode nul continuait à nous narguer ... pourtant, on s'approchait ! Depuis Taiwan où il a commencé à présenter nos tra- vaux publiquement, Clément a digéré mes idées, les a in- corporées aux siennes et les a cuisinées à sa propre sauce ; puis j'ai tout repris à la mienne. Maintenant c'est bien plus simple que ma première mouture, et ça marche ! Ça fait un an, jour pour jour, qu'on travaille sur cette démonstration, et pour la première fois elle a vraiment l'air de tenir debout ! Il est temps : j'annonce le résultat à Princeton dans deux Jours ... Date: Sun, 22 Mar 2009 12:04:36 +0800 Subject: Re: fignolage From: Clement Mouhot <clement.mouhot@ceremade.dauphine.fr> To: Cedric Villani <Cedric.VILLANI@umpa.ens-lyon.fr> Ca y est j'ai compris je pense ce que tu avais en tete pour la moyenne en espace!! Et je pense qu'il faut le combiner avec l'idee que je t'ai dit au tel (en fait les deux sont complementaires), voici le plan: (1) Je pense que le calcul que tu avais en tete pour utiliser la regularite meilleure et stratifiee du 137 background est le calcul pages 65-66 au debut de la section 6 : dans ce cas (pas de scattering), on peut effectivement utiliser "gratuitement" la marge de regularite sur le background pour creer de la croissance (independamment du niveau de regularite sur le champ de force) . (2) Il s'agit alors de se ramener a ce cas par l'idee que je t'ai dit au tel (le "reste" dont on parlait n'est pas nul, il doit etre traite par (1)) : a. on remplace $F[h-{n+1}] \circ \Omega-n _{t,\tau} \circ s-o_{\tau,t}$ par $F[h-{n+1}] \circ s-o _{\tau,t}$, le reste a une bonne decroissance en temps grace aux estimations sur $\Omega-n -Id$ > il nous reste donc \int_O -t \int_v F[h-{n+1}] \cdot < ( (\nabla_v f-n) \circ \Omega-n) > (x-v(t-\tau),v) \, d\tau \, dv b. maintenant on effectue l'idee de faire le changement de variable pour remplacer \Omega-n par \Omega-k dans \nabla_v f-n (pour n'importe quel k entre 1 et n) : on a plus le pb qu'il y avait avec l'application \Lambda car maintenant on ne compose plus \Omega-n X avec (\Omega-n)-{-1} \Omega-k mais on a seulement (\Omega-n)-{-1} \Omega-k, sur qui on a deja des estimations. c. on se debarrasse a nouveau de l'application (\Omega-n)-{-1} \Omega-k qu'on a reportee sur F[h-{n+1}] par le meme truc qu'a l'etape a., ce qui cree un nouveau terme de reste gentil qui decroit bien en temps, > il nous reste donc \sum_{k=1} -n \int_O -t \int_v F[h-{n+1}] \cdot < ( (\nabla_v h-k) \circ \Omega-k) (x-v(t-\tau),v) > \, d\tau \, dv d. maintenant seulement on intervertit le gradient en v avec la composition par scattering : < (\nabla_v f-n) \circ \Omega-k > = \nabla_v ( < f-n \circ \Omega-k > ) + reste avec bonne decroissance en \tau 138 > il nous reste donc \sum_{k=1} -n \int_O -t \int_v F[h-{n+1}] (x-v(t-\tau),v) \, \nabla_v U_k (v) \, d\tau \, dv avec des fonctions U_k (v) de regularite \lambda_k,\mu_k. e. A ce niveau la finalement on applique le calcul (1) des pages 65-66 pour chaque k, ce qui doit donner une estimation stratifiee uniforme. Dis-moi ce que tu en penses et si tu trouves pareil pour les calculs ... Amicalement, Clement CHAPITRE 24 Princeton, le 24 mars 2009 Premier séminaire à Princeton. Devant des collègues distingués, précis et surtout devant Elliott Lieb, cordial mais implacable. Pendant ce temps, Clément est à Taipei, où il expose également nos résultats. Douze heures de décalage horaire, la configuration optimale pour travailler efficacement! Et on se partage le monde : lui répand la bonne parole en Asie, et moi aux États- Unis. Cette fois on peut y aller, cela n'a plus rien à voir avec mon séminaire branlant à Rutgers, la démonstration est cor- recte à 90 o/o au moins, et tous les ingrédients majeurs sont identifiés; je suis sûr de mon coup, prêt à résister aux ques- tions et à expliquer la preuve. Si les résultats font leur petit effet, Elliott n'est pas convaincu par l'hypothèse de conditions aux limites pério- diques, qu'il considère comme aberrante. - Si ce n'est pas vrai dans l'espace tout entier, ça n'a pas de sens! -Elliott, dans l'espace tout entier il y a des contre- exemples, on est forcé de mettre des limites ! - Oui, mais il faut que le résultat soit indépendant des limites, sinon ce n'est pas physique ! -Elliott, Landau lui-même le faisait avec des condi- tions aux limites, et il a montré que le résultat dépendait 141 très fortement des limites, tu ne vas pas dire qu'il n'est pas physicien? -Mais ça n'a aucun sens ! Ce jour-là, Elliott est monté sur ses grands chevaux. Et il y a Greg Hammett, physicien du Princeton Plasma Phy- sics Laboratory, le PPPL, qui ne digère pas mon hypothèse de stabilité dans le cas des plasmas, trop forte pour être réa- liste. Si j'avais espéré un accueil triomphal, c'est plutôt raté ! Elliott Lieb est t un des plus célèbres et redoutés spécia- listes de physique mathématique. Membre du laboratoire de l'Université de Princeton aussi bien en mathématique qu'en physique, il a consacré une partie de sa vie à la quête de la stabilité de la matière : qu'est-ce qui /oree les atomes à se re- group et; plutôt qu'à rester tranquillement distincts les uns des autres? Pourquoi sommes-nous des êtres cohérents au lieu de nous dissoudre dans l'univers environnant ? C'est Freeman Dyson, physicien emblématique du vingtième siècle et main- tenant professeur émérite à l'JAS, qui posa ce problème en termes mathématiques et le défricha; il transmit ce virus à d'autres plus jeunes comme Elliot!. Tout entier perdu dans cette quête, Elliott est allé cher- cher la solution dans la physique, dans l'analyse, dans le cal- cul des énergies. Il a entraîné avec lui nombre de chercheurs, créé des écoles de pensée. Au passage, il a cueilli des preuves spectaculaires, des pépites qui ont changé la /ace de l'analyse mathématique. Pour Elliott, rien ne vaut une bonne inégalité pour com- prendre un problème. Une inégalité exprime la domination d'un terme par un autre dans une équation, d'une /oree par une autre, d'une entité par une autre. Elliot! a profondé- ment amélioré certaines inégalités célèbres : inégalités de Hardy-Littlewood-Sobolev, inégalités de Young, inégalités de Hausdorff-Young; et il a aussi laissé son nom à des inéga- lités fondamentales, comme les inégalités de Lieb-Thirring 142 ou les inégalités de Brascamp-Lieb, maintenant utilisées par de nombreux chercheurs à travers le monde. À près de 80 ans, Elliott est toujours actz/ Sa ligne irré- prochable reflète une hygiène de vie impeccable, ses commen- taires acérés sont redoutés de tous. Son visage s'éclaire quand il parle du Japon, d'inégalités ou de cuisine fine (qui en japo- nais veut aussi dire analyse mathématique). Elliott Lieb CHAPITRE 25 Princeton} le 1er avril2009 Premier avril, le jour des Poissons et des Fous! Aujourd'hui, toute la famille a regardé un épisode de Lady Oscar. Marie-Antoinette, Axel de Fersen et Oscar de Jarjayes ont virevolté dans de grands sentiments, alors que la Révolution française se prépare. Et le soir, avant de s'endormir, on écoute Gribouille sur Y ou Tube, Le Marin et la Rose. Quelle merveille! L'Internet a du bon. Au cours de la semaine passée, j'ai compris tant de choses en donnant des exposés sur l'amortissement Landau. Après mon premier exposé, une fois son irritation re- tombée, Elliott m'a fait des commentaires valables sur la difficulté conceptuelle associée au modèle coulombien pé- riodique. Au deuxième exposé, j'ai annoncé les principales idées physiques de la preuve. Elliott a bien apprécié le mélange de mathématique et de physique, il s'est montré bienveillant et intéressé. Au troisième exposé, j'ai trouvé la solution à la critique de Hammett et j'ai pu annoncer des hypothèses presque optimales sur la condition de stabilité et la longueur de per- turbation. J'ai présenté des résultats tout frais et seulement à moi- tié cuits, mais la stratégie a été payante : les critiques me 145 permettront de faire progresser mon travail à une vitesse considérable ! Encore une fois, il fallait se mettre en posi- tion vulnérable pour devenir plus fort. Et ... j'ai compris, enfin, le lien avec K.A.M. ! Ce sont les liens cachés entre différents domaines ma- thématiques qui ont fait ma réputation de chercheur. Ces liens sont si précieux! Ils permettent d'éclairer l'un et l'autre des domaines impliqués, dans un jeu de ping-pong où chaque découverte sur une rive en entraîne une sur l'autre. À 23 ans, avec mon collaborateur italien Giuseppe Toscani : mon premier résultat important, le lien entre la production d'entropie de Boltzmann, l'équation de Fokker-Planck et la production d'entropie des plasmas. Deux ans plus tard, avec mon collaborateur allemand Felix Otto : le lien caché entre l'inégalité de Sobolev loga- rithmique et l'inégalité de concentration de Talagrand. De- puis lors, deux autres démonstrations ont été proposées ... Ce travail était le coup d'envoi de mes aventures dans le domaine du transport optimal ; grâce à lui j'ai ensuite été invité à donner un cours de niveau recherche à Atlanta, qui a donné naissance à mon premier livre. Yves Meyer me l'avait dit, lors de ma soutenance de thèse : Il y a des relations, dans votre thèse, des identités mi- raculeuses.' Il y a vingt ans on se serait moqué de ce travai" on ne croyait pas aux miracles.' Mais moi j'y crois, et j'en dénicherai encore d'autres. Dans ma thèse je reconnaissais quatre pères spirituels -mon directeur Pierre-Louis Lions, mon tuteur Yann Brenier, et puis Eric Carlen et Michel Ledoux dont j'ai dévoré les travaux, qui m'ont ouvert grand les portes du monde des Inégalités. J'avais synthétisé ces quatre in- fluences, mais aussi ajouté d'autres éléments pour créer mon style mathématique propre, qui a ensuite évolué au gré des rencontres. 146 Trois ans après ma soutenance, avec mon fidèle colla- borateur Laurent Desvillettes, je découvrais un improbable lien entre l'inégalité de Korn en théorie de l'élasticité, et la production d'entropie de Boltzmann. Dans la foulée, je développais la théorie de l'hypocoer- civité, fondée sur une nouvelle analogie entre la probléma- tique de la régularisation et celle de la convergence vers l'équilibre, pour des équations aux dérivées partielles dis- sipatives dégénérées. Puis ce fut ce lien caché entre le transport optimal et les inégalités de Sobolev, que je mis au jour avec Dario Cordero-Erausquin et Bruno Nazaret; un lien qui a stupéfié nombre d'analystes croyant bien connaître ces inégalités ! En 2004, professeur invité du Miller Institute à Berkeley, je rencontrai mon collaborateur américain John Lott, alors invité du Mathematical Sciences Research Ins- titute ; ensemble nous avons montré comment utiliser des idées du transport optimal, issues de l'économie, pour abor- der des problèmes de géométrie non euclidienne et non lisse, le problème dit de la courbure de Ricci synthétique. La théorie qui en a résulté, parfois appelée théorie de Lou- Sturm-Villani, a fracassé certains murs entre analyse et géométrie. En 2007, soupçonnant quelque harmonie cachée, je de- vinais une relation forte entre la géométrie du lieu de cou- pure tangent et les conditions de courbure nécessaires à la régularité du transport optimal ; un lien qui semblait sorti de nulle part et que j'ai prouvé avec Grégoire Loeper. À chaque fois c'est une rencontre qui déclenche tout. À croire que je catalyse ! Et puis une ferme croyance en la recherche d'harmonies préexistantes - après tout Newton, Kepler et tant d'autres ont montré l'exemple. Le monde est tellement plein de liens insoupçonnés ! 147 Personne jamais ne suppose Qu'il y ait le moindre lien Entre le marin de Formose Et la rose de Dublin Et seul un doigt sur la bouche ... Personne non plus ne supposait qu'il y eût un lien entre l'amortissement Landau et le théorème de Kolmogorov. Enfin si, Étienne Ghys l'avait supposé, trompé ou en- sorcelé par je ne sais quel esprit malicieux. Un an après notre conversation, j'ai toutes les cartes en main et je le com- prends, maintenant, ce lien ! - Hmmm ... Une perte de régularité dans un contexte perturbatif, due à des phénomènes de résonances, est rat- trapée par un schéma de Newton exploitant le caractère complètement intégrable du système que l'on perturbe ... Je pouvais toujours chercher, tiens! Qui aurait été ima- giner un truc aussi tordu ? Et d'abord, l'amortissement Landau, qui aurait pu croire que c'était au fond une ques- tion de régularité! ? 148 Le marin et la rose (Huard) Y' avait un' /ois une rose Une rose et un marin I.: marin était à Formose La rose était à Dublin Jamais au monde ils n'se virent Ils étaient beaucoup trop loin Lui quittait pas son navire El!' quittait pas son jardin Au-d'ssus de la rose sage Des oiseaux passaient tout l'temps Et puis aussi des nuages Des soleils et des printemps Au-d'ssus du marin volage Des rêv's étaient tout pareils Aux printemps et aux nuages Aux oiseaux et aux soleils L'marin périt en septembre Et la ros', le même jour Vient se flétrir dans la chambre D'une fille en mal d'amour Personn' jamais ne suppose Qu'il y ait le moindre lien Entre l'marin de la Formose Et la rose de Dublin Et seul un doigt sur la bouche Un ang' beau comme un éclair J ett' quand le soleil se couche Des pétales sur la mer. CHAPITRE 26 Princeton, nuit du 8 au 9 avril 2009 Version 55. Au cours du fastidieux processus de relec- ture et peaufinage, un nouveau trou est apparu. Je fulmine. Ça commence à bien faire ! -Marre, de cette histoire ! Avant c'était la partie non linéaire, maintenant c'est la partie linéaire qui semblait sous contrôle et qui craque! On a déjà parlé de notre résultat un peu partout, la semaine dernière je l'ai annoncé à New York, demain Clément va le raconter à Nice, maintenant on n'a plus droit à l'erreur, il faut que ce soit vraiment juste ! ! N'empêche qu'il y a un problème et qu'il faut remettre en forme ce fichu Théorème 7 .4 ... Je suis seul à la maison avec les enfants endormis, les heures passent devant la grande baie vitrée qui donne sur la nuit noire. Assis sur le canapé, couché sur le canapé, à ge- noux devant le canapé, je mets en œuvre toutes mes astuces, je griffonne et griffonne. En vain. Cette nuit là, je vais me coucher à quatre heures du ma- tin, dans un état proche du désespoir. 151 Date: Mon, 6 Apr 2009 20:03:45 +0200 Subject: Landau version 51 From: Clement Mouhet <clement.mouhot@ceremade.dauphine.fr> To: Cedric Villani <Cedric.VILLANI@umpa.ens-lyon.fr> Je t'envoie la ou j'en suis, apres 120 pages de relecture en detail, j'en peux plus, je fais une soiree de pause. Je t'envoie la version 51, qui integre normalement (apres verification detaillee des mails) toutes tes modifs et demandes par mail (figures, remarques, dependance de constantes ... ), ainsi que ta section 10 reecrite (issue de la derniere version 50 que tu m'as envoyee) et la nouvelle section 12. De mon cote, j'ai fait une relecture integrale jusqu'a la section 9 incluse (donc jusqu'a la page 118). Il y pas mal de NdCM qu'il faut que tu regardes, et un paquet de corrections de details qui me semblent sans debat. Parmi les NdCM, seuls deux correspondent a des soucis dans les preuves (mais a chaque fois qui ne peuvent remettre le resultat en cause) : section 7 page 100 et section 9 page 116. Voici ce que je te propose pour la suite : de ton cote, tu pars de cette version 51 et tu reprends les sections 1 a 9 pour regarder mes NdCM et les enlever en tranchant a chaque fois, dans une version mettons 51-cv, et moi je fais une relecture en detail des sections 10-11-12-13-14 ? (on prevoit un envoi demain soir ou mercredi matin ?) Amicalement, Clement CHAPITRE 27 Princeton, matin du 9 avril 2009 Hhhhhh... que c'est dur de se réveiller. Je me lève à grand-peine, m'assois sur le lit. Uh? Il y a une voix dans ma tête. Il faut /aire passer le second terme de l'autre côt~ prendre la trans/armée de Fourier et inverser dans L 2 . Pas possible ! Je griffonne une phrase sur un bout de papier, harangue les enfants pour qu'ils se préparent, les fais petit déjeuner et les emmène, trottinant dans l'herbe humide, jusqu'à l'arrêt du bus scolaire. Un beau bus jaune et noir comme dans les films américains ! Tous les enfants montent sagement dans le bus, qui les emporte à l'école de Littlebrook. C'est drôle de penser à la concentration de fils et filles de scientifiques de haut ni- veau qui sont assis dans ce bus. Tiens, voici les enfants de mon compatriote Ngô Bao Châu, qui a quitté la région pa- risienne pour Princeton. Ngô a défrayé la chronique pour sa résolution spectaculaire d'un vieux problème appelé le Lemme Fondamental. C'est un domaine mathématique ré- puté pour sa difficulté, qui m'est totalement étranger. En tout cas, tout le monde donne Ngô comme grand favori pour le prochain tour de médailles Fields ! Voilà maintenant les enfants partis. À Littlebrook on les choiera, ils auront leur leçon d'anglais personnalisée pen- 153 dant la journée, et on s'occupera de leur donner confiance en eux - pour cela, on peut faire confiance aux maîtres amé- ricains. Cet après-midi ils rentreront heureux de leur jour- née, et ils seront encore heureux de faire leurs devoirs - fort heureusement, la haine des devoirs à la maison n'a pas encore touché les États-Unis, du moins pas Princeton. Vite, je rentre chez moi, je m'installe dans le fauteuil et je teste l'idée qui est apparue magiquement ce matin pour combler ce maudit trou. - Je reste en Fourier, comme me l'avait suggéré Michael Sigal, je ne vais pas du tout sur la transformée de Laplace, mais avant d'inverser je commence par séparer comme ceci, et puis en deux temps ... Je griffonne et contemple. Un instant de réflexion. Ça marche! Je crois ... Ça marche! ! ! C'est sûr! Bien sûr que c'est comme cela qu'il fallait faire. À partir de là on va pouvoir développer, ajouter les ingrédients, mais là j'ai déjà la trame. Maintenant ce n'est plus qu'une question de patience, je vois bien que le développement de l'idée aboutit à des schémas que je reconnais. J'écris les détails, longuement. C'est le moment de faire jouer mes dix-huit ans de pratique mathématique ! -Hmmm, maintenant ça ressemble à une inégalité de Young... et après c'est comme la preuve de l'inégalité de Minkowski ... on change de variables, on sépare les inté- grales ... Je passe en mode semi-automatique. À présent je peux faire usage de toute mon expérience ... mais pour en arriver là, il aura fallu un petit coup de fil direct. La fameuse ligne directe, quand vous recevez un coup de fil du dieu de la mathématique, et qu'une voix résonne dans votre tête. C'est très rare, il faut l'avouer ! Je me souviens d'une autre expérience de ligne directe. À l'hiver 2001, professeur à Lyon, je donnais des cours 154 à l'Institut Poincaré, tous les mercredis, pendant quelque temps. J'exposais ma quasi-solution de la conjecture de Cercignani quand, un mercredi, Thierry Bodin eau m'avait interpellé et demandé si je ne pouvais pas améliorer telle partie de l'énoncé. En réfléchissant dans le TGV retour, j'avais comme par illumination mis le doigt sur un schéma de preuve bien plus puissant, qui me permettait effective- ment de boucler la démonstration de la conjecture. Puis les jours suivants, j'avais complété l'argument pour traiter un cas plus général, extension de la conjecture en un certain sens; et je m'apprêtais à exposer fièrement les deux nou- veaux résultats le mercredi suivant. Mais le mardi, je découvris une erreur fatale dans la preuve du deuxième théorème ! Je passai toute ma soirée à essayer de la réparer, et je me couchai vers 3 ou 4 heures du matin sans succès. Le lendemain, à peine réveillé, je retournais le problème dans ma tête, ne pouvant admettre de renoncer à présenter mon résultat. J'allai à la gare, la tête encore pleine de pistes qui n'aboutissaient pas. Mais dès que je m'installai dans le TGV, l'illumination survint et je savais comment il fallait corriger la démonstration. Cette fois-là j'ai passé mon trajet dans le train à mettre le résultat sur pied, et je l'ai annoncé avec toute la fierté qui se peut imaginer. Publiée peu après, cette preuve made in TGV a fourni la matière de l'un de mes meilleurs articles. Et ce matin du 9 avril 2009, c'est une nouvelle petite illumination qui a frappé à la porte de mon cerveau pour tout éclairer. Dommage, les lecteurs de l'article ne se ren- dront sans doute pas compte de cette euphorie, l'illumina- tion sera noyée dans la technique .... * To state the main result of this section we shall write Z~ = zd \ {0}; and if a sequence of functions <P(k, t) (k E Z~, t E R) is given, then II<I>(t)IIÀ = L:k e 2 7l"Àikii<I>(k, t)i. We shall use K(s) <I>(t) as a shorthand for (K(k, s) <I>(k, t))kEzd, etc. * 155 Theorem 7.7 (Growth control via integral inequalities). Let f 0 = f 0 (v) and W = W(x) satisfy condition (L) from Subsection 2.2 with constants Co, Ào, K; in particular 1 ] 0 ( 1]) 1 ::; Co e- 2 7!" .\o ITJI. Let /urther Cw =max { L IW(k)l, sup lkiiW(k)l}. kEZ~ kEZ~ Let A ~ 0) f.-l ~ 0) À E (0, À*] with 0 < À* < Ào. Let ( <I> ( k, t)) kEZ~, t;:::o be a continuous /unction o/ t ~ 0) valued in ccz~) su ch th at Vt ~ 0, II<P(t) -l' K 0 (t-r) <P(r) drL+~ :'Ô A+ l' [Ko(t, r) + K1(t, r) + (l :r)m] II<P(r)ll>.r+~ dr, (7 .22) where co ~ 0) m > 1 and Ko(t, T)) K1 (t, T) are nonnegative kernels. Let<.p(t) = II<I>(t)lht+w Then (i) Assume 'Y > 1 and K1 = c K(a),, for some c > 0) o: E (0, a( 'Y))) where K(a),, is defined by and Œ ('Y) appears in Proposition 7.1. Th en there are positive constants C and~ depending only on 'Y, À*, Ào, K, co, Cw, m) uni- /orm as 'Y ~ 1) such that if and sup ft Ko(t,T)dT::; x t;:::o Jo (7 .23) sup (ft K 0 (t,T) 2 dT) 112 +sup1 00 Ko(t,T)dt:::; 1, (7.24) t2:0 lo T2:0 T 156 then/orany E E (0~ a), \:/ t ~ 0, where en 2~-~}. (7 .26) (ii) Assume K1 = :Ll<i<N Ci K(o:i),l /or some Œi E (0: a(l)), where a( 1) appears in Proposition 7.1; th en there is a numeric constant r > 0 such that whenever one has, with the same notation as in (z), Vt ~ 0, where N c= Lei, i=l <p(t) :'Ô CA (1 +:% eCco éT eCc(t+T') e'', (7 .27) Prao/ of Theorem 7. 7. We only treat (i), since the reasoning for (ii) is rather similar; and we only establish the conclusion as an a priori estimate, skipping the continuity/approximation argument needed to turn it into a rigorous estimate. Then the proof is done in three steps. 157 Step 1: Crude pointwise bounds. From (7.22) we have <p(t) = L I<I>(k, t)i e27r(.\t+JL)ikl ~A+ L ftjK 0 (k,t-r)je 2 7r(.\t+JL)ikii<I>(t,r)idr k Jo (7 .28) + 1' [Ko(t,r) +K1(t,r) + (1 :r)m] <p(r)dr 'SA+ 1' [ (s~p IKo(k, t-rJI e2"A(t-r)lkl) +KI(t,r)+Ko(t,r)+( co) ]<p(r)dr. l+rm We note that for any k E Z~ and t 2:: 0, jKo(k, t-r)j e27r.\lki(t-r) ~ 47r21W(k)l Co e-211"(.\o-.\)lklt lkl2 t ~ CCo (sup lkiiW(k)l) ~ CCoCw, Ào -À k=/=O Ào -À where (here as below) C stands for a numeric constant which may change from line to line. Assuming J Ko(t, r) dr~ 1/2, we deduce from (7 .28) <p(t) :::; A+ - 2 1 ( sup <p(r)) O~r~t +Cl(~~~~ +c(l+t)+ (l:r)m) <p(r)dr, and by Gronwall's lemma <p(t) ~ 2 Aec(\~~lf t+c(t+t 2 )+coCm), ( 7 . 29 ) where Cm= J 0 00 (1 + r)-m dr. Step 2: L 2 bound. This is the step where the smallness assump- tion (7 .23) will be most important. For ali k E Z~, t 2:: 0, we define \llk(t) = e-et <I>(k, t) e27r(.\t+JL)ikl' (7.30) 158 Rk(t) = e-et ( <l>(k, t) -l K 0 (k, t-r) <l>(k, r) dr) x e27r(>.t+J-L)iki (7.32) = (\li k -\li k * K~) ( t) , and we extend ali these functions by 0 for negative values of t. Taking Fourier transform in the time variable yields Rk = (1 - K~) ~ k ; sin ce condition (L) implies Il -K~ 1 2 ""' we deduce _...._ 1 _...._ . ll\llkiiL2 ~ ""-IIRkiiL2, z.e., II ,Tr 11 < IIRkiiL2(dt) ':J' k L 2 (dt) -· "" (7 .33) Plugging (7 .33) into (7 .32), we deduce Il Il Il K~ IlL 1 (dt) \li k -Rk L2(dt) ~ "" IIRk IIL 2 (dt). (7 .34) Th en ll<p(t) e-etiiL2(dt) = L l\llkl (7.35) k L2(dt) < LIRkl + L IIRk-\llkiiL2(dt) k L2(dt) k < LIRkl ( 1 + ~ L IIK~IIu(dt)) · k L2(dt) fEZ~ (Note : We bounded IIRell by Il I:k IRklll, which seems very crude; but the decay of K~ as a function of k will save us.) Next, we note that IIK~ [[u(dt) "Ô 47r 2 [îV(k)[ loo Co e- 2 "(Ào-À)Iklt [k[ 2 t dt 2 ----Co ~ 47r IW(k)l (Ào-À)2' 159 so Plugging this in (7.35) and using (7.22) again, we obtain ~ ( 1+ K~À~o~~ 2 ) {loo e- 2 '' (A+ fo' [ K!+ Ka 2 l + (l :r)m] cp(r) dr) dt r (7.36) We separate this (by Minkowski's inequality) into various contributions which we estimate separately. First, of course 1 ( roo e-2Et A2 dt) 2 = ~. (7.37) la J2E Next, for any T 2: 1, by Step 1 and J~ K 1 (t, T) dT:::; Cc(1 + t)ja, {loT e- 2 '' (fo' Kl (t, r) cp(r) dr r dt}~ (7.38) 1 ~ [o~~fr cp(t)] (f e- 2 '' (fo' K 1 (t, r) dr r dtr 160 Invoking Jensen and Fubini, we also have { 00 ( ft ) 2 } ~ l e- 2 "' Jo K1 (t, r) cp( r) dr dt (7 .39) 1 x (lot K1(t, r) e-•(t-r) e- 2 ' 7 cp(r) 2 dr) dt} 2 161 (Basically we copied the proof of Young's inequality.) Similarly, {f" e~ 2 et (l Ko(t, r) cp(r) dr) 2 dt}~ t ~ ~ (sup { e-E:t Ko(t, r) ér dr) t2:0 la 1 x (sup loo ér Ko(t, r) e-Et dt) 2 r2:0 r (7.40) 1 1 ~ (sup ft K 0 (t, r) dr) 2 (sup loo Ko(t, r) dt) 2 t2:0 la r2:0 T The last term is also split, this time according to r ~ T or r > T: { roo e-2Et ( {T CQ cp( r) dr) 2 dt}~ la la (l+r)m (7 .41) ~co ( sup cp(r)) O:S;r:S;T {l oo (1T d ) 2 } ~ X e-2Et r m dt o o (l+r) 162 where 163 Using Propositions 7.1 (case '"Y > 1) and 7.5, as well as as- sumptions (7 .23) and (7 .24), we see that a ::; 1/2 for x small enough and T satisfying (7 .26). Th en from (7 .4 3) follows Step 3: Refined pointwise bounds. Let us use (7.22) a third time, nowfort ~ T: e -ct cp( t) ::; A e -Et (7 .44) + l (s~p IKo(k,t-r)le2rrÀ(t-~)lkl) <p(r)e-or dr + l [Ko(t,r) + ( 1 :r)"'] <p(r)e-or dr +l' ( e-ot K1 (t, r) ér) <p( r) e-or dr ~ Ae-ot + [(fa' G~~ IKO(k, t-r)l e2rrÀ(t-r)lkl) 2 dr)~ 1 1 + (l Ko(t, r) 2 dr r + (loo ( 1 :~) 2 "' dr r 1 1 + (l' e-2ot Kl(t, r)2 e2or dr}'] üoo <p(r)2 e-2n dry. We note that, for any k E Z~, (1Ko(k, t)J e27r.XIklt) 2 ::; 16 7t.4JW(k)J21fo(kt) 12JkJ4 t2 e47r-XIklt ::; c C6JW(k)J2 e-47r(-Xo--X)Iklt Jkl4 t2 < C C6 JW(k)l2 e-27r(.xo--X)Iklt Jkl2 -(..\o-..\)2 < C C6 0 2 e-27r(-Xo--X)Iklt -(..\o _ ..\)2 w < C C6 0 2 e-27r(-Xo--X)t. -(..\o _ ..\)2 w ' 164 so Th en the conclusion follows from (7 .44), Corollary 7.4, con di- ti ons (7 .26) and (7 .24), and Step 2. D CHAPITRE 28 Princeton, le 14 avril 2009 Aujourd'hui j'ai officiellement accepté le poste à l'IHP. Et notre théorème est bien sur rails. J'ai travaillé deux fois jusqu'à quatre heures du matin dans les jours précé- dents, ma motivation reste intacte. Ce soir, je m'apprête encore à une longue séance en tête à tête avec le Problème. La première étape consiste à faire chauffer de l'eau. Mais en découvrant qu'il ne reste plus de thé à la maison je suis pris d'une peur panique ! Sans le soutien des feuilles de Camellia sinensis, je ne peux simplement pas concevoir de me lancer dans les heures de calcul qui se profilent. C'est déjà la nuit, inutile d'espérer trouver un com- merce ouvert à Princeton. N'écoutant que mon courage, j'enfourche ma bicyclette et je vais dérober des sachets de thé dans la salle commune du département de mathéma- tique. Arrivé à la porte du laboratoire, je tape le code d'entrée, monte à l'étage. Tout est noir, seul filtre un rai de lumière sous la porte de Jean Bourgain. Je ne suis pas le moins du monde surpris : Jean a beau avoir obtenu les plus grands honneurs et être considéré comme l'un des plus puissants analystes de ces dernières décennies, il a conservé les ho- raires de travail d'un jeune loup aux dents longues, et en prime il aime rester à l'heure de la Côte Ouest, où il se rend régulièrement. On peut parier qu'il travaillera lui aussi jus- qu' au milieu de la nuit. 167 Je me glisse dans la salle commune, m'empare furtive- ment des sachets tant convoités, sous le regard réprobateur d'André Weil. Vite, je redescends. Mais sur le retour, je croise Tom Spencer, grand spécia- liste de physique statistique, et l'un de mes meilleurs amis à l'Institut. Je suis forcé d'avouer mon crime. - Oh, tea ! Keeps you going, eh ? Retour à la maison. Maintenant les précieux sa- chets sont là, devant moi, je vais pouvoir commencer la cérémonie. Et de la musique, s'il vous plaît, ou je meurs. En ce moment j'écoute beaucoup de chansons. Catherine Ribeiro, Ribeiro qui tourne en boucle. Danielle Messia la tragique abandonnée. Catherine Ribeiro la pa- sionaria. Marna Béa Tekielski, l'écorchée aux glapissements magnifiques. Ribeiro, Ribeiro, Ribeiro. La musique, com- pagne indispensable des moments de recherche solitaire. Pas grand-chose de plus efficace que la musique pour vous ramener dans un contexte oublié. Je me souviens du choc sur le visage de mon grand-père la première fois qu'il m'entendit jouer une pièce de Francis Poulenc ; en un ins- tant il avait été projeté soixante ans en arrière, dans le mo- deste appartement aux murs trop fins où résonnaient toutes les œuvres de son voisin de palier, compositeur de musique classique baignant dans le même courant esthétique que Poulenc. Pour ma part, quand j'entends Gundula J anowitz en- tonner Gretchen am Spinnrade, je redeviens le jeune homme hospitalisé pour pneumothorax au service de réanimation de l'hôpital Cochin, passant une partie de ses jours à dévo- rer Carmen Cru et une partie de ses nuits à discuter musique avec les internes, dormant avec un nounours irlandais prêté par une am1e. La Polka Cemetery éructée par Tom Waits me ren- voie à mon second pneumothorax, dans un grand hôpital 168 lyonnais, avec un compagnon de chambre égrillard qui fai- sait bien rire les infirmières. La métamorphose de John Lennon en Morse (Walrus) me ramène dans une salle de l'École polytechnique, à dix- huit ans, entre deux oraux de concours, l'avenir dessinant un joli point d'interrogation. Trois ans plus tard, le dramatique début du Premier Concerto pour piano de Brahms retentissait fort à propos dans ma petite thurne de l'internat de l'École normale su- périeure, quand une jeune fille en mal d'explications frappa tout émue à ma porte. Pour me replonger dans la petite enfance, rien de tel que l'entêtant Porque Te Vas qui fit la gloire de Jeanette, la gentiment sarcastique Baleine Bleue de Steve Waring, ou le décapant Grand Méchant Loup de Tachan. Ou encore, va savoir pourquoi, un thème du Concerto pour violon de Beethoven que ma mère aimait à fredonner. Pour mes douze ans, certains des morceaux préférés de mes parents : Les Poètes d'Aragon et Ferrat, l'Éducation sentimentale de Maxime Le Forestier, Nancy de Leonard Cohen, le Phoque de Beau Dommage, L'Horloge du fond de l'eau et le Fil blanc des Enfants Terribles, Oxygène de Jean- Michel Jarre, ou encore le « vieux con » de la chanson de Graeme Allwright qui s'obstine à avancer alors qu'il a de la flotte Jusqu'à la ceinture. Et pour l'adolescence, entre les clips regardés sur la sixième chaîne et les cassettes repiquées ici et là, ce pour- rait être, pêle-mêle, Airport, Envole-moi, Tombé du Ciel, Poulailler Song, Le Jerk, King Kong 5, Marcia Baila, Lœ- titia, Barbara, L'Aigle Noir, L'Oiseau de Nuit, Les Nuits sans soleil, Madame Rêve, Sweet Dreams, Les Mots Bleus, Sounds of Silence, The Boxer, Still Loving You, L'Étrange Comédie, Sans contrefaçon, Maldon', Changer la Vie, Le Bagad de Lann-Bihoué, Aux Sombres Héros de l'Amer, La Ligne Ho/worth, Armstrong, Mississippi River, Le Conne- mara, Sidi H'Bibi, Bloody Sunday, Wind of Change, Les Murs 169 de poussière, Mon Copain Bismarck, Hexagone, Le France, Russians, J'ai vu, Oncle Archibald, Sentimental Bourreau ... Tant de fois j'ai eu des coups de foudre pour des mu- siques, classiques, pop ou rock ; je les ai écoutées et ré- écoutées, certaines plusieurs centaines de fois, émerveillé par l'état de grâce qui avait dû présider à leur création. Après la Symphonie du Nouveau Monde de Dvofak, qui marquait effectivement mon entrée dans le nouveau monde de la musique dite classique, vinrent le Cinquième Brande- bourgeois de Bach, la Septième Symphonie de Beethoven, le Troisième Concerto de Rachmaninov, la Deuxième Sym- phonie de Mahler, la Quatrième Symphonie de Brahms, la Sixième Sonate de Prokofiev, la Première Sonate de Berg ... La Sonate de Liszt, les Études pour piano de Ligeti, l'am- biguë Cinquième Symphonie de Chostakovich, la Sonate D784 de Schubert, le Seizième Prélude de Chopin (avec l'interprétation dramatique qui convient, s'il vous plaît). La Toccata de Boëllmann, le War Requiem de Britten, le fabuleux Nixon in China de John Adams. A Day in the Lt/e des Beatles, Butcher's Tale des Zombies, Here Today des Beach Boys, Three Sisters de Divine Comedy. Gino des Têtes Raides, Lisa la Goélette d'Anne Sylvestre, Excalibur de William Sheller, Monsieur de Thomas Fersen. Roda-Gil avec son faussement léger Ce n'est rien, sa faussement faus- sement sérieuse Makhnovchina et son palais aux colonnes tartrées, au sud ou au nord de juillet. François Hadji-Lazaro et ses digues, chalands, Paris insurgé. Mort Shuman s'en- flammant pour la plage de Brooklyn et Pagani pour Venise qui se noie. Léo Ferré avec sa mystérieuse Inconnue de Londres réorchestrée et son Chien enragé qui seul demeure quand Il n'y a plus rien. Dylan évoquant de sa tour de guet le terrible sort de John Brown, les Floyd nostalgisant l'herbe verte d'antan, Piazzolla qui chante Buenos Aires à zéro heure. La Romance de Prokofiev et le Romanzo de Morricone. L'émouvant Manuel d'Adamo, que j'ai trans- crit à Moscou pour des hôtes amoureux de la musique et 170 de la langue françaises, à une époque où Internet n'était pas là pour fournir les paroles des chansons. F abrizio De Andrè pleurant Geordie pendu par une corde d'or, Giorgio Gaber se prenant pour Dieu, Paolo Conte invitant sa dolce à le suivre. Le petit René Simard, faisant couler les larmes des mères québécoises et des filles japonaises avec son Oi- seau cristallin et son Ne pleure pas 1 Midori Iro No Yane qui coupe le souffle. Les Frères Jacques achetant leur Général cinq étoiles à Francis Blanche, les Weepers Circus offrant l'amour à des renardes, Olivia Ruiz réparant cœurs et vitres brisés, mes Aïeux trafiquant du pott avec des croches dégé- nérés. Vian s'emballant pour une java explosive et Bécaud pour une vente aux enchères diabolique, Renaud chantant l'épopée de Gérard Lambert et Corbier celle de l' éléphan- tophile maudit. Thiéfaine et son monde peuplé de filles de coupeurs de joints, cercueils à roulettes, Alligators nu- cléaires et Diogènes glaireux, qui faisaient tournoyer gar- çons et filles dans les boums de mes vingt ans. Les vibrants dramatiques, Brel criant cloué à la Grande Ourse, Utgé- Royo ressuscitant la chanson interdite Mutins de 1917 de Debronckart, Ferrat saluant l'enfant qui se lève et pleurant ceux qui sont tombés pour le malheur de Maria, Tachan gueulant que lui ne veut pas d'enfant ! Et les elfes qui vous désarçonnent, Kate Bush et son Army Dreamer, France Gall et son Petit Soldat, Loreena McKennitt et son Bandit de grand chemin, Tori Amos se rêvant en Joyeux Fantôme, Amélie Morin blasphémant gentiment Rien ne va plus. Et mes préférées, les tigresses qui vous donnent la chair de poule : Melanie apostrophant ceux qui sont autour d'elle, Danielle Messia pleurant qu'elle a été abandonnée, Patti Smith chantant Parce que la Nuit, Ute Lemper s'apitoyant sur le sort de Marie Sanders, Francesca Solleville ressusci- tant la Commune, Juliette jouant au Garçon Manqué, Nina Hagen feulant Kurt Weill, Gribouille hurlant ses Corbeaux, le sublime duo Moullet-Ribeiro chantant la Paix, la Mort, et l'Oiseau devant la Porte ! 171 Pour dénicher de nouvelles musiques, il ne faut négliger aucune piste. Concerts, forums de discussion, sites de mu- sique en libre accès ... et bien sûr l'exemplaire web radio Bide & Musique, qui m'a permis de découvrir Évariste, Adonis, Marie, Amélie Morin, Bernard Brabant ou Jacques !cher, les pistes de décollage sur les Champs-Élysées et les hymnes disco à la gloire de Moscou. En recherche, c'est pareil : on explore tous azimuts, on est à l'affût, on écoute tout, et puis de temps en temps on a un coup de foudre et on se lance corps et âme dans un projet, on se le répète des centaines et des centaines de fois, et plus rien d'autre ne compte, ou si peu. Parfois les deux mondes communiquent. Certaines mu- siques, qui m'ont soutenu pendant le travail, sont pour tou- jours associées à des moments forts de ma recherche. Quand j'entends Juliette beugler Monsieur Vénus, je me revois sous un Vélux à Lyon en 2006, rédigeant ma contri- butions aux actes du Congrès International des Mathéma- ticiens. Comme avant, de l'espiègle Amélie Morin, ou Hung Up on a Dream, des mélodieux Zombies, me transportent à l'été 2007 dans un appartement australien où j'ai appris, au contact des meilleurs experts du sujet, la théorie de la régu- larité du transport optimal (et où je me suis enthousiasmé pour les aventures deL, Met N dans Death Note, mais c'est une autre histoire). Quand Marie Laforêt entonne Pourquoi ces nuages, avec ces nuances incomparables dans sa voix frêle et puissante à la fois, je me retrouve à Reading, hiver 2003, explorant les mystères de l'hypocoercivité. Une chanson sans titre de Jeanne Cherhal me replonge dans l'école d'été de probabilités de Saint-Flour, millésime 2005, celle dont j'ai gagné le tournoi de ping-pong sous les acclamations de la foule. 172 Le Second Concerto de Prokofiev, celui dont le qua- trième mouvement me fait pleurer, je l'écoutais presque tous les jours à Atlanta à l'automne 1999, travaillant à mon premier livre sur le transport optimal. Le Requiem de Mozart, c'est lui qui me réveillait tous les matins quand je passais l'agrégation en 1994. Et les Impressions Baroques du Par Lindh Project ré- sonnent pour toujours au fond d'une nuit hivernale islan- daise, après un exposé triomphal, un soir de colloque en 2005. Des expériences chargées tout à la fois de l'espoir de la découverte et de la frustration de l'imperfection, ou d'une preuve dont on sent qu'elle est fugitive. Mélange de bon- heur et de douleur dans la recherche, plaisir de se sentir vi- vant, qu'accompagnent si bien les musiques débordant de passton. Ce soir je ne suis pas ailleurs, je suis bien ici à Princeton, et c'est Ribeiro qui va m'accompagner dans mes efforts. Im- possible de la trouver dans le commerce, heureusement il y a le Web : les quelques morceaux sur son site Internet, et puis l'extraordinaire sélection LongBox que l'on trouve sur MusicMe. L'hallucinant Poème Non Épique est au-delà de tout ce qu'on imagine, c'est un morceau singulier dans l'histoire de la chanson française, mais il est trop chargé émotionnelle- ment, mes cheveux se dressent sur la tête rien que d'y pen- ser, je ne pourrais pas travailler avec cela. À la place, j'écoute le magnifique Jour de Fête. Puis- sance, sobriété, émotion, force d'évocation. J'aurais voulu être ailleurs Cet ailleurs n'avait pas de lieu ... Arrive mon moment favori, quand la voix jusque-là rete- nue commence à se déplier, à faire sentir sa puissance. Cette voix qui fait « tressaillir les morts, les morts vivants, et les vivants». 173 Je n'avais plus nifaim ni soz/ J'avais envie de faire l'amour N'importe où n'importe comment Pourvu que ce soit de l'amour Même de l'amour au ras du sol Pourvu que passe l'émotion Travaille, Cédric, travaille. Le thé, les équations, Ribeiro. Ouf ... . .. Ce soir-là combien de malades S'évertuèrent à faire l'amour Dans des draps d'aube macabre J; haleine empuantie d'alcool. .. Dès que la chanson est finie, je la remets, encore et en- core. J'ai besoin de cette boucle pour avancer. Travaille, Cédric, travaille. Jour de Fête (Catherine Ribeiro) Le grand jour était arrivé De partout la fête éclatait Derrière chaque fenêtre luisaient Guirlandes bougies et boules de gomme Ce soir-là chacun se devait De s'éclater au tiroir-caisse Des magasins pochettes surprises Jour du formidable gâchis - Paris scintillait de lumières Mais tout mon être était absent ]'avais croisé un satellite Bien mal placé sur mon orbite Qu'est-ce que j'foutais sur les trottoirs Dans les boutiques endimanchées A chercher l'objet pseudo rare A chercher le dernier cadeau - 174 J'aurais voulu être ailleurs Cet ailleurs n'avait pas de lieu Je n'avais plus ni faim ni soz/ J'avais envie de faire l'amour N'importe où-n'importe comment Pourvu que ce soit de l'amour Même de l'amour au ras du sol Pourvu que passe l'émotion - Le téléphone n'a pas sonné Sûrement à cause des PTT Le champagne n'avait aucun goût Je veillais pour être debout Le temps passait à /endre l'âme Et la pluie frappait les carreaux Il n'y a rien de plus dérisoire Qu'un corps chaud dans un lit désert- Ce soir-là combien de malades S'évertuèrent à /aire l'amour Dans des draps d'aube macabre L'haleine empuantie d'alcool Cétait le Grand Jour -Jour de Paix Au fin fond de mes Amériques Je rêvais de mon satellite Bien mal placé sur mon orbite - CHAPITRE 29 Princeton, le 20 avril2009 Sa tasse de thé à la main, le vieil homme se retourne vers moi et me regarde d'un air insistant, sans dire un mot, visiblement interloqué par mon style vestimentaire qui sort de l'ordinaire. J'ai l'habitude d'en voir, qui sont troublés ou déconte- nancés par mon costume et mon araignée. D'habitude je les considère avec une bienveillance amusée. Mais cette fois-ci je suis au moins aussi intimidé que mon observateur. Lui, c'est John Nash, peut-être le plus grand analyste du siècle, mon héros mathématique, né en 1928. Il n'a pas eu la mé- daille Fields, et il a amèrement ressassé cet échec durant des décennies. Certes, il a reçu le prix Nobel d'économie pour ses travaux de jeunesse sur les «équilibres de Nash», qui l'ont rendu célèbre en théorie des jeux, économie, biologie. Mais ce qu'il a fait ensuite est, pour les connaisseurs, bien plus extraordinaire : cela méritait une, deux, trois médailles Fields. En 1954, Nash introduit les plongements non lisses, des monstruosités qui permettent de faire des choses impos- sibles, comme froisser une balle de ping-pong sans la dé- former, ou construire un anneau parfaitement plat. Cela ne pouvait être vrai et c'était vraz~ a dit Gromov, qui a com- pris l'œuvre géométrique de Nash mieux que personne sur cette planète, et a développé à partir d'elle toute la théorie de l'intégration convexe. 177 En 1956, Nash, relevant un défi que lui pose son incré- dule collègue Ambrose, démontre que toutes les géométries abstraites du Prince Riemann - le Chopin de la mathéma- tique - peuvent se réaliser de manière concrète. Il réalise ainsi un rêve vieux de près de cent ans. En 1958, Nash, répondant à une question posée par Nirenberg, démontre la régularité des solutions des équa- tions linéaires paraboliques à coefficients elliptiques mesu- rables -la continuité en espace-temps de la chaleur dans un solide complètement hétérogène. C'est le début de la théo- rie moderne des équations aux dérivées partielles. Le sort voulut que le génie monastique Ennio De Giorgi résolve ce dernier problème en même temps que Nash, par une méthode complètement différente; mais cela n'enlève rien au mérite de Nash. Nash est l'un des rares scientifiques vivants à avoir été le héros d'un film hollywoodien. Je n'ai pas aimé le film outre mesure, mais j'ai beaucoup apprécié la biographie dont il était issu. John Nash, a Beautz/ul Mind. Si Nash a attiré Hollywood, ce n'est pas seulement pour ses exploits mathématiques, c'est aussi pour son histoire tra- gique. À 30 ans, il a basculé dans la folie; il a connu les asiles pendant près de trois décennies avant de hanter les couloirs de Princeton, fantôme pitoyable. Et Nash est revenu du rivage de la folie. Maintenant, à 80 ans passés, il est aussi normal que vous et moi. Sauf qu'il y a au-dessus de lui une aura que ni vous ni moi n'avons, les témoignages d'accomplissements phéno- ménaux, des coups de génie et une façon de décortiquer, d'analyser les problèmes, qui font de Nash une figure tuté- laire pour tous les analystes modernes, moi le premier. L'homme qui me fixe est bien plus qu'un homme, c'est une légende vivante, et ce jour-là je n'ai pas le courage d'al- ler lui parler. La prochaine fois, j'oserai l'approcher et je lui raconte- rai comment j'ai fait un exposé sur le paradoxe de Scheffer- 178 Shnirelman, par une preuve inspirée de son théorème de plongement non lisse. Je lui parlerai de mon projet de faire un exposé sur lui à la Bibliothèque nationale de France. Je lui dirai peut-être même qu'il est mon héros. Est-ce qu'il trouvera ça ridicule ? * En 19 56, à New York, un grand gaillard pousse la porte d'un austère bloc de béton, sur la façade duquel on peut lire Courant Institute of Mathematical Sciences. Sa fière al- lure n'a pas grand-chose à envier à celle de Russell Crowe, qui jouera son rôle à Hollywood un demi-siècle plus tard. Son nom est Nash, et à 28 ans il est déjà mondialement cé- lèbre pour son invention des Équilibres de Nash et sa preuve du Théorème de Plongement: des travaux qu'il a réalisés à l'Université de Princeton puis au Massachusetts Institute of Technology. À New York, il vient découvrir de nouveaux col- lègues et de nouveaux problèmes. Celui que lui soumet Louis Nirenberg retient toute son attention. Un problème qui tient en échec les meilleurs spé- cialistes ... un adversaire à sa taille, peut-être .' La continuité des solutions des équations paraboliques à coefficients dis- continus. En 181t le grand Fourier avait établi l'équation de la chaleut; régissant l'évolution de la température en fonction de la position et du temps dans un solide homogène en cours de refroidissement : Depuis lors, son équation est devenue l'un des plus dignes représentants de la classe des équations aux dérivées par- tielles, ces équations décrivant tous les phénomènes continus qui nous entourent, depuis les courants marins jusqu'à la mé- canique quantique. Même si l'on chauffe le solide de manière très inhomo- gène, imposant à un instant donné une température qui varie 179 de manière brusque et erratique d) un endroit à r autre) il suf fit de laisser le solide se re/roidir une fraction de seconde pour que la distribution de température devienne lisse) varie de manière régulière. Ce phénomène) appelé régularisation pa- rabolique) est r un des premiers qu) apprennent les étudiants dans les cours d) équations aux dérivées partielles. L) énoncé mathématique correspondant est d) une importance qui trans- cende largement le champ de la physique. Si maintenant le solide est inhomogène) constitué de ma- tériaux divers) en chaque position x il aura une conducti- vité plus ou moins grande C (x)) c) est-à-dire une facilité plus ou moins grande à se re/roidir. L équation change en consé- quence: La propriété de régularisation reste-t-elle vraie dans ce contexte? Contrairement à Nirenberg, Nash n) est pas un spécialiste de ces équations) mais il mord à r hameçon. Semaine après semaine) il revient discuter avec Nirenberg, et lui pose des questions. Au début) ses questions sont naives) des questions de no- vice. Nirenberg se demande si la réputation de Nash n) est pas surfaite. Il en faut) du courage -ou une dose inhabituelle de confiance en soi -) quand on est déjà célèbre et admir~ pour poser des questions de débutant sur un domaine que r on ne maîtrise pas encore ! pour accepter la petite pointe de sur- prise involontairement méprisante que risque de contenir la réponse. Mais c) est à ce prix que Fon progresse ... Et peu à peu) les questions de Nash se /ont plus précises) plus pertinentes) quelque chose se dessine. Et puis il discute avec d) autres collègues) extorque des in- formations à r un) met un autre à contribution) propose un problème à un troisième. Lennart Carleson) un analyste suédois de grand talent) lui parle de Boltzmann et de F entropie. Carle son est t un des 180 rares mathématiciens à bien connattre ce sujet; il faut dire qu'il a été l'exécuteur testamentaire intellectuel de Torsten Car leman, le premier mathématicien à s'attaquer à l'équation de Boltzmann. À sa mort, Carleman laissait un manuscrit in- achevé sur cette équation, et c'est à Carle son qu'avait échu la tâche de le compléter et de le corriger; il a ainsi appris la no- tion d'entropie, et maintenant il peut en faire profiter Nash. Mais Boltzmann et Fourier; ce n'est pas pareil; l'entropie et la régularit~ cela n'a rien à voir.' Pourtant, dans le cerveau de Nash, une lueur s'est allu- mée, un plan d'ensemble s'esquisse. Sans dévoiler ses cartes, le jeune mathématicien continue ses entretiens, récupère un lemme ict~ une proposition là. Jofin :A[asfi Et un matin, il a bien fallu se rendre à l'évidence : en com- binant toutes les contributions de ses collègues, Nash avait dé- montré le théorème, comme un chef d'orchestre faisant jouer sa partition à chaque musicien. Au cœur de sa démonstration, il y avait l'entropie, qui sous sa direction jouait un rôle à contre-emploi terriblement efficace. La façon de Nash d'utiliser des inégalités différen- tielles faisant intervenir certaines quantités, inspirées par une interprétation mi-mathématique, mi-physique, fondait un nouveau style, dans la tradition duquel je m'inscris. CHAPITRE 30 Princeton) le 4 mai 2009 À l'instant précis où ma nuque touche la moquette, une onde de bien-être se répand dans mon corps, cela part de la tête pour aboutir aux pieds. Il est treize heures ou treize heures trente, je suis de retour dans mon bureau après le repas, le moment est propice à une séance de relaxation. Pas une relaxation violente comme celle que traquent les collègues astrophysiciens du bâtiment d'à côté. Mais une relaxation quand même un peu crue, sans rien de tendre, entre le sol et moi, que la fine épaisseur de la moquette de mon modeste bureau. Fine, mais perceptible à la nuque. Je m'y suis fait, et j'apprécie sincèrement ce contact qui manque de moelleux. Les images défilent devant mes yeux fermés, les sons grésillent dans mes oreilles, de plus en plus fort, pendant que toute la matinée repasse dans ma tête. Ce matin les enfants de l'école primaire Little brook sont venus visiter l'Institute for Advanced Study, son étang, ses magnifiques arbres en fleurs, le grand buste d'Albert Einstein dans la bibliothèque ancienne. Regardez, les en- fants, le château magique de la science ! À huit ans, il n'est pas trop tôt pour rêver des grands scientifiques. Je leur ai préparé un exposé de vingt minutes, je leur ai parlé du mouvement brownien qui permit de mettre les atomes en évidence, du célèbre problème de Syracuse qui est si simple qu'un enfant de huit ans peut le comprendre, 183 et si complexe que le meilleur mathématicien du monde s'avouerait perdu face à lui. Ils ont écouté sagement dans le grand hall de l'Insti- tut, ouvert des yeux ronds devant les merveilleuses images du mouvement brownien errant sur mon ordinateur por- table. Au dernier rang, un petit blondinet aux grands yeux écoutait encore plus sagement que les autres ; il habitait ici depuis seulement quatre mois, mais il n'avait aucun mal à comprendre le speech en anglais que son papa prononçait avec un accent français à couper au couteau. Et puis le reste de la matinée, et puis le bon repas, et puis mon cerveau a commencé à s'embrumer, quand est venu le temps de remettre le compteur à zéro, le temps de la pause éclair, celle que j'appelle le re boat, la remise en marche de l'ordinateur, on efface la mémoire et on repart. Dans mes oreilles ça bourdonne, les enfants parlent et reparlent et tout tourne en rond. Mon visage contracté se détend, le bourdonnement s'intensifie, des fragments de phrases voltigent, certains plus fort que d'autres, des voix et chansons, le repas revient, une cuillère oubliée, une pro- cédure d'accueil, un lac non gelé, un buste dans ma biblio- thèque, 3n + 1, 3n + 2, 3n + 3, le parquet et les ombres et tu as oublié un petit enfant et ... Une brusque petite secousse dans mes membres, les ombres s'écartent et ma conscience redevient claire. Je suis à l'affût, je reste allongé quelques instants, pen- dant que des fourmis s'éparpillent dans la plante de mes pieds déchaussés. Mes pieds ont disparu de mon radar interne, ils sont si lourds, impossibles à bouger. Comme en ski de randonnée quand un talon de neige tenace s'est accumulé sous un ski. Pourtant le premier mouvement me rend mes pieds comme par enchantement, je suis à nouveau complet. La pause est finie, elle a duré dix minutes montre en main, mais je suis un mathématicien neuf. Cedric reboot (completed) 184 Un nouveau Cédric commence. Je me replonge dans les calculs, et dans cet article sur l'amortissement Landau, vieux d'un demi-siècle et pourtant si actuel, que je viens de récupérer à la bibliothèque. C'est parti pour deux heures de travail intense avant le thé. Le problème de Syracuse, ou problème de Collatz, ou pro- blème 3n + 1, est l'une des énigmes non résolues les plus célèbres de tous les temps. Paul Erdos lui-même n'a-t-il pas déclaré que la mathématique de notre temps n'est pas prête à affronter de tels monstres? Soumettez « 3n + 1 » à un moteur de recherche Internet, et vous remonterez/acilement le fil jusqu'à la maudite conjec- ture, simple et entêtante comme un refrain populaire. Partez d'un nombre entier, n'importe lequel, disons 38. Ce nombre est pair, je le divise par 2 pour obtenir 19. Ce dernier nombre est impair, je le multiplie par 3 et /ajoute 1, je trouve ainsi 19 x 3 + 1 = 58. Ce dernier nombre est pair, je le divise par 2 ... Et ainsi de suite, on va de nombre en nombre avec une règle simple : chaque /ois que r on trouve un nombre pair on divise par 2, chaque /ois que r on trouve un nombre impair on multiplie par 3 et on ajoute 1. Dans l'exemple où l'on est parti de 38, on trouvera suc- cessivement : 19, 58, 29, 88, 44, 22, 11, 34, 17, 52, 26, 13, 40, 20, 10, 5, 16, 8, 4, 2, 1, 4, 2, 1, 4, 2, 1, 4, 2, 1, 4, 2, 1, 4, 2, 1. .. Bien sûr, dès que l'on tombe sur 1, on sait ce qui suit : 4, 2, 1, 4, 2, 1, 4, 2, 1, ad calculam aeternam. Chaque /ois, dans l'histoire de l'humanité, que l'on a /ait ce calcul, on a toujours abouti à 4, 2, 1 ... Est-ce que cela veut dire qu'il en sera toujours ainsz~ quel que soit le nombre qui sert de point de départ ? 185 Bien sû1; comme les nombres entiers sont en quantité in- finie, on ne peut pas les essayer tous. De nos jours, avec les calculettes, calculatrices, calculateurs et supercalculateurs, on a pu en essayer des milliards et des milliards, et l'on a toujours fini par retomber sur l'implacable 4, 2, 1. Chacun est libre d'essayer de montrer que c'est une règle générale. On pense que c'est vraz~ mais on ne sait pas le prou- ver : c'est une conjecture. La mathématique est démocratique, et quiconque réussira à confirmer ou à infirmer cette conjec- ture sera salué comme un héros. Ce n'est certes pas moi qui essaierai : outre que cela semble d'une difficulté phénoménale, ce n'est pas ma tour- nure d'esprit,· mon cerveau n'est pas entraîné à réfléchir à ce style de problèmes. Date: Mon, 4 May 2009 17:25:09 +0200 From: Cedric Villani <Cedric.VILLANI@umpa.ens-lyon.fr> To: Clement Mouhot <cmouhot@ceremade.dauphine.fr> Subject: Backus Voici donc l'article de Backus de JMP 1960 (Vol.1 No.3, dommage, ca aurait ete encore mieux si ca avait ete Vol. 1 No. 1 ! ) Fantastique ! Regarde l'avant derniere section de l'article de Backus, et puis la derniere phrase de l'article ! C'est d'autant plus remarquable que je n'ai connaissance de personne qui ait exprime explicitement ces doutes jusqu'aux articles de ces dernieres annees ... Amities Cedric 186 From: Clement Mouhot <cmouhot@ceremade.dauphine.fr> To: Cedric Villani <Cedric.VILLANI@umpa.ens-lyon.fr> Date: Sun, 10 May 2009 05:21:28 +0800 Subject: Re: Backus J'ai lu un peu l'article de Backus dans l'avion. Effectivement c'est tres interessant, il avait bien compris les pbs du lineaire et la question de la croissance en temps du terme de background des lors qu'il depend de l'espace, par filamentation. Et de facon generale c'est remarquablement rigoureux compare au "standard" des articles sur le Landau damping... Il faut l'ajouter en citation, avec en particulier sa discussion numerique page 190, et sa conclusion avec ses doutes sur la validite non lineaire de l'etude lineaire : ca rejoint l'une des difficultes conceptuelles de notre intro en plus. Amicalement, Clement CHAPITRE 31 Princeton, un joli soir de mai 2009 En mai, à l'Institute for Advanced Study, les arbres sont en fleurs, c'est magnifique. C'est le début de la nuit et j'erre seul dans la pénombre, savourant pêle-mêle l'obscurité, le sentiment de paix, la douceur de l'air. Élève à l'École normale supérieure, j'aimais bien dé- ambuler la nuit dans les couloirs obscurs de l'internat, quelques rayons lumineux filtrant sous les portes, comme les vagues luminescences que l'on imagine passer à travers les hublots d'un sous-marin à la Jules Verne. Mais ici, dans l'herbe et la brise, c'est incomparable; et les lumières sont là aussi, mais ce ne sont pas des lumières civilisées, ce sont les lumières naturelles émises par les lu- cioles, innombrables étoiles clignotantes jetées sur l'herbe. Ah, je me rappelle ... Dans un article que j'ai lu, on ap- plique la théorie de l'amortissement Landau aux clignote- ments des lucioles. Mais, Cédric, laisse un peu l'amortissement Landau en paix, mille pompons ! Tu y as déja passé tant de jours et de nuits. Savoure donc les lucioles sans te poser de questions. Tiens, qui se promène ici aussi tard? Je reconnais cette silhouette ... Ça par exemple! Vladimir Voevodsky, ma- thématicien russe parmi les plus brillants de sa généra- tion, Médaille Fields 2002, l'un des héritiers spirituels de 189 Grothendieck. C'est le genre de mauvaise rencontre que l'on fait tard le soir à Princeton. Voevodsky lui aussi se promène. Walking, just walking, walking for air, sans but précis, comme le piéton de Ray Bradbury. On engage la conversation. Il est difficile d'imaginer quelqu'un qui fasse des mathématiques plus différentes des miennes que Voevodsky. Je ne comprends pas un traître mot à sa recherche, et la réciproque est probablement vraie. Mais plutôt que d'essayer de me parler de ce qu'il a fait, il me parle de ses rêves, d'un sujet qui le passionne et dans lequel il entend s'impliquer tout entier, celui des langages experts et des preuves automatiques. Vladimir Voevodsky Il parle du fameux Théorème des Quatre Couleurs, de sa preuve controversée parce que rendue inhumaine par l'informatique, et récemment bouleversée par les travaux des chercheurs français de l'INRIA à l'aide du langage ex- pert Coq. Vladimir pense que, dans un avenir pas si lointain, les programmes informatiques pourront vérifier les arguments longs et complexes, il dit que c'est même déjà en cours d'ex- périmentation en France sur des résultats célèbres. Je suis sceptique au début, mais celui que j'ai en face de moi n'est 190 pas un allumé, c'est un scientifique du plus haut niveau, il faut que je prenne cela au sérieux. Moi je n'ai jamais touché à ces problèmes, et j'ai fort peu pratiqué l'algorithmique. Les algorithmes de mariage (bipartite matching), du simplexe, des enchères, jouent un rôle important dans la simulation numérique du transport optimal, dont je suis spécialiste; mais c'est un esprit telle- ment différent de ce dont me parle Vladimir. Ça donne très envie, ce nouveau domaine, il y a tant de choses passion- nantes à étudier. Fleurs, langages, quatre couleurs, mariage ... Tous les in- grédients pour une belle chanson ... À moins que cela n'ait déjà été fait ? Vers 1850, le mathématicien Francis Guthrie colorie la carte des comtés de tAngleterre, en prenant bien garde que deux comtés ayant un morceau de frontière en commun soient de couleurs distinctes. Combien de crayons de couleur va-t-il lui falloir? Guthrie comprend que quatre couleurs suffisent. Et se dit que quatre suffisent peut-être pour colorier n'importe quelle carte, faite bien sûr de pays qui ne sont pas eux-mêmes frac- tionnés en morceaux séparés. Trois couleurs ne suffiraient pas : examinez la carte d'Amérique du Sud et voyez le Brésil, l'Argentine, la Bolivie, le Paraguay, chacun des quatre pays touche les trois autres, il vous faut donc au moins quatre couleurs différentes. Mais quatre suffisent, c'est quelque chose que vous pou- vez tester en coloriant votre carte préférée. Du moins, vous pouvez le tester sur de nombreux exemples. Mais comment montrer que c'est vrai pour toute carte? On ne va pas les tes- ter toutes, il y en a une infinité! Il faut donc un raisonnement logique, et ce n'est pas facile. Kempe en 1879 pense prouver ce résultat. Mais sa preuve est erronée, et permet seulement de démontrer que cinq cou- leurs suffisent. 191 Allons-y pas à pas. Pour une carte à quatre pays, on sait /aire. Partant de là, c'est facile de le faire pour cinq pays. Puis pour six. Est-ce qu'on peut continuer ? Supposons qu'on sache colorier en quatre couleurs toutes les cartes à 1 000 pays, et qu'on veuille s'attaquer à une carte à 1 001 pays. Comment faire ? Pour commence~; on peut mon- trer que parmi ces 1 001 pays il en existe au moins un qui a peu de pays frontaliers, disons au maximum 5. Si l'on se concentre sur ce pays et ses voisins, c'est facile de colorier,· et si l'on joue aux conquérants en opérant quelques /usions et recombinaisons au sein de ce groupe de pays, on se retrouvera avec une carte de moins de 1 000 pays, donc on saura colo- rier. Bonne idée... mais pour recoller le coloriage local et le coloriage globa~ c'est compliqu~ il faut envisager beaucoup de cas : des millions, voire des milliards de cas / En 1976, Appel et Haken se ramènent à un millier de configurations à teste1; et les passent toutes en revue à l'aide d'un programme informatique. Après deux mois passés à /aire tourner la machine, ils concluent que quatre couleurs suffisent toujours, résolvant une conjecture plus que centenaire. La communauté mathématique s'est profondément divi- sée devant cette preuve. La machine n'a-t-elle pas tué la ré- flexion ? Est-ce qu'on comprend vraiment cet argument jeté en pâture à un être de silicium et de circuits intégrés ? Les Appel-Haken-ards et anti-Appel-Haken-ards s'opposent, sans qu'un consensus se dégage. Les gens apprennent à vivre avec cette polémique, et nous sautons dans le temps pour revenir en France, à l'INRIA (Institut national de recherche en informatique et en auto- matique), au tournant du millénaire. Georges Gonthie1; spé- cialiste des langages de vérification de preuves, est l'un des chercheurs employés par cet institut spécialisé dans l' infor- matique et le calcul. Son domaine a été développé en Europe par quelques théoriciens rêveurs, à la même époque où Appel et Haken dé/rayaient la chronique. Ces langages vérifient une preuve mathématique comme vous vérifieriez la solidité d'un 192 arbre, branche par branche : imaginez un arbre logique dans lequel le raisonnement est inscrit et peut faire l'objet d'une vérification automatique, à l'instar d'un correcteur ortho gra- phique. Mais alors qu'un correcteur orthographique ne s'intéresse qu'aux mots bien écrits, votre analyseur de preuves, luz~ va vé- rifier la cohérence de l'ensemble, vérifier que tout est correct. Avec l'aide d'un collaborateur, Benjamin Werner, Gonthier décide de s'atteler à la preuve du Théorème des Quatre Couleurs dans un langage que l'on appelle Coq, en hommage à son créateur Thierry Coquand. Contrairement aux programmes utilisés par Appel et Haken, Coq est certifié: on sait qu'il ne peut produire de bug. Et puis Coq ne fournit pas vraiment des calculs, il génère automatiquement la preuve à partir de l'algorithme qu'on lui impose. Gonthier en profite pour réécrire la partie « lisible» de la preuve, il obtient ainsi quelque chose de simple et efficace, quelque chose de beau .' Une preuve écrite par un humain à 0,2 %, complétée par la machine à 99,8 o/o -mais ce sont bien les 0,2 % humains qui comptent, avec Coq on sait qu'on peut faire confiance au reste. Les travaux de Gonthier et de ses collègues préfigurent les logiciels de validation qui dans un futur pas si lointain pour- ront vérifier automatiquement les programmes complexes qui régissent le lancement des fusées, le vol des avions, ou les microprocesseurs de nos ordinateurs personnels. Les enjeux financiers de ce qui n'était il y a trente ans que douce rêverie se comptent maintenant en milliards d'euros. Quant à l'infatigable Gonthier, il s'est à présent lancé dans un projet extrêmement ambitieux, la vérification de cer- tains théorèmes de classification des groupes finis, dont les preuves sont connues pour être parmi les plus longues du vingtième siècle. 193 Pour un mot qui clame Un mot de travers Il y aura des flammes Dans tout l'univers Les bouches sont grandes Pour les beaux discours Mais les peaux se vendent Les peaux de tambours Un jour nos langages Parleront de /leurs Et du mariage Des quatre couleurs Sauras-tu comprendre Qu'ils parlent d'amour Moi je vais t'attendre Au pied de la Tour En attendant, Caïn chasse toujours Abel Mais j'ai construit de mes mains la Tour de Babel La Tour de Babel (extrait), Guy Béart CHAPITRE 32 Princeton, le 26 juin 2009 C'est mon dernier jour à Princeton. Il a plu tant et tant ces dernières semaines, tant qu'on aurait dit un gag. Mais ce soir le ciel est dégagé et je peux me promener encore. Les lucioles transforment les grands arbres en sapins de Noël romantiques, décorés d'innombrables bougies clignotantes. Énormes champignons, petit lapin furtif, silhouette d'un re- nard qui se découpe fugitivement dans la nuit, cerfs errants dont le brame fait sursauter. Il s'en est passé, des choses, ces derniers temps, sur le front de l'amortissement Landau ! On a pu finalement faire tenir la preuve debout, on a tout relu. Quelle émotion quand on a mis notre article en ligne sur Internet ! Le mode zéro a enfin pu être contrôlé, et Clément a trouvé qu'on pouvait complètement se passer de l'astuce que j'avais in- troduite à mon retour du Muséum d'histoire naturelle, le double décalage temporel. On n'avait cependant pas le cœur à tout reprendre, et puis on s'est dit que ça pourrait servir dans d'autres problèmes, alors on l'a laissé là où ça ne gênait pas ... Il sera toujours possible de simplifier plus tard en cas de besoin. J'ai exposé nos travaux devant de nombreux publics ; à chaque fois j'ai pu améliorer les résultats et la présentation, à présent c'est bien rodé et solide. Il se peut toujours qu'il y ait un bug quelque part, mais maintenant tout s'emboîte si 195 bien que je suis confiant : si on découvre un trou il ne sera pas trop grave, on saura le réparer. Au Plasma Physics Princeton Laboratory, j'ai exposé pendant deux heures devant un public de physiciens, puis j'ai eu droit à une merveilleuse visite de leurs installations et de leurs lieux d'expérience, dans cet institut où l'on essaie de déchiffrer les mystères des plasmas et - qui sait ? -de dompter la fusion nucléaire. À Minneapolis, mon exposé a beaucoup impressionné Vladimir Sverak. J'ai le plus grand respect pour cet homme qui a compris la mystérieuse notion de quasi-convexité mieux que quiconque, et qui est maintenant l'un des meilleurs spécialistes de la régularité de Navier-Stokes ; ses paroles chaleureuses m'ont rempli de confiance. Et puis à Minneapolis j'ai aussi fait une conquête : la très jeune, très blonde et très timide fille de mon collègue Marcus Keel a bien voulu jouer avec moi pendant le ban- quet du colloque, allant jusqu'à exécuter des roulades en riant aux éclats. Marcus n'en est pas revenu que sa fille, qui ne parle jamais aux inconnus, ait accepté une telle fraterni- sation avec un étranger. À Rutgers, j'ai de nouveau présenté mes résultats, lors de l'un des colloques de physique statistique de l'infatigable Joel. Mais cette fois ça n'avait rien à voir avec mon précé- dent exposé, c'était du solide ! À Princeton, j'ai donné une conférence devant une salle entièrement remplie de filles, ou peu s'en faut, dans le cadre du programme « Women in Mathematics ». Ces Jeunes Mathématiciennes viennent en nombre dans l'es- poir de conjurer la malédiction qui fait de la mathéma- tique une discipline très majoritairement masculine-moins que l'informatique ou l'ingénierie électrique, mais quand même. Peut-être parmi elles se trouveront les successeurs des grandes mathématiciennes qui ont fait rêver des gé- nérations, les Sofia Kowalevskaya, Emmy Noether, Olga Oleinik ou Olga Ladyzhenskaya. Les jeunes femmes qui ont 196 envahi le campus apportent un vent de fraîcheur et l'on en croise quelques-unes encore ce soir, se promenant en petits groupes dans l'air frais. Hier soir nous sommes allés dire adieu, en famille, au terrain de golf. Comme j'aimais, de retour de quelque col- loque, sur le sentier qui mène de la petite station de chemin de fer jusqu'à l'Institut, traverser ce terrain, seul à la nuit tombée, sous l'éclat de la lune qui métamorphose les dunes en fantomatiques vagues ... Les enfants ont religieusement déposé à terre un précieux trésor : toutes les balles de golf perdues qu'ils ont ramassées depuis leur arrivée. Six mois d ~., 1 eJa. Mon état de grâce mathématique a duré tout le temps du séjour à Princeton. Après avoir résolu le problème de l'amortissement Landau, j'ai repris mon autre gros pro- gramme en cours, avec mes collaborateurs Ludovic et Alessio, et là encore, alors que tout semblait compromis, nous avons pu passer tous les obstacles et tout s'est mis à fonctionner comme par enchantement. Avec un vrai miracle d'ailleurs, un calcul énorme dont quinze termes se recombi- naient pour constituer un carré parfait ... un miracle aussi in- espéré qu'inattendu, puisqu'en définitive on a prouvé exac- tement le contraire de ce que l'on pensait démontrer ! Dans l'amortissement Landau, on n'a quand même pas tout résolu tout à fait : pour des interactions électrostatiques ou gravitationnelles, les plus intéressantes, on a montré qu'il y a amortissement sur un temps gigantesque, mais pas infini. Et comme on est coincés ici, la régularité est aussi coincée, on n'arrive pas à sortir du cadre analytique. À la fin de mes exposés revient très souvent l'une ou l'autre de ces deux questions : Est-ce que} dans le cas de t interaction coulom- bienne ou newtonienne} on a aussi amortissement en temps infini? Est-ce que ton peut se passer de t hypothèse d} ana- lyticité? À chaque fois je réponds que je ne dirai rien en l'absence de mon avocat, que je ne sais sincèrement pas si 197 c'est quelque chose de profond, ou juste que nous n'avons pas été assez malins. Oh, voici une Jeune Mathématicienne qui erre seule, comme moi, elle veut bien m'accompagner pour la suite de la promenade. Elle a assisté à mon exposé sur le transport optimal, ça fait une bonne entrée en matière, on va parler mathématique à deux, dans la douce nuit princetonienne. La promenade se termine, il faut bien rentrer à l'Ins- titut. Mon bureau est presque vide, mais reste la pile de brouillons, la pile énorme que j'ai noircie jour après jour de toutes les tentatives avortées et réussies, toutes les versions intermédiaires que j'ai soigneusement écrites, compulsive- ment imprimées et rageusement corrigées. Je l'aurais bien emportée, mais cela sera trop encom- brant dans l'avion, nous sommes déjà si chargés ! Alors il faut tout jeter ... En me voyant contempler ces brouillons si envahissants, la Jeune Mathématicienne comprend tout de suite le petit drame que cela représente de jeter toute cette pile chargée d'émotions. Elle m'aide à tasser le tout dans la corbeille à papiers. Ou plutôt, tout autour de la corbeille à papiers - il y en aurait assez pour emplir au moins quatre corbeilles ! Ça y est, mon séjour à Princeton est vraiment terminé. rai longtemps considéré avec perplexité le principe des réunions de jeunes mathématiciennes ... jusqu'à ce que je par- ticipe moi-même, en tant qu' orateu1; à l'édition 2009 du pro- gramme« Femmes en mathématiques» organisé tous les ans à l'Institute for Advanced Study à Princeton. L'ambiance dy- namique et enthousiaste dans laquelle baignait cette manz/es- tation m'a laissé un souvenir impérissable. ] e vous souhaite de mener les débats et discussions du « neuvième forum des jeunes mathématiciennes à Finstitut Henri Poincaré» dans un climat aussi détendu et studieux. Bienvenue dans la «Mai- son des Mathématiciennes» ! 198 (Paroles de bienvenue au forum des Jeunes Mathéma- ticiennes, accueillies à l'Institut Henri Poincaré par son di- recteur, le 6 novembre 2009.) CHAPITRE 33 Lyon) le 28 juin 2009 Que c'est étrange, d'être de retour au bercail après si longtemps. On n'est jamais vraiment revenu chez soi avant d'être re- tourné au marché. On retrouve ses commerçants, on choi- sit son pain et ses fromages, on s'étonne d'entendre tout le monde parler français. J'ai eu les larmes aux yeux en buvant un verre de lait cru, le premier depuis six mois. La tendre ciabatta et la baguette croustillante se passent de commen- taires. Je suis revenu dans mon élément, mais rien n'est comme avant. Certes, des artisans ont œuvré pendant notre ab- sence, et c'est à peine si l'on reconnaît l'appartement ... Mais cela n'est rien; bien plus importante est la métamor- phose effectuée à l'intérieur de moi. Le travail accompli à Princeton m'a transformé, comme un alpiniste de retour à terre qui aurait encore la tête pleine des hauteurs qu'il a ex- plorées. Le hasard a dévié ma trajectoire scientifique à un point que je ne pouvais pas imaginer il y a six mois. Dans les années 1950, une révolution scientifique s'est produite quand on a compris que, pour explorer un sys- tème trop riche en possibles, il est souvent préférable de s'y déplacer au hasard, plutôt que de le quadriller méthodique- ment ou d'y choisir des échantillons successifs de manière parfaitement aléatoire. C'était l'algorithme de Metro polis- Hastings, c'est aujourd'hui tout le domaine des MCMC, 201 les Monte Carlo Markov Chains, dont l'efficacité déraison- nable en physique, en chimie, en biologie, n'a toujours pas été expliquée. Ce n'est pas une exploration déterministe, ce n'est pas non plus une exploration complètement aléatoire, c'est une exploration par marche au hasard. Mais au fond, ça n'est pas nouveau, c'est pareil dans la vie : en allant un peu au hasard d'une situation à l'autre, on explore tellement plus de possibilités, comme un chercheur qui change de continent scientifique au gré des rencontres. Tout est revenu à sa place, tout va repartir. Mes affaires sont déjà rangées dans des cartons, bientôt les déménageurs emporteront tout ce qui m'est familier. Le fu ton que ma mère a comparé à du béton armé après l'avoir testé. La chaîne musicale qui avec ses quinze ans d'âge mérite bien son label de haute fidélité. Les centaines de CD qui par- fois mangeaient presque tout mon salaire de normalien, les cassettes récupérées et les vinyles d'occasion. Et le grand double bureau en bois massif, les bibliothèques coloniales où s'entassent d'innombrables livres, le lourd fauteuil en bois d'une seule pièce ramené de Londres, les sculptures achetées dans la Drôme, les tableaux de mon grand-père ... Tout cela va m'accompagner dans ma nouvelle aventure : dans trois jours je commence mon mandat de directeur à l'Institut Henri Poincaré, à Paris. Mon prédécesseur libère son bureau le 30 juin, j'y emménage le 1er juillet. Il faudra apprendre le travail sur le terrain, c'est une nouvelle pé- riode de ma vie qui commencera. Un nouveau pas de ma MCMC personnelle. Après un long passage à vide dans les années 70 et 80, l'IHB «Maison des Mathématiques», renaît officiellement en 1990. !}État investit massivement pour sa rénovation, dans le cadre du contrat quadriennal conclu avec l'Université Pierre et Marie Curie, chargée de la gestion du nouvel IHB et avec le soutien du CNRS. 202 La mise en place de la nouvelle structure a lieu sous la direction du mathématicien Pierre Grisvarci qui décède pré- maturément en 199{ quelques mois avant l'inauguration of ficielle par le ministre de l'Enseignement supérieur et de la Recherche. Joseph Oesterlé (Université Pierre et Marie Curie) lui succède, suivi de Michel Broué (Université Denis-Diderot) en 1999, puis de Cédric Vil/ani (École normale supérieure de Lyon) en 2009. (Extrait d'une note de synthèse sur l'Institut Henri Poincaré.) CHAPITRE 34 Prague) le 4 août 2009 Prague, la ville d'Europe mythique s'il en est. La lé- gende du Golem, la chanson de Messia, la biographie de Kafka dessinée par Crumb et Mairowitz, tout cela et bien davantage résonne dans ma tête pendant que je parcours les rues où les horloges millénaires côtoient les bars à dan- seuses légèrement vêtues, et où les étudiants partent danser en boîte avec cornes de diablesse et capes de superhéros. Il y a quelques semaines, sur le chemin d'Oberwolfach, les passants ouvraient des yeux ronds devant mon costume ; mais à Prague, je pourrais presque passer pour un expert- comptable. C'était hier la cérémonie d'ouverture du Congrès Inter- national de Physique Mathématique, organisé par l'associa- tion du même nom. Nous étions quatre à recevoir en grande pompe le prix Henri Poincaré, sans doute la plus haute dis- tinction internationale en physique mathématique. Outre l'Américain Robert Seiringer (catégorie junior comme moi) il y avait parmi les lauréats le Suisse Jürg Frohlich et le Russe Yasha Sinaï. Ces spécialistes de mécanique quantique et classique, physique statistique et systèmes dynamiques, sont tous des amis, et le clairvoyant Joel Lebowitz les a tous intégrés depuis longtemps dans le comité éditorial de son Journal of Statistical Physics. Je suis heureux et fier d'être en si bonne compagnie. 205 Avoir reçu ce prix me donne droit à une conférence plénière au Congrès, même si je n'étais pas programmé au départ. Bien qu'ayant reçu le prix Poincaré pour mes tra- vaux sur Boltzmann, j'ai choisi de parler d'amortissement Landau : c'est une occasion inespérée de faire connaître mes résultats récents devant le plus bel auditoire de phy- sique mathématique que l'on puisse imaginer. Il y a trois minutes, avant le début de ma conférence, mon cœur battait à tout rompre, l'adrénaline coulait à flots dans mes veines. Mais maintenant que j'ai commencé à par- ler, je suis calme et sûr de moi. - It so happens that I was just appointed Director of the Institut Henri Poincaré, at the same time that I receive the Henri Poincaré Prize. This is just a coïncidence, but I like it ... L'exposé, minutieusement préparé, se déroule bien, je finis juste à l'heure. - ... To conclude, let me note the nice coïncidence! In order to treat the singularity of the Newton interaction, you use the full power of the Newton scheme. Newton can be proud ! This is just a coïncidence, but I like it. L'accueil est triomphal, je lis dans certains regards un mélange d'étonnement et d'admiration, avec un soupçon de crainte - il faut dire que la preuve est si intimidante, elle me dépasse moi-même! Et puis il y a les filles, les jeunes Praguoises, avant ma conférence elles me regardaient sans trop prêter attention, mais après c'est tout différent, elles se pressent, me félicitent pour la clarté de l'exposé; l'une récite avec émotion un petit compliment dans un français hésitant. Certes, les questions habituelles sont revenues, toujours les mêmes. La régularité analytique, peut -on la relaxer ? Pour une interaction newtonienne, ne peut -on pas aller en temps infini? Mais cela n'inquiète guère mon ami portugais Jean-Claude Zambrini, qui me glisse à la fin de l'exposé : «Puisque tu attires les coïncidences, Cédric, maintenant 206 tout ce qu'on peut te souhaiter c'est de te faire inviter par le Fields Institute ! » L'Institut Fields - qui ne joue aucun rôle dans l' attribu- tion de la médaille du même nom-est basé à Toronto, et il s'y tient régulièrement des colloques pour toutes sortes de mathématiciens. Je rigole avec Jean-Claude ... mais seulement un mois et demi plus tard, pure coïncidence, l'invitation arrive. Date: Tue, 22 Sep 2009 16:10:51 -0400 (EDT) From: Robert McCann <mccann@math.toronto.edu> To: Cedric Villani <Cedric.VILLANI@umpa.ens-lyon.fr> Subject: Fields 2010 Dear Cedric, Next fall I am involved in organizing a workshop on "Geometrie Probability and Optimal Transportation" Nov 1-5 as part of the Fields Theme Semester on "Asymptotic Geometrie Analysis". You will certainly be invited to the workshop, with all expenses covered, and I hope you will be able to come. However, I also wanted to check whether there is a possibility you might be interested in visiting Toronto and the Fields Institute for a longer period, in which case we would try to make the opportunity attractive. Please let me know, Robert CHAPITRE 35 New York, le 23 octobre 2009 En France, les enfants font la connaissance du petit bébé sanglier capturé à mains nues par leur oncle. J'aurais tellement aimé le voir ! Mais j'ai préféré utiliser les vacances pour caser une éprouvante tournée américaine qui me voit sillonner les États-Unis en quelques jours seulement. Je suis déjà passé par Boston, rendre visite au MIT (sur les traces de Wiener et Nash ! ) et à l'Université Harvard. Maintenant je suis à New York. Je me console en me disant que dès que je ren- trerai en France, j'irai voir le petit sanglier et l'emmènerai promener dans les bois. C'est le soir, j'ouvre mon courrier électronique. Mon cœur bondit : un message en provenance d'Acta Mathema- tica, une revue de recherche mathématique que beaucoup considèrent comme la plus prestigieuse de toutes. C'est là que Clément et moi avons soumis pour publication notre monstre de 180 pages. À coup sûr, c'est à ce sujet que la revue m'écrit. Mais ... nous l'avons soumis il y a moins de quatre mois ! Compte tenu de la taille du manuscrit, c'est beaucoup trop court pour que les referees aient rendu leur avis et les édi- teurs pris une décision positive. Une seule explication : la revue écrit pour annoncer que l'article est refusé. J'ouvre le message, je lis en diagonale, j'examine fébri- lement les rapports des experts. Je serre les lèvres et je les 209 relis. Six rapports, dans l'ensemble très positifs, très tout, mais ... oui, c'est toujours pareil, c'est l'analyticité qui leur pose souci, et le cas limite en temps grand. Toujours les mêmes deux questions, auxquelles j'ai dû répondre déjà des dizaines de fois dans mes exposés passés, et qui me valent maintenant de voir le manuscrit refusé ! L'éditeur n'est pas convaincu que les résultats soient définitifs, et l'article est si long qu'il se doit d'être plus intransigeant encore que de coutume. Quelle injustice! ! Malgré toute l'innovation qu'on a mise dans cet article, le défrichage complet du sujet ? On a surmonté tant d'obstacles techniques, passé tant de nuits grises ... et ce n'est pas encore assez beau pour eux? ? J'en suis malade ! Tiens ... un autre courrier m'informe que je viens de rem- porter le prix Fermat. Du nom du mathématicien français Pierre de Fermat, prince des amateurs, qui au dix-septième siècle faisait enrager l'Europe entière par ses énigmes ma- thématiques. Il a révolutionné la théorie des nombres, le calcul des variations et le calcul des probabilités ; aujour- d'hui le prix Fermat est attribué tous les deux ans à un ou deux chercheurs âgés de moins de 45 ans qui ont effectué des contributions majeures dans l'un de ces domaines. Cette annonce de prix me donne du baume au cœur, mais ne suffit tout de même pas à compenser la frustration de voir mon article refusé. Pour me consoler il me faudrait au moins un gros câlin. En 1882, le mathématicien suédois Gosta Mittag-Le/fler convainc ses collègues nordiques de créer ensemble une revue mathématique scandinave consacrée à la recherche du plus haut niveau. Ce sera Acta Mathematica, dont Mittag-Le/fler devient le rédacteur en chef Communiquant régulièrement avec les meilleurs mathé- maticiens du monde, doté d'un goût très sûr et d'une bonne dose d'audace, Mittag-Le/fler parvient rapidement à attirer les 210 meilleurs articles mathématiques du moment. Dans son écu- rie d) auteurs) son poulain préféré est certainement le génial et imprévisible Henri Poincar~ dont Mittag-Le/fler ne craint pas de publier de longs articles révolutionnaires. L épisode le plus célèbre de la vie du journal coïncide avec t un des épisodes les plus célèbres de la carrière de Poincaré. Sur le conseil de Mittag-Le/fler; le roi Oscar II de Suède avait lancé un grand concours de mathématique) sur un thème à choisir dans une courte liste. Poincaré releva le défi et choisit de traiter le sujet de la stabilité du système solaire) un pro- blème ouvert depuis Newton déjà! En effet) si Newton a écrit les équations des planètes du système solaire (les planètes sont attirées par le Soleil) et s) attirent les unes les autres)) il a été incapable de montrer que ces équations entraînent la stabi- lité du système solaire) ou de déceler si au contraire elles ren- ferment en elles une catastrophe annoncée -la collision de deux planètes) qui sait ? En physique mathématique) ce pro- blème est connu de tous. Newton pensait que le système était intrinsèquement in- stable) et que la stabilité que nous observons est due à une main divine secourable. Mais plus tard) Laplace et Lagrange) puis Gauss) ont montré que le système de Newton est stable sur un temps gigantesque) peut-être un million d) années) beaucoup plus que Newton lui-même ne le pensait. C)était la première /ois dans r histoire de t humanité que ton prédisait qualitativement le comportement des astres sur une échelle de temps bien plus longue que toutes les archives jamais consi- gnées! La question restait cependant posée : au-delà de ces temps gigantesques) la catastrophe est-elle possible ? Si ton attend non pas un mais cent millions d) années) est-ce que Mars et la Terre risquent d) entrer en collision ? Derrière ce problème particulier; il y a des questions de fond sur la physique en général. Poincaré ne traite pas le système solaire complet -trop compliqué! À la place il considère un système solaire réduit 211 et idéalis~ ne comptant que deux planètes tournant autour du Solei~ avec l'une minuscule par rapport à l'autre. Un peu comme si l'on oubliait toutes les planètes sauf Jupiter et la Terre ... Poincaré a étudié ce problème épur~ l'a simplifié en- core davantage, jusqu'à en extraire le cœur vivant. Il a inventé de nouvelles méthodes pour l'occasion, et il a prouvé la stabi- lité éternelle de ce système réduit! Pour cet exploit, il reçut la gloire et la récompense du roi Oscar. Le manuscrit vainqueur devait être publié dans Acta Ma- thematica. Mais l'assistant qui éditait le texte était trou- blé par quelques passages un peu con/us dans la solution de Poincaré. Rien que du banal : tout le monde savait que Poincaré n'était pas un modèle de clarté. Il fit part de ses in- terrogations au monument de la mathématique française. Le temps que Poincaré réalise qu'une faute grave s'était glissée dans sa démonstration, l'article était déjà publié.' Un erratum n'était pas suffisant, les résultats mêmes de l'article étaient vérolés en profondeur. Sans se démonte1; Mittag-Leffler rappela tous les exem- plaires de sa revue un par un, sous des prétextes /utiles, avant que quiconque se rende compte de l'erreur. Il passa tout, ou presque, au pilon. Poincaré paya les /rais -il lui en coûta plus que la récompense du roi Oscar .' Là où l'histoire devient extraordinaire, c'est que Poincaré transforma son erreur en acte fondateur. Il réussit à tout re- mettre debout, changea ses conclusions, découvrit qu'il avait démontré le contraire de ce en quoi il avait cru : l'instabilité est possible.' Corrig~ republi~ l'article /ut le texte fondateur de la théorie des systèmes dynamiques, une théorie qui de nos jours occupe des milliers de chercheurs à travers le monde. La théo- rie du chaos, l'effet papillon, tout cela est en germe dans l'article de Poincaré. Ce qui aurait pu être un désastre était pour Acta Mathematica un triomphe. 212 La gloire de la revue continua à embelli1; et elle de- vint l'une des plus prestigieuses, ou peut-être la plus presti- gieuse au monde. Aujourd' huz~ glisser un article de recherche parmi les 600 pages que publie annuellement cette revue suf fit presque à assurer votre avenir professionnel dans la com- munauté mathématique. Quand Poincaré mourut en 1912, il/ut célébré en France comme un héros national. En 1916, Mittag-Le/fler à son tour s'éteignait; on trans/arma alors sa demeure en un centre in- ternational de recherche, où des mathématiciens venus de par- tout dans le monde pourraient discuter et réfléchir ensemble à de nouveaux problèmes. C'était l'Institut Mittag-Lefjle1; le tout premier en son genre, encore en activité de nos jours. En 1928, on fonda à Paris un second centre, bâti sur les mêmes principes de brassage internationa~ faisant la part belle aux cours de niveau recherche: l'Institut Henri Poincaré. ~rnri Jlninraré &: <rtosta .Mitlag-trrfflrr CHAPITRE 36 Ann Arbo1; le 2 7 octobre 2009 Dans ma chambre d'hôtel à Ann Ar bor. Je passe quelques jours à l'Université du Michigan - une grande université avec quelques mathématiciens de tout premier ordre. Clément a été très abattu par le refus d'Acta Mathema- tica, il souhaitait qu'on tente de les convaincre de revenir sur leur décision, de leur expliquer pourquoi notre résultat est si novateur et important, même s'il reste une petite zone d'ombre ... Mais je connais mieux que lui ces revues très presti- gieuses. Je suis moi-même éditeur dans la revue concur- rente Inventiones Mathematicae, et je sais combien je dois être impitoyable pour juger les manuscrits qui me sont sou- mis. Les éditeurs d'Acta ont le cuir encore plus dur, rien ne pourra les émouvoir sauf si l'on démontre qu'un referee est de mauvaise foi (mais de cela il n'y a aucune indication), ou si on leur apporte de nouveaux éléments. Une piste serait de couper cet énorme article en deux pour le publier plus facilement, mais cette pratique me ré- pugne ... Alors pour l'instant on laisse en plan. Mes exposés à Ann Arbor se passent bien, mais en- core et toujours les mêmes questions. J'ai discuté avec Jeff Rauch, spécialiste des équations aux dérivées partielles, qui a longtemps collaboré avec des Français. Jeff n'a pas été choqué par le fait que le résultat ne vale pas en temps in- fini, mais il n'a pas aimé l'hypothèse d'analyticité. Certes, 215 d'autres au contraire voudraient un temps infini et se sou- cient peu de l'analyticité, alors je pourrais me dire que ce n'est pas grave; mais je fais confiance au jugement de Jeff et sa critique me trouble. C'est pourquoi ce soir je couche sur le papier un raisonnement destiné à lui montrer que notre preuve est au plus près et qu'on ne pourra guère l'améliorer. Ce travail est destiné à moi autant qu'à lui, d'ailleurs. Jeff Rauch Le temps passe, sur mon lit d'hôtel je griffonne et je grif- fonne, mais je n'arrive pas à me convaincre ... Et si je n'arrive pas à me convaincre moi-même, il y a peu de chances que j'arrive à convaincre Jeff ! ! -Et si je faisais fausse route, si mes estimations étaient trop grossières ? Pourtant ici je n'ai rien perdu ... là ce serait bien le diable si j'avais loupé un truc ... ici c'est optimal... là, ma simplification ne peut qu'améliorer les choses, à moins d'un ensorcellement ... Comme un cycliste examinant sa chaîne de vélo en quête de la moindre fragilité, je parcours la preuve, vérifiant la précision des arguments à chaque étape. Et là!?!?! Là ! À cet endroit j'ai peut-être été trop négligent ! Mais comment ça se fait ? 216 -Ça veut dire quoi, bon sang? Je n'ai pas vu que les modes s'écartaient les uns des autres, et ma comparaison par somme est trop grossière ? Si c'est le sup par rapport à la somme, évidemment que je vais y perdre! ! Alors bon, c'est vrai que c'était noyé sous la complexité technique ... Je grommelle et je reprends, dans ma tête. -Ben oui... les modes ils sont écartés les uns des autres, et le poids se déplace, si je les regarde globalement je perds quelque chose de monstrueux ! ! Mais alors, il faut les contrôler séparément ! ! ! C'est l'illumination, là, avec mon crayon, sur le lit. Je me lève et arpente fiévreusement la chambre, le brouillon à la main, le regard fixé sur les formules cabalistiques. Le sort de l'article vient de basculer une nouvelle fois. Cette fois il ne s'agit pas de réparer une erreur, mais d'améliorer les résultats. -Comment on va exploiter ça? Je ne sais pas, mais c'est parti, on va tout dérouler. On a enfin une piste pour répondre aux deux sempiternelles objections. Since r = 1 is the most interesting case, it is tempting to believe that we stumbled on some deep dz/ficulty. But this is a trap: a much more precise estimate can be obtained by separating modes and estimating them one by one, rather than seeking /or an estimate on the who le norm. Nam ely, z/ weset 'Pk(t) = e27r(Àt+JL)Ikllp(t, k)i, th en we have a system of the /orm 'Pk(t) ::; ak(t) + (k +c:)~+l 'Pk+l (k ~ 1 ) . (7 .15) Let us assume that ak(t) = O(e-ak e- 2 1l"Àiklt). First we simplz/y the time-dependence by !etting Ak(t) = ak(t) e21l"Àiklt, <I>k(t) = 'Pk(t) e21l"Àik1t. 217 Th en (7.15) becomes (7.16) (The exponential /or the last term is right because ( k + 1) (kt/ ( k + 1)) = kt.) Now z/ we get a subexponential es ti- mate on <I>k(t)) this will imply an exponential decay /or 'Pk(t). Once again) we look /or a power series) assuming that Ak is constant in time) decaying like e-ak as k ----+ OO/ so we make the ansatz <I>k(t) = l:m ak,m tm with ak,o = e-ak. As an exercise) the reader can work out the doubly recurrent estimate on the coefficients ak,m and deduce wh en ce <I>k(t) ~ const. A e(l-a)(ckt)a, 1 Va<--. (7.17) r+2 This is subexponential even /or r = 1: in /act) we have taken advantage of the /act that echoes at different values of k are asymptotically rather weil separated in time. As a conclusion) as an e//ect of the singularity of the in- teraction) we expect to lose a fractional exponential on the convergence rate: z/ the mode k of the source decays like e- 2 1r.XIklt) then 'Pk) the· mode k of the solution) should decay like e- 2 1r.XIklt e(clklt)a. More general/y) z/ the mode k decays like A(kt)) one expects that 'Pk(t) decays like A(kt) e(clklt)a. Th en we con elude as be/ore by absorbing the /ractional expo- nential in a very slow exponentia~ at the priee of a very large constant: say (Extrait de mes notes de cours sur l'amortissement Landau) rédigées pour une école d) été en 2010 au Centre in- ternational de rencontres mathématiques à Luminy.) CHAPITRE 37 Aéroport de Charlottesville, le 1er novembre 2009 En transit entre Palm Beach et Providence, dans un aé- roport anonyme. Je viens de passer la corvée du contrôle de sécurité. Se débarrasser de sa ferraille n'est déjà facile pour personne, mais quand en plus on porte boutons de man- chette et montre à gousset, avec en prime une ou deux clés USB et une demi-douzaine de stylos dans les poches ... À Palm Beach, dans ce colloque organisé par Emanuel Milman, c'était la belle vie ! En quelques mètres on passait de la ville à la plage. Et la mer, comme un bain chaud. La nuit la température était idéale, et il n'y avait personne, pas besoin de maillot de bain ... vraiment comme dans une bai- gnoire ! Une baignoire aux dimensions de l'océan, avec les flots en plus et le sable doux. Et tout cela en novembre ! Mais c'est fini, je retourne vers le froid. Grâce à la rapi- dité contre nature de l'avion, cela va se faire si vite ! Et si pendant cette escale à Palm Beach j'ai pu oublier un jour ou deux l'amortissement Landau, maintenant il oc- cupe à nouveau toutes mes pensées. Je commence à com- prendre comment faire pour améliorer le tout, dans la li- gnée de mon illumination d' Ann Arbor. Mais ça s'annonce énorme ! Est -ce que j'ai assez confiance pour en parler à Providence, alors que c'est encore préliminaire ? Il y aura Yan Guo, par qui le Problème est arrivé, ce sera un exposé très important. 219 Sur le brouillon, je commence à esquisser l'améliora- tion, à refaire les calculs. Ça me saute aux yeux : il y a quelque chose qui cloche, une contradiction. -C'est pas possible que je puisse démontrer une esti- mée aussi forte ... Encore quelques minutes et je me convaincs qu'il y a une faute dans certaines parties complexes de la preuve. Est -ce que tout est faux ? L'aéroport tangue autour de moi. Je me reprends. La faute, Cédric, ne peut pas être trop grave. L'ensemble du papier fonctionne trop bien, la faute doit être locale, seulement dans ce passage. Et c'est parce que le calcul est obscurci par ces deux shifts à la noix, ce double décalage en temps que tu as introduit en revenant du Muséum ! Mais Clément a bien montré ensuite com- ment s'en passer ! ! Alors il va falloir les virer, c'est trop dan- gereux-dans une preuve de cette complexité, la moindre source d'obscurité doit être éliminée. Quand même, ce double décalage, si je ne l'avais pas trouvé, on serait peut-être restés coincés pour de bon. C'est lui qui nous a rendu l'espoir, nous a permis d'avancer à nou- veau, même si après on a compris qu'on pouvait s'en passer. Et finalement c'est faux ! ? Mais on va tout réécrire calme- ment, sans faire appel à lui. Pour l'instant je vais voir comment faire l'annonce à Providence. Il faut indiquer que je pense avoir identifié la source d'amélioration, c'est important parce que ça répon- drait aux deux critiques que l'on fait toujours sur le résul- tat ... mais en même temps, il ne faut pas tricher, pas de bluff cette fois! Palm Beach vers Providence, quel voyage mouvementé, finalement. 220 Récapitulatif de votre réservation West Palm Beach-Providence Détails du vol : dimanche 1er novembre 2009 Durée du trajet: 6h39 Départ : 15h00 West Palm Beach, PBI (Floride, États-Unis) Arrivée : 16h53 Charlotte Douglas (Caroline du Nord, États-Unis) US Airways 1476 Boeing 737-400 Classe Économique. Départ: 19h49 Charlotte Douglas (Caroline du Nord, États-Unis) Arrivée : 21h39 Providence TF Green (Rhode Island, États-Unis) US Airways 828 Airbus Industrie A319 Classe Économique. Coulomb/Newton (most interesting case) In the proof the Coulomb/Newton interaction and the analytic regularity are both critical; but it still works on ex- ponentially large times "because" • the expected linear decay is exponential • the expected nonlinear growth is exponential • the Newton scheme converges bi-exponentially Still it seems possible to go further by exploiting the fact th at echoes at different spatial /requencies are asymptotically rather well separated (Extrait de mon exposé à Brown University, 2 novembre 2009.) CHAPITRE 38 Saint-Rémy-lès-Chevreuse, le 29 novembre 2009 Dimanche matin, je griffonne dans mon lit, c'est un mo- ment privilégié dans une vie de mathématicien. Je relis la dernière version de notre article, je biffe, je corrige. Je suis plus serein que je ne l'ai été depuis bien des mois ! Nous avons tout réécrit. Éliminé les doubles shifts traîtres. Réussi à exploiter la séparation temporelle asymp- totique des échos, changé le cœur de la démonstration, étu- dié mode par mode ce qui auparavant était géré globale- ment, relaxé la condition d'analyticité, et puis inclus le cas coulombien en temps infini, dont tout le monde nous re- battait les oreilles ... tout refait, tout simplifié, tout relu, tout amélioré, tout relu encore. Tout cela aurait pu prendre bien trois mois, mais avec l'exaltation, trois semaines ont suffi. En relisant les détails, plus d'une fois on s'est demandé comment on avait pu trouver telle ou telle astuce. Le résultat maintenant est bien plus fort. On a aussi ré- solu par la même occasion un problème qui intriguait les spécialistes comme Guo depuis longtemps, en termes tech- niques ça s'appelle la« stabilité orbitale d'équilibres homo- gènes linéairement stables non monotones». On a ajouté des passages, mais on a aussi simplifié par ailleurs, de sorte que c'est à peine plus long qu'au départ. 223 De nouvelles simulations numenques sont arnvees. Quand j'ai vu les premiers résultats la semaine dernière, j'ai sauté au plafond : les calculs que Francis avait réali- sés par ordinateur avec une recette extrêmement précise semblaient être en parfaite contradiction avec nos résultats théoriques ! Mais je ne me suis pas démonté, j'ai fait part de mes doutes à Francis, et il a tout repris avec une autre méthode censée être encore plus précise. Quand les nou- veaux résultats sont arrivés, cette fois ils collaient bien avec la prédiction théorique. Ouf ! Comme quoi les calculs ne remplacent pas la compréhension qualitative. Demain, on sera prêts pour mettre la nouvelle version à disposition sur Internet. Et à la fin de la semaine, on pourra resoumettre à Acta Mathematica, avec de bien meilleures chances de succès. Dans un coin de ma tête, je ne peux m'empêcher de penser à Poincaré lui-même. L'un de ses plus célèbres ar- ticles a été repoussé par Acta, corrigé et finalement publié. Peut-être que la même chose va m'arriver? C'est déjà une année Poincaré, puisque j'ai reçu le prix Poincaré, que je dirige l'Institut Poincaré ... Poincaré, quand même... Attention, Cédric, au délire mégalomane. 224 Paris) December 6) 2009 Cédric Villani École Normale Supérieure de Lyon & Institut Henri Poincaré 11 rue Pierre & Marie Curie F-75005 Paris) FRANCE cvillani©umpa.ens-lyon.fr To Johannes Sjostrand Editor of Acta Mathematica IMB) Université de Bourgogne 9) Av. A. Savarey) BP 47870 F-21078 Dijon) FRANCE johannes.sjostrand©u-bourgogne.fr Resubmission to Acta Mathematica Dear Pro/essor Sjostran~ Following your letter of October 23) we are glad to submit a new version o/ our pa pet; On Landau damping, /or possible publication in Acta Mathematica. We have taken good note of the concerns expressed by some of the experts in the screening reports on our first sub- mission. We be lieve th at the se concerns are /ully addressed by the present) notably improved) version. First and maybe most importantly) the main result now covers Coulomb and Newton potentials ). in an analytic set- ting this was the only remaining gap in our analysis. Analyticity is a classical assumption in the study of Landau dampin& bath in physics and mathematics ). it is man- datory /or exponential convergence. On the other hand) it is very rigid) and one of the referees complained that our results were tied to analyticity. With this new version this is not so) since we are now able to caver some classes of Gevrey data. 225 In the first version, we wrote ((we claim that unless some new stability e/fect is identified, there is no reason to believe in nonlinear Landau damping /or_, say, gravitational interac- tion, in any regularity class lower than anal y tic.'' Sin ce th en we have identified precis ely such an e/fect ( echoes occurring at different /requencies are asymptotically well separated). Ex- ploiting it led to the above-mentioned improvements. As a corollary, our work now includes new results of stability /or homogeneous equilibria of the Vlasov-Poisson equation, such as the stability of certain nonmonotone distri- butions in the repulsive case (a longstanding open problem), and stability below the Jeans length in the attractive case. Another reservation expressed by an expert was our use of nonconventional /unctional spaces. Wh ile this may be the case /or our ((working norm", it is not so for the naive norm appearing in our assumptions and conclusions, already used by others. Passing /rom one norm to the other is done by means o/Theorem 4.20. The paper was entirely rewritten to incorporate these im- provements, and ca re/ully proo/read. To prevent /urther infla- tion of the size, we have eut all developments and comments which were not strictly related to our main result; most of the remaining remarks are those intended to just exp lain the results and methods. As a final comment about the length of our work, we are open to discussion regarding adjustments of organization of the paper_, and we note that the modular presentation o/ the tools used in our work probably makes it possible /or some referees to work in team, thereby hope/ully alleviating their tas k. We very much hope th at this paper will satis/y the experts and remain Yours truly, Clément Mouhot & Cédric Villani ON LANDAU DAMPING C. MOUHOT AND C. VILLAN! ABSTRACT. Coing beyond the linearized study has been a longstanding problem in the theory of Landau damping. In this paper we establish exponential Lan- dau damping in analytic regularity. The damping phenomenon is reinterpreted in terms of transfer of regularity between kinetic and spatial variables, rather than exchanges of energy; phase mixing is the driving mechanism. The analysis involves new families of analytic norms, measuring regularity by comparison with solutions of the free transport equation; new functional inequalities; a control of nonlinear echoes; sharp scattering estimates; and a Newton approximation scheme. Our results hold for any potential no more singular thau Coulomb or Newton interac- tion; the limit cases are included with specifie technical effort. As a side result, the stability of homogeneous equilibria of the nonlinear Vlasov equation is established under sharp assumptions. We point out the strong analogy with the KAM theory, and discuss physical implications. CoNTENTs 1. Introduction to Landau damping 2. Main result 3. Linear damping 4. Analytic norms 5. Scattering estimates 6. Bilinear regularity and decay estimates 7. Control of the time-response 8. Approximation schemes 9. Local in time iteration 10. Global in time iteration 11. Coulomb/Newton interaction 12. Convergence in large time 13. Non-analytic perturbations 14. Expansions and counterexamples 15. Beyond Landau damping Appendix References 4 13 26 36 64 71 82 114 120 125 158 164 167 171 178 180 182 Keywords. Landau damping; plasma physics; galactic dynamics; Vlasov-Poisson equation. AMS Subject Classification. 82C99 (85A05, 82D10) CHAPITRE 39 Saint-Rémy-lès-Chevreuse, le 7 janvier 2010 La lecture du courrier électronique, dès le lever - comme une première injection de drogue douce intellec- tuelle. Parmi les nouveaux messages, mon collaborateur Laurent Desvillettes me transmet une sombre nouvelle : notre ami commun Carlo Cercignani est mort. Le nom de Cercignani est indissociable de celui de Boltzmann. Carlo a consacré sa vie professionnelle à Boltzmann, à ses théories, à son équation, à toutes ses appli- cations. Il a écrit trois livres de référence sur le sujet ; celui qu'il a publié en 1975 est le premier ouvrage de recherche que j'ai lu dans ma vie. Malgré son obsession boltzmannienne, Cercignani était extraordinairement diversifié. À travers l'équation de Boltzmann il a exploré quantité de domaines mathéma- tiques qui étaient liés, de près ou de très loin, à son équation chérie. Et puis cet homme universel, polyglotte et cultivé, ne s'est pas limité aux sciences : ses œuvres incluent une pièce de théâtre, un recueil de poèmes et des traductions de Homère. 229 Mon premier résultat important, ou du moins le pre- mier dont je suis vraiment fier, portait sur la « Conjec- ture de Cercignani ». Avec mes vingt-trois ans et mon enthousiasme tout neuf, j'étais l'invité de Giuseppe Toscani à Pavie. Giuseppe m'avait confié son idée pour avancer sur la fameuse conjecture, m'avait suggéré de l'essayer pendant mon bref séjour. En quelques heures j'avais bien compris que son idée naïve n'avait aucune chance de fonctionner ... mais au passage j'avais noté un calcul intéressant, un calcul qui« sonnait bien». Un peu comme une nouvelle identité remarquable. Et à partir de là, je lançais une nouvelle idée ; la fusée mathématique était prête à décoller. J'avais ensuite montré à Giuseppe comment on pouvait ramener le problème de Cercignani, sur la production d'en- tropie dans l'équation de Boltzmann, à une estimation de la production d'entropie dans un problème de physique des plasmas, que par hasard j'avais déjà étudié avec Laurent. Et puis j'y avais ajouté une pincée de théorie de l'information, un sujet qui m'a toujours passionné. Incroyable concours de circonstances, qui ne se serait pas produit si Giuseppe n'avait eu sa mauvaise idée précisément au moment de ma visite! Nous avions alors presque résolu la conjecture, et j'avais plus tard présenté avec émotion ces résultats aux meilleurs experts de l'équation de Boltzmann, lors d'un colloque à Toulouse. Comme beaucoup d'autres, Carlo m'avait décou- vert à cette occasion, il était aux anges et me l'avait fait savoir. Il m'avait harangué d'une voix vibrante : « Cédric, prove my conjecture!» À vingt-trois ans, c'était l'un de mes premiers articles. Mais cinq ans plus tard, pour mon vingt-troisième article, je revenais sur ce problème avec plus d'expérience et de tech- nique, et je réussissais, enfin, à prouver la fameuse conjec- ture ; Carlo en était si fier. Carlo comptait sur moi pour résoudre certains des pro- blèmes les plus rageants et les plus importants qui restent 230 dans l'étude de l'équation de Boltzmann. Cela faisait partie de mes rêves aussi, mais j'ai divergé sans crier gare, d'abord vers le transport optimal et la géométrie, ensuite vers l' équa- tion de Vlasov et l'amortissement Landau. Je compte bien revenir à Boltzmann, plus tard. Mais même si je réalise mes rêves en la matière, je n'aurai jamais la joie et la fierté d'annoncer à Carlo que j'ai apprivoisé son monstre préféré, celui pour lequel il aurait tout donné. La conjecture de Cercignani concerne les liens entre Fen- tropie et la production d'entropie dans un gaz. Pour simpli- fier, oublions les inhomogénéités spatiales du gaz, de sorte que seule la distribution de vitesses compte. Soit donc une distribution de vitesses f (v) dans un gaz hors d'équilibre : la distribution n'est pas égale à la gaussienne!( v), et par consé- quent l'entropie n'est pas aussi élevée qu'elle pourrait l'être. L'équation de Boltzmann prédit que l'entropie va croi'tre, mais va-t-elle croi'tre beaucoup ou très peu ? La conjecture de Cercignani espère que F augmentation instantanée d'entropie est au moins proportionnelle à la dif férence entre F entropie de la gaussienne et l'entropie de la distribution qui nous intéresse : S ~ K [S(r)-S(f)]. Cette conjecture a des implications sur la vitesse à laquelle la distribution converge vers l'équilibre, une question fonda- mentale puisqu'elle est liée à la fascinante découverte de l'ir- réversibilité par Boltzmann. Au début des années 90, Laurent Desvillettes, puis Eric Carlen et Maria Carvalho, travaillèrent sur cette conjecture, obtinrent des résultats partiels; bien qu'ils aient ouvert des horizons complètement nouveaux, ils étaient encore loin du compte. Et Cercignani lui-même, avec F aide du Russe Sas ha Bobylev, montra que sa conjecture était trop optimiste, ne 231 pouvait être vraie... sauf peut-être en considérant des colli- sions extrêmement fortes, des interactions plus dures que les sphères dures, avec une section efficace croissant au moins proportionnellement à la vitesse relative -des «sphères très dures», comme on dit dans le jargon de la théorie cinétique des gaz. Mais en 1997, Giuseppe Toscani et moi-même montrions une borne «presque» aussi bonne : s ~ KE [S(r)-S(f)] 1 +E, où E est aussi petit que l'on souhaite, sous certaines hypo- thèses techniques sur les collisions. En 2003, je montrais que ce résultat reste vrai pour toutes les interactions raisonnables; et surtout je parvenais à mon- trer que la conjecture est vraie si les collisions à grande vitesse sont du type des sphères très dures. I: identité clé, découverte avec Toscani en 1997, était la suivante: Si ( St) t?::O est le se mi-groupe associé à l'équation de Fokker-Planck, Otf = Vv · (Vvf + fv), et E(F,G) ·- ( F -G) log( F / G), alors :t lt=o [S,, E] = -J, où :J(F,G)=JVlogF-VlogGj 2 (F+G). Cette identité joue un rôle clé dans la formule de représenta- tion x :J(StF, StG) dv dv* dt, où F(v, v*) = f(v)f(v*) et G(v, v*) est la moyenne de tous les produits f(v')f(v:) quand (v', v:) décrit tous les couples 232 de vitesses postcollisionnelles compatibles avec les vitesses précollisionnelles (v, v*). Cette formule est à la base de la solution de la conjecture de Cercignani. Carfo Cercignani Theorem (Villanz~ 2003). Let S(f) = -J f log f denote the Boltzmann entropy associated with a velocity distribution f = f(v). Let B be a Boltzmann collision kernel satisfying B( v-v*, a) 2:: KB ( 1 +lv-v* 1 2 ) for some constant KB > 0) and denote by S the associated entropy production functiona~ S = ~ 111 (f(v') f(v:)-f(v) f(v,)) J'( v) J'( v*) x log f(v)f(v*) Bdvdv*da. Let f = f (v) be a probability distribution on JRN with zero mean and unit temperature. Then S(f) ~ ( ~~~:~~i) (N-T*(f)) [S(r)-S(f)], where T*(f)= n1aX r f(v)(v·e) 2 dv. eESN-l }T'Jf,_N CHAPITRE 40 Paris, le 16 février 2010 Fin d'après-midi, dans mon grand bureau de l'Institut Henri Poincaré. J'ai fait agrandir le beau tableau noir et éliminer quelques meubles pour dégager de l'espace. J'ai longuement réfléchi à la façon dont je vais réaménager ce bureau. D'abord, le climatiseur encombrant va disparaître, en été c'est normal d'avoir chaud ! Contre le mur, une grande vitrine accueillera quelques objets personnels, et quelques-uns des fleurons de la collec- tion de modèles géométriques de l'Institut. À ma gauche, j'installerai le buste un peu austère de Henri Poincaré promis par son petit-@s, François Poincaré. Et derrière moi, j'ai réservé un large espace pour un por- trait de Catherine Ribeiro ! J'ai déjà choisi l'image, trouvée sur Internet, Catherine écartant les bras en signe de lutte, de paix, de force et d'espoir. Bras écartés comme le révolté du Tres de Maya de Goya face aux soldats de Napoléon, ou comme la Nausicaa de Miyazaki face aux soldats de Péjité. C'est une image de force mais aussi d'abandon et de vul- nérabilité. J'aime bien cela aussi : on ne progresse guère si l'on n'accepte pas de se mettre en position vulnérable. Cette image de la pasionaria chanteuse, reprise par Baudoin dans sa magnifique Salade niçoise, il me la faut pour veiller sur moi, il faudra que je la négocie directement auprès de Catherine. 235 Aujourd'hui comme toujours, des rendez-vous, des dis- cussions, des réunions. Un long coup de téléphone avec mon président de conseil d'administration, P-DG d'une en- treprise d'actuariat, passionné par l'engagement du secteur privé au service de la recherche scientifique. Et cet après- midi, une séance de photographies, pour illustrer une inter- view dans un magazine de vulgarisation scientifique. Rien de tout cela n'est pesant, c'est un univers passionnant que je découvre depuis six mois ; nouveaux contacts, nouvelles relations, nouvelles discussions. Alors que le photographe prépare son matériel dans mon bureau, installant trépied et réflecteur, le téléphone sonne, je décroche distraitement. -Allô, oui. -Hello, is this Cédric Villani ? - Y es, this is me. -This is Laszl6 Lovasz from Budapest. Mon cœur s'arrête un instant. Laszl6 est le président de l'Union mathématique internationale, et, en tant que tel, président du comité pour la médaille Fields. C'est d'ailleurs la seule information que j'ai sur ce comité: à part lui, je n'ai pas la moindre idée des personnes qui le constituent. -Hello, Professor Lovasz, how are you doing? -Good, l'rn fine, I have news, good news for you. - Oh, really ? C'est comme dans un film ... je sais que c'est la phrase qu'a entendue Wendelin Werner il y a quatre ans déjà. Mais si tôt dans l'année ? -Y es, I' rn glad to anno un ce th at you have won a Fields Medal. -Oh, this is unbelievable ! this is one of the most beau- tiful da ys in my life. What should I say ? - I think you should just be glad and accept it. Depuis que Grigori Perelman a refusé la médaille Fields, le comité doit être inquiet : et si jamais d'autres 236 maintenant la refusaient ? Mais je suis loin d'avoir le niveau de Perelman, et j'accepte sans faire le délicat. Laszl6 continue à évoquer la médaille. Le comité a dé- cidé de l'annoncer tôt aux lauréats, pour être sûr que l'in- formation viendra du comité, plutôt que d'une fuite. - lt is very important that you keep it perfectly secret, reprend Lovasz. Y ou can tell it to your family, but that is all. None of your colleagues should know. Je garderai donc le secret, pendant. .. six mois. Que c'est long ! Dans six mois et trois jours très précisément, les télé- visions du monde entier annonceront la nouvelle. D'ici là je dois garder le lourd secret et me préparer intérieurement. Comme ils passeront lentement, ces six mois. Pendant ce temps, les spéculations iront bon train sur les lauréats des médailles, mais ma bouche restera scellée. Comme le rap- pellera ma collègue lyonnaise Michelle Schatzman, « ceux qui savent ne disent pas, et ceux qui disent ne savent pas». Avant le coup de fil de Lovasz, je me donnais 40 °/o de chances de décrocher la Médaille. Maintenant je passe à 99 °/o ! Mais pas encore 100 %, en effet il reste la possibilité d'un canular. Comme Landau avait fait avec un camarade, pour jouer un bon tour à un collègue qu'ils avaient dans le nez : ces salauds lui avaient envoyé un faux télégramme de félicitations de l'Académie royale de Suède. Félicitations, vous avez gagné le prix Nobe~ etc. Alors ne te réjouis pas encore complètement, Cédric, qui te dit que c'était bien Lovasz au bout du téléphone? Tu attendras la confirmation par mail avant de te laisser aller pleinement ! Ah, le secret, oui ... Mais, le photographe dans mon bu- reau!? Apparemment il n'a rien entendu, il ne doit pas com- prendre l'anglais. Espérons. La séance photo reprend. Une photo devant l'institut, une photo avec mon trophée de physique mathématique, ... 237 -Je crois qu'on a les photos pour illustrer l'article, tout va bien. Au fait je voulais vous demander, dans l'article on dit que vous allez peut -être gagner un prix, quelque chose ? -Quoi, vous voulez dire la médaille Fields ? Le jour- naliste spécule là-dessus, mais ça se décide seulement dans longtemps, le congrès est en août prochain. -Ah bon, d'accord. Vous avez confiance? -Boh vous savez, c'est vraiment difficile à prédire ... Personne peut trop savoir ! * Après la Première Guerre mondiale, il faut recoller les morceaux entre les peuples, dans une Europe en décomposi- tion sur laquelle le traité de Versailles pèse d'un poids écra- sant. Ce qui est vrai pour la société l'est aussi pour la science : il faut rebâtir des institutions. Alors qu'en France le mathématicien et homme politique Émile Borel fait dresser les plans de l'Institut Henri Poincar~ au Canada le mathématicien John Charles Fields, influent membre de l'Union mathématique internationale, a l'idée de créer une médaille pour mathématiciens, une récompense qui servirait à la fois à saluer de grands travaux, à l'image du prix Nobel; et à encourager de jeunes talents. En complément de la médaille viendrait une modeste récompense financière. Fields trouva les fonds pour réaliser son projet, fit /aire les illustrations par un sculpteur canadien, et choisit les inscrip- tions en latin, langue universelle qui refléterait l'universalité de la mathématique. Au recto, un profil d'Archimède, accompagné de l' inscrip- tion TRANSIRE SUUM PECTUS MUNDOQUE POTIRI- S'élever au-dessus de soi-même et conquérir le monde. Au verso, des lauriers, l'illustration d'un théorème d'Archimède sur le calcul des volumes des sphères et des cy- lindres, et l'inscription CONGREGATI EX TOTO ORBE MATHEMATICI OB SCRIPTA INSIGNIA TRIBUERE - Les mathématiciens rassemblés du monde entier ont récom- pensé pour des contributions exceptionnelles. 238 Et sur la tranche, le nom du lauréat et l'année de la dis- tinction. Le tout en or masszf Il ne souhaitait pas donner de nom à cette récompense, mais à sa mort le nom de médaille Fields s'imposa. Elle /ut décernée en 1936 pour la première fois, puis tous les quatre ans depuis 1950, à l'occasion du Congrès International des Mathématiciens, le grand rendez-vous de la planète mathé- matique, un événement qui de nos jours rassemble jusqu'à 5 000 participants, dans un lieu qui change d'une édition à l'autre. Pour respecter la volonté de Fields d'en /aire un prix d'en- couragement, le prix est attribué à des chercheurs de moins de 40 ans. La règle du décompte de l'âge a été précisée en 2006 : 40 ans maximum au 1er janvier de l'année où se tient le congrès. Quant au nombre de médailles, il varie entre 2 et { selon les éditions. Un solide embargo sur la décision du jury, allié à une sérieuse préparation de la presse, assure à la remise des médailles Fields un retentissement sans équivalent dans le monde mathématique. La médaille est souvent décernée par le chef de l'État dans lequel se tient le congrès, et la nouvelle /ait aussitôt le tour du monde. CHAPITRE 41 RER B) le 6 mai 2010 Parmi les transports en commun parisiens, les RER sont tous remarquables à des titres divers. Pour le RER B, celui que je prends quotidiennement, on peut dire qu'il tombe en panne tous les jours ou presque, et qu'il est parfois bondé jusqu'à minuit ou une heure du matin. (Il faut être juste, il a aussi des qualités : il veille à ce que ses usagers aient une activité physique régulière, en les faisant souvent changer de train en cours de route; et il prend soin de leur agilité intellectuelle, en maintenant le suspense quant aux horaires d'arrivée des trains et aux stations desservies.) Mais ce matin, il est très, très tôt et la rame est presque vide. De retour d'un colloque au Caire, je rentre chez moi. L'aller au Caire était somptueux, en compagnie de la passagère la plus mignonne que l'on vît jamais. Nous avons regardé ensemble un film sur mon ordinateur, partageant nos écouteurs comme frère et sœur (toujours voler en classe économique, les filles y sont statistiquement plus mi- gnonnes). Le retour était moins glamour à tous points de vue. Et surtout, je suis arrivé à l'aéroport Charles-de-Gaulle après 22 heures, m'attirant les pires ennuis (ne jamais acheter un billet pour un avion qui arrive à CDG après 22 heures). Plus possible de prendre le RER pour rentrer à Paris, mais je ne voulais pas pour autant baisser les bras et prendre un taxi, alors j'ai attendu la navette ... La première était pleine 241 avant même d'arriver à mon arrêt, la deuxième était pleine aussi; quant à monter dans la troisième, cela aurait été en- visageable si j'avais choisi - comme d'autres passagers - de monter en force et de passer outre aux consignes du conducteur. Bref, je suis arrivé à Paris à deux heures du ma- tin. Par chance mon ancien appartement parisien était vide, j'ai pu y dormir quelques heures, avant de me remettre en route pour la banlieue sud. Dans le RER, je passe mon courrier en revue, hors connexion comme toujours. Tant et tant de mails ... Mais depuis le coup de fil de Lovasz en février, et la confirma- tion survenue quelques jours plus tard, je commence à sen- tir moins de pression sur mes épaules. Ce n'est pas venu d'un coup : il faudra encore des mois avant que le senti- ment d'urgence me quitte. Et puis, dans trois mois et demi j'aurai à faire face à une autre pression. En attendant, je dois savourer ce sentiment de relâchement. Un message m'informe que je suis le seul retenu sur le poste 1928 en mutation à l'Université de Lyon-I. Bonne nouvelle. De toute façon, 1928 ne pouvait que me porter bonheur, c'est l'année de la fondation de l'Institut Poin- caré! La mutation à Lyon-1 me permettra de garder une attache scientifique lyonnaise, sans pour autant bloquer un poste à l'École normale supérieure de Lyon, où les ensei- gnants sont rares. Une mendiante tente sa chance auprès des rares passa- gers. De sa voix cassée, elle engage la conversation. -Tu rentres de vacances avec ce gros sac? -Vacances? Oh non ! mes dernières vacances c'était à Noël... et les prochaines ne sont pas près d'arriver. -Tu reviens d'où ? -J'étais au Caire, en Égypte, pour le travail. -C'est bien! Tu travailles dans quoi? -Moi c'est les mathématiques. -Ah, c'est bien. Allez, salut. Et bon courage pour la suite de tes études ! 242 Je souris, cela me fait forcément plaisir qu'on me prenne encore pour un étudiant. Mais après tout elle a raison, je suis toujours étudiant ... pour toute la vie peut-être. Aujourd) hui/ étais en vol et me suis «amusé» à prendre 5 minutes pour essayer de ressentir tous les phénomènes élec- triques) électroniques) électromagnétiques) aérodynamiques) mécaniques) qui s) exerçaient dans et autour de t avion. Tous ces petits phénomènes séparés qui /ont un tout qui fonc- tionne .' c) est fascinant de prendre conscience de ce qui nous entoure ... fascinant .' Malheureusement) aux commandes d) un avion on a rare- ment plus de 5) pour ce genre de réflexions. Bien à vous. (Extrait d'un e-mail reçu le 9 septembre 2010 d'un inconnu.) CHAPITRE 42 Église de Saint-Louis-en-l'Île} le 8 juin 2010 Je repousse un tout petit peu trop brusquement l'en- censoir que l'on vient de me tendre. Costume noir, as- cot noir autour du col en signe de deuil, araignée verte au revers en signe d'espoir, sous la voûte gigantesque je m'avance vers le cercueil, le touche et m'incline respectueu- sement. À quelques centimètres repose la dépouille de Paul Malliavin, figure tutélaire des probabilités de la seconde moitié du vingtième siècle. Inventeur du fameux « calcul de Malliavin », il a contribué plus que quiconque au rappro- chement entre probabilités, géométrie et analyse, un rap- prochement dans lequel je m'inscris par mes travaux sur le transport optimal. Comme j'aime bien me le répéter à l'oc- casion, « dans Malliavin il y a Villani ». Malliavin était un personnage complexe et fascinant, à la fois conservateur et iconoclaste, doté d'un cerveau excep- tionnel. Il m'a suivi depuis le début de ma carrière, m'a en- couragé et mis le pied à l'étrier. Il m'a aussi confié d'impor- tantes responsabilités dans le comité éditorial de son enfant chéri, le Journal of Functional Analysis, qu'il a fondé avec deux chercheurs américains en 1966. Malgré nos 52 ans d'écart, nous étions devenus amis. Son goût mathématique était proche du mien, et il y avait sans doute de l'admiration réciproque. Nous ne sommes ja- mais allés au-delà de la formule« Cher Ami», mais ce n'était pas seulement une tournure de politesse, la formule était sincère. 245 Un jour nous participions tous deux à un colloque en Tunisie-Malliavin avait déjà 78 ans mais il était encore si actif ! Au moment de tirer les conclusions, c'est moi qui of- ficiais en tant que présentateur, et j'ai évoqué en quelques mots son impact phénoménal; je ne sais plus si je l'ai qua- lifié de légende vivante, mais c'était l'idée. Malliavin a paru un peu désarçonné face à cette exposition publique, et plus tard il est venu me dire très gentiment, pince-sans-rire : « Vous savez, la Légende est un peu fatiguée. » Mais quoi qu'il ait pu dire, Paul Malliavin est mort sans baisser la garde,« faisant des mathématiques jusqu'à la der- nière minute», comme l'a annoncé son gendre. Mort le même jour que Vladimir Arnold, un autre géant mathéma- tique du vingtième siècle, au style complètement différent. Il faudra continuer sans lui. Vous pouvez compter sur moi, cher ami, le Journal of Functional Analysis est en de bonnes mains. Et ... j'aurais été tellement fier de vous parler de ce coup de fil secret que j'ai reçu en février, je sais que vous en auriez été ravi. À peine la cérémonie s'achève-t-elle, je dois rentrer en courant à l'Institut Henri Poincaré, où se tient aujourd'hui 246 la conclusion du grand colloque que nous coorganisons avec le Clay Mathematics Institute, pour célébrer la réso- lution de la Conjecture de Poincaré par Grigori Perelman. Il faut que je sois présent à la fin du dernier exposé pour prononcer quelques mots en guise de conclusion ; pour écarter tout risque de retard, je dois courir à toutes jambes à travers les rues de Paris, de l'île Saint-Louis jusqu'au cœur du cinquième arrondissement. Si « Monsieur Paul » me voyait, avec mon visage rouge, tout en sueur dans mon costume et soufflant comme une locomotive, il aurait un petit sourire. C'est bête, je me demande si je me suis in- cliné comme il convenait devant le cercueil. De toute façon, c'était sincère, c'est ce qui compte. Grigori Perelman Au tournant du vingtième siècle} Henri Poincaré déve- loppait un tout nouveau champ mathématique} la topologie différentielle} dont le but est de classer les /ormes qui nous entourent} à déformation près. En déformant un beignet} on obtient une tasse} mais ja- mais une sphère: la tasse a un trou (une anse)} la sphère n} en a pas. De manière générale} pour comprendre les sur/aces (les /ormes sur lesquelles un point se repère au sein d} une petite 247 région par deux coordonnées, telles que longitude et latitude), il su/fit de compter le nombre d'anses. Mais nous vivons dans un univers à trois dimensions d'es- pace. Est-ce que pour classifier de tels objets il suffit de comp- ter le nombre de trous ? C'est la question que posa Poincaré en 1904, au terme d'une imposante série de six articles où il jeta, dans un certain désordre et avec un génie incontestable, les bases de la topologie naissante. Poincaré se demanda donc si toutes les formes de dimension 3, bornées (disons des uni- vers finis), sans trou, sont équivalentes. L'une de ces /ormes était toute trouvée, c'était la 3-sphère, la sphère à trois coor- données dans l'espace de dimension 4. En termes techniques, la Conjecture de Poincaré s'énonce ainsi: Une variété lisse de dimension 3, compacte et sans bord, simplement connexe, est difféomorphe à la 3 -sphère. Cet énoncé plausible est-il vrai? Poincaré posa la ques- tion et conclut avec ces mots admirables, qui valent presque la fameuse «marge étroite» de Fermat : «Mais cette question nous entraînerait trop loin. » Les temps et les temps passèrent ... La Conjecture de Poincaré devint l'énigme la plus cé- lèbre de toute la géométrie, irriguant tout le vingtième siècle, source de pas moins de trois médailles Fields pour des progrès partiels sur cette question. Une étape décisive survint quand William Thurston se mit de la partie. Géomètre visionnaire, Thurston avait une intuition extraordinaire de l'ensemble de toutes les formes de dimension 3-tous les univers possibles. Il proposa une sorte de classification zoologique, taxonomique, de ces formes de dimension 3 ,· et cette classification était si magnifique que les sceptiques se rallièrent, ceux qui doutaient encore de Poincaré s'inclinèrent devant une vision si belle qu'elle devait être vraie. C'était le Programme de Th urs ton, qui englobait la Conjecture de Poincar~ et dont Thurston lui-même ne par- vint à explorer qu'une partie. 248 En 2000, le Clay Mathematics Institute choisit bien évi- demment la Conjecture de Poincaré comme l'un des sept pro- blèmes mis à prix pour un million de dollars chacun. On pen- sait alors que le célèbre problème risquait bien de tenir encore un siècle.' Mais dès 2002, le mathématicien russe Grigori Pere/man stupéfiait la communauté en annonçant une solution de cette conjecture, sur laquelle il avait travaillé en secret pendant sept ans.'.' Né en 1966 à Leningrad -alias Saint-Pétersbourg -, Perelman avait attrapé le virus mathématique de sa mère, scientifique de talent, de l'exceptionnelle école mathématique russe, menée par Andreï Kolmogorov, et du club de ma- thématique où des enseignants passionnés l'avaient préparé aux Olympiades internationales. Il avait ensuite étudié sous la direction de certains des meilleurs géomètres du siècle : Alexandrov, Bura go, Gromov; il était devenu en quelques années le leader de la recherche en théorie des espaces sin- guliers à courbure positive. Sa preuve de la « conjecture de l'âme» lui avait valu une grande reconnaissance, il semblait promis à une carrière fulgurante ... et puis il avait disparu .' Depuis 1995, Perelman ne donnait plus signe de vie. Mais loin de s'interrompre, il avait repris de Richard Hamilton la théorie du flot de Riccz~ une recette qui permet de déformer continûment les objets géométriques en étalant leur courbure, de la même façon que l'équation de la chaleur étale la tempé- rature. Hamilton avait pour ambition d'utiliser son équation pour démontrer la Conjecture de Poincaré, mais il achoppait depuis de nombreuses années sur des problèmes techniques considérables. La voie semblait condamnée. Jusqu'à ce fameux courrier électronique de 2002 que Perelman envoya à quelques collègues américains. Un mes- sage de quelques lignes, signalant un manuscrit qu'il venait de rendre public sur Internet, et où il esquissait, selon sa propre formule, une « ébauche éclectique de démonstration » 249 de la Conjecture de Poincar~ et en fait d) une grande partie du Programme de Thurston. Inspiré par la physique théorique) Perelman a montré qu) une certaine quantit~ qu) il appelle entropie car elle res- semble à celle de Boltzmann) décroi't quand on déforme la géométrie par le /lot de Ricci. Grâce à cette découverte origi- nale) d)une profondeur que nous n)avons sans doute pas en- core pleinement réalisée) Perelman parvenait à prouver que l'on pouvait laisser le flot de Ricci agir sans jamais aboutir à une explosion) c) est-à-dire à une singularité trop violente. Ou plutôt : si une singularité se produit) on peut la décrire et la contrôler. Perelman revint alors aux États-Unis pour donner quelques exposés sur ses travaux) et impressionna les obser- vateurs par sa mai'trise du problème. Agacé par la pression médiatique qui s) exerçait sur lui) il était également irrité de la lenteur avec laquelle la communauté mathématique digé- rait sa preuve. Il rentra à Saint-Pétersbourg et laissa les autres vérifier ses arguments sans lui. Il ne faudrait pas moins de quatre années à dz//érentes équipes pour reproduire la preuve de Perelman et la compléter dans les moindres détails.' LJ enjeu considérable de cette démonstration) ainsi que le · retrait de Perelman) mirent la communauté mathématique dans une situation inédite) générant des tensions et contro- verses sur la paternité de la preuve. Quoi qu) il en soit) les ma- thématiciens finirent par obtenir la certitude que Perelman avait bien démontré la grande conjecture de Géométrisation de Thurston) et la Conjecture de Poincaré avec. Dans les der- nières décennies) cet exploit n) a pas d) équivalent) sauf peut- être la preuve par Andrew Wiles du Grand Théorème de Fer- mat dans les années 90. Les récompenses ont plu sur Perelman : en 2006) la mé- daille Fields) puis le titre d) avancée scientifique la plus im- portante de r année) un titre qui ne revient quasiment jamais aux mathématiciens. Le prix Clay du Millénaire suivit en 201 0) c) était la première /ois que ce prix richement doté était 250 attribué.' Perelman n'avait que /aire de ces récompenses, qu'il re/usa l'une après l'autre. Quantité de journalistes à travers le monde se sont pré- cipités pour commenter son rejet du million de dollars offert par Landon Clay, développant à l'envi le thème du mathéma- ticien /ou. Ils ont eu tort, à n'en pas douter : ce qui était ex- traordinaire dans le cas Perelman, ce n'était ni le re/us de l'ar- gent et des honneurs, ni le caractère excentrique-on a connu bien d'autres exemples de l'un et de l'autre -, mais bien la /oree de caractère et la pénétration extraordinaires qu'il a fallu pour vaincre, en sept années de travail solitaire et courageux, l'énigme mathématique emblématique du vingtième siècle. En juin 2010, l'Institut mathématique Clay et l'Institut Henri Poincaré organisaient conjointement à Paris un col- loque en l'honneur de cet exploit. Quinze mois plus tard, ils annonçaient que l'argent re/usé par Perelman servirait à créer une chaire très spéciale basée à l'Institut Poincaré. Cette « chaire Poincaré» accueillera de jeunes mathémati- ciens extrêmement prometteurs, dans des conditions idéales, sans obligation de cours ni de résidence, pour leur permettre de s' épanoui1; de la même façon que Perelman a pu le faire quand il bénéficiait de l'hospitalité de l'Institut Miller à Berkeley. CHAPITRE 43 Hyderabad, le 19 août 2010 Mon nom retentit dans la salle immense, et mon por- trait - lavallière rouge carmin, araignée blanche teintée de mauve -, réalisé par le photographe Pierre Maraval, s' af- fiche sur l'écran gigantesque. Je n'ai pas dormi de la nuit, pourtant j'ai l'impression de n'avoir jamais été aussi éveillé. C'est l'instant le plus important de ma vie professionnelle, celui dont les mathématiciens rêvent sans oser se l'avouer. Le scientifique plus ou moins anonyme, numéro 3 3 3 dans la liste des «Mille Chercheurs» photographiés par Maraval, est en train de passer en pleine lumière. Je me lève et je m'avance vers l'estrade pendant que la citation retentit : A Fields Medal is awarded to Cédric Villanz~ /or his proo/s of nonlinear Landau damping and convergence to equilibrium for the Boltzmann equation. Je monte les marches, en m'efforçant de n'être ni trop lent ni trop rapide, et m'approche de la présidente de l'Inde, au centre de l'estrade. La présidente est petite mais il émane d'elle une puissance qui est palpable dans l'attitude de son entourage. Je m'arrête devant elle; elle s'incline légè- rement et je m'incline en réponse, beaucoup trop. Namaste. Elle me tend la médaille et je la présente à la foule, le buste penché de manière étrange, pour n'être ni tourné de profil vers la foule, ni tourné de profil vers le chef de l'État indien; plutôt à 45 degrés pour l'un et pour l'autre. 253 Quelque trois mille personnes m'acclament, dans la gi- gantesque salle de conférences attenante à l'hôtel de luxe qui héberge le Colloque International des Mathématiciens, cuvée 2010. Il y a dix-huit ans, combien étaient-ils, ceux qui m'applaudissaient après mon discours d'ouverture du Bal du bicentenaire à l'École normale supérieure? Un millier, peut -être ? Th ose were the day s ... Mon père avait été telle- ment triste de ne pas pouvoir capturer d'images de cette cérémonie, suite à un loupé d'organisation. C'était toute une affaire, mais comme cela paraît dérisoire maintenant, en comparaison de l'armée de photographes et cinéastes qui mitraillent la scène ! C'est comme au festival de Cannes ... Je reprends la médaille, nouvelle inclination devant la présidente, trois pas à reculons, je virevolte et me dirige vers le mur, presque exactement comme on l'a répété lon- guement hier soir avec les organisateurs du colloque. Pas mal. Je m'en suis mieux tiré qu'Elon Lindenstrauss, qui a été décoré en premier et qui, comme dans un nuage, a massacré toutes les consignes protocolaires. Quand il est passé, Stas Smirnov, un autre lauréat, m'a glissé à l'oreille : «Nous ne pourrons pas faire pire.» Après l'instant immortalisé par les caméras, je ne sais pas ce qui s'est passé. Puis est venu le moment de présenter les récompenses à la nuée digitale-appareils photos, appa- reils vidéo, machines captantes et enregistrantes -, puis une conférence de presse ... Dans la salle de la cérémonie, n'ont pu entrer ni ordi- nateurs ni téléphones portables. Tout à l'heure il y aura 300 mails de félicitations dans ma boîte aux lettres, et bien d'autres suivront. Des mails de collègues, d'amis, de connaissances éloignées, de revenants que je n'ai pas vus de- puis dix, vingt ou trente ans, de parfaits inconnus, d'anciens camarades de l'école primaire ... Certains sont très émou- vants. L'un de ces messages de félicitations m'apprend la mort, voici plusieurs années déjà, d'un ami de jeunesse. On 254 le sait bien, la vie est pleine de joies et de peines entremêlées inextricablement. Et par voie de presse, un message officiel de félicitations du président de la République. Comme prévu, Ngô a aussi décroché la médaille ; il me faudra un certain temps avant de réaliser pleinement combien cette double victoire fran- çaise est source de fierté nationale. Sans compter qu'Yves Meyer a obtenu le prestigieux prix Gauss pour l'ensemble de sa carrière! Les Français vont redécouvrir maintenant que la France est, depuis quatre siècles déjà, à la pointe de la recherche mathématique internationale. En ce 19 août 2010, leur pays ne totalise désormais pas moins de 11 mé- dailles Fields, sur les 53 attribuées à ce jour ! Clément est là, bien sûr, radieux. Dire qu'il y a moins de dix ans, il entrait pour la première fois dans mon bureau de l'ENS Lyon, en quête d'un sujet de thèse ... Une chance pour lui, une chance pour moi. Je quitte la foule pour retrouver ma chambre d'hôtel. Une chambre insipide, où rien n'indique l'Inde; je pour- rais aussi bien être en Terre de Feu! Mais je suis ici pour accomplir mon devoir. Quatre heures durant, sans discontinuer, je réponds aux appels téléphoniques des journalistes, jonglant entre télé- phones fixe et mobile. À peine un appel est fini, je vérifie mon répondeur et trouve de nouveaux messages, c'est sans fin. Questions personnelles, questions scientifiques, ques- tions institutionnelles. Et des questions qui reviennent sou- vent à l'identique ou presque. Qu'est-ce que ça /ait, de rece- voir cette récompense ? Je redescends enfin de ma chambre, un peu pâle et af- famé-mais j'en ai vu d'autres. Je me fais servir un thé ma- sala, bien épicé, et je retourne affronter la foule. Une nuée de jeunes se jette sur moi, beaucoup d'Indiens bien sûr. Je signe les autographes par centaines, et je pose, un peu étourdi, pour d'innombrables photographies. 255 Contrairement aux autres lauréats, je suis venu seul : femme et enfants sont restés en France, à l'abri de la cohue. Je préfère ça! Et j'ai respecté les consignes, je n'ai parlé de la médaille à personne d'autre qu'à ma femme -pas même à mes parents, qui l'apprendront par la presse ! Et ... Catherine Ribeiro a envoyé à mon domicile un su- perbe bouquet de roses ! Je suis à dix mille lieues d'imaginer que, pendant qu'à Hyderabad je pose pour une foule de photographes impro- visés, à Lyon ma collègue Michelle Schatzman se meurt. Fille du grand astrophysicien français Évry Schatzman, ~1ichelle était une des mathématiciennes les plus originales qu'il m'ait été donné de rencontrer, toujours prête à se lan- cer dans des défis pédagogiques insurmontables ou à ex- plo rer les liens auxquels personne d'autre n'osait s'intéres- ser, comme la frontière entre algèbre et analyse numérique. Frontières, c'était le nom d'un programme de recherche ré- digé tambour battant par Michelle, aux allures de mani- feste. Michelle était une amie depuis mon arrivée à Lyon en 2000; nous avions fréquenté des séminaires communs, et comploté ensemble, plus d'une fois, pour attirer tel ou tel excellent mathématicien à l'Université de Lyon. Michelle Schatzman Michelle ne mâchait jamais ses mots et excellait à mettre les pieds dans le plat, usant à l'occasion d'un humour noir 256 ravageur. Atteinte d'un cancer incurable depuis plus de cinq ans, elle allait de chimiothérapie en opération, et nous expliquait, les yeux pétillants, combien la vie était belle de- puis qu'elle économisait sur les frais de shampooing. Il y a quelques mois nous avions fêté ses soixante ans à Lyon en mathématique. Parmi les orateurs venus d'un peu partout, il y avait le polymorphe Uriel Frisch, physicien de renommée mondiale qui avait été autrefois l'élève du père de Michelle ; et il y avait moi-même, @s spirituel d'un de ses @s spiri- tuels. Michelle avait brillamment suggéré un lien entre mon exposé sur l'amortissement Landau et les « tygres » évoqués par U riel. La classe ! Mais ces dernières semaines son état s'était brusque- ment aggravé. Fière et droite dans la maladie comme elle l'a été toute sa vie durant, Michelle a refusé la morphine pour garder sa lucidité. Sur son lit de mort, elle a appris les résultats de la médaille Fields qu'elle attendait avec impa- tience ; et quelques heures plus tard elle s'est éteinte. On le sait : la vie est pleine de joies et de peines entremêlées inextricablement. 19 août 2010, en Inde Depuis ce matin, le grand hôtel d'Hyderabad contient la plus forte concentration de mathématiciens au monde. Ve- nus de tous les continents, ils ont tous apporté leurs compé- tences mathématiques particulières: analyse, algèbre, géomé- trie, probabilité, statistique, équations aux dérivées partielles, géométrie algébrique et algèbre géométrique, logique dure et molle, géométrie métrique et ultramétrique, analyse harmo- nique et harmonieuse, théorie probabiliste des nombres et des ombres, découvreurs de modèles et supermodèles, créa- teurs de théories économiques et microéconomiques, concep- teurs de supercalculateurs et d'algorithmes génétiques, déve- loppeurs de traitement d'image et de géométrie banachique, mathématiques d'été, d'automne, d'hiver et de printemps, et 257 mille autres spécialités qui/ont de la /oule une grande déesse Shiva aux mille bras mathématiques. I: un après t autre, les quatre lauréats de la médaille Fields, les lauréats des prix Gauss, Nevanlinna et Chern sont offerts en sacrifice à la déesse Shiva. La présidente de l'Inde, grande prêtresse, présente les sept mathématiciens terrorisés aux acclamations de la foule. C'est le début de la grande fête du Congrès International des Mathématiciens, qui durant deux semaines verra se succé- der les exposés, discussions, réceptions, cocktails, interviews, photographies, délégations, soirées dansantes et riantes, vi- rées en taxis de luxe et en rickshaws romantiques. On y cé- lèbre l'unité et la diversité de la mathématique, sa géométrie toujours mouvante, la joie du travail accomplz~ l'émerveille- ment devant la découverte, le rêve devant l'inconnu. Une /ois la fête finie, tous les mathématiciens rentreront dans leurs universités et centres de recherche, dans une entre- prise ou dans leur joye1; et reprendront chacun à sa manière la grande aventure de l'exploration mathématique, repoussant ensemble les frontières de la connaissance humaine, armés de leur logique et de leur dur labeu1; mais aussi de leur imagina- tion et de leur passion. Et déjà ils pensent au prochain Congrès International des Mathématiciens, dans quatre ans, au sein de la demeure du vénérable tigre coréen. Quels seront les thèmes à l'honneur ? Qui seront les prochaines victimes ? Quand viendra le moment, des milliers de mathémati- ciens viendront présenter leurs respects au vieux tigre. Ils ex- ploreront la géométrie de ses /ormes sinueuses, axiomatise- ront son implacable symétrie, testeront sa remuante stochasti- cit~ analyseront la part de réaction-diffusion dans ses rayures, effectueront de la chirurgie différentielle sur les poils de ses moustaches, évalueront la courbure de ses grz//es acérées, le délivreront des puits quantiques de potentiel et fumeront avec lui les théories éthérées de cordes et moustaches vibrantes. 258 Pour quelques jours, le puissant tigre sera mathématicien de- puis le bout de la queue jusqu'à la pointe du museau. Ma contribution à l'édition coréenne du livre Les Dé- chz//reurs (Belin), édité par l'Institut des hautes études sei en tifiques. Tyger phenomenon /or the Galerkin-truncated Burgers and Euler equations (lhOO') by Uriel Frisch It is shawn that the solutions of inviscid hydrodynami- cal equations with suppression of all spatial Fourier modes having wavenumbers in ex cess of a threshold kg exhibit unex- pected /eatures. The study is carried out /or bath the one- dimensional Burgers equation and the two-dimensional in- compressible Euler equation. At large kg, /or smooth initial conditions, the first symptom of truncation, a localized short- wavelength oscillation which we call a {{tyger", is caused by a resonant interaction between jluid particle motion and trun- cation waves generated by small-scale /eatures (shocks, layers with strong vorticity gradients, etc.). These tygers appear when complex-space singularities come within one Galerkin wavelength Àg = 21r /kg /rom the real domain and typically arise /ar away /rom preexisting small-scale structures at loca- tions whose velocities match that of such structures. Tygers are weak and strongly localized at first-in the Burgers case at the time of appearance of the first shock their amplitudes and widths are proportional to k-; 213 and k-; 113 respective/y - but grow and eventually invade the whole flow. They are thus the first manz/estations of the thermalization predicted by TD. Lee in 1952. The sudden dissipative anomaly-the presence of a finite dissipation in the limit of vanishing visco- sity a/ter a finite time -, which is well known /or the Burg ers equation and sometimes conjectured /or the 3D Euler equa- tion, has as counterpart in the truncated case : the ability of tygers to store a finite amount of energy in the li mit kg ---+ oo. This leads to Reynolds stresses acting on scales larger than the 259 Galerkin wavelength and th us prevents the flow /rom conver- ging to the inviscid-limit solution. There are indications that it may be possible to purge the tygers and thereby to recover the correct inviscid-limit behaviour. (Résumé d}un article de Samriddhi Sankar Ray} Urie! Frisch} Sergei Nazarenko et Takeshi Matsumoto} présenté à un colloque international par Frisch.) THE TYGER (William Blake} 1794) Tyger Tyger burning bright In the /orests of the night What immortal hand or eye Could /rame thy /ear/ul symmetry In what distant deeps or skies Burnt the /ire of thine eyes On what wings dare he aspire Wh at the hand dare sieze the /ire And what shoulder & what art Could twist the sinews of thy heart And when thy heart began to beat Wh at dread hand & wh at dread /eet What the hamm er what the chain In what /urnace was thy brain What the anvil what dread grasp Dare its deadly terrors clasp When the stars threw down their spears And water} d he aven with their tears Did he smile his work to see Did he who made the Lamb make thee Tyger Tyger burning bright In the /orests of the night What immortal hand or eye Dare /rame thy /ear/ul symmetry CHAPITRE 44 Saint-Rémy-lès-Chevreuse) le 17 novembre 2010 L'automne, tout en or, en rouge et en noir : feuilles d'or, feuilles rouges, corbeaux noirs brillants comme dans la chanson de novembre de Tom Waits. Je quitte la station de ce cher vieux RER B, et je m'en- fonce dans la nuit. Les trois derniers mois ont été si intenses ! Les autographes. Les journaux. Les radios. Les émissions télé. Les tournages cinéma. Mon duo avec Franck Dubosc, que j'ai découvert en di- rect sur un plateau de Canal+ ... quelques-uns m'ont repro- ché de m'être prêté à cette «farce», mais aucune impor- tance ! Le lendemain dans la rue tout le monde m'arrêtait, tout le monde m'avait «vu à la télé». Et les rencontres avec les politiques, avec les artistes, avec les étudiants, avec les industriels, avec les patrons, avec les révolutionnaires, avec les parlementaires, avec les énarques, avec le président de la République ... Des questions qui reviennent en boucle. Comment avez- vous reçu le goût des maths pourquoi les français sont-ils si bons en maths est-ce que la Médaille Fields a changé votre vie quelle est votre motivation maintenant que vous avez eu la distinction suprême êtes-vous un génie quelle est la signifi- cation de votre araignée ... 261 Bao Châu est reparti aux États-Unis, me laissant seul af- fronter la vague. Cela ne me déplaît pas, c'est passionnant de découvrir ces univers. L'envers du décor de la télévi- sion, des journaux. Je constate par moi-même qu'une inter- view s'écarte souvent de ce que dit la personne interviewée, qu'une personne médiatique abstraite appelée Cédricvillani est en train de se créer, qui n'est pas vraiment moi et que je ne peux pas vraiment contrôler. Tout cela, tout en continuant à être directeur ... le jour où j'ai donné la réplique à Du bosc, j'ai aussi réalisé une interview sur RTL, participé à une réunion à l'Hôtel de Ville sur les logements universitaires, longuement discuté avec mon président de conseil d'administration, et enregis- tré pour l'émission littéraire nocturne Des Mots de Minuit. Et puis j'"ai coordonné un projet pour récupérer une subvention nationale, via les « Investissements d'avenir » (le Grand Emprunt, comme on dit). Un projet délicat, ras- semblant les quatre instituts nationaux et internationaux de mathématique en France : l'Institut Henri Poincaré à Paris (l'IHP), l'Institut des hautes études scientifiques à Bures-sur-Yvette (l'IHÉS), le Centre International de ren- contres Mathématiques à Luminy (le CIRM), le Centre in- ternational de mathématiques pures et appliquées à Nice (le CIMPA). L'IHÉS est la version française de l'lAS de Princeton où j'ai passé six mois : une magnifique retraite qui en automne retentit du craquement des chutes de châ- taignes, où le génial Grothendieck produisit le meilleur de son œuvre incomparable, et où les jeunes chercheurs peuvent faire avancer leurs projets au contact de certains des meilleurs mathématiciens du monde. Le CIRM, lui, avec ses colloques hebdomadaires, serait plutôt la décli- naison française de l'institut d'Oberwolfach, sauf que l'on a remplacé l'austère Forêt-Noire par les somptueuses ca- lanques marseillaises. Quant au CIMPA, organisme résolu- ment international, il s'occupe de soutenir la mathématique 262 dans les pays en voie de développement, partout où cela est nécessaire et bienvenu. Pour rassembler ces quatre instituts et leurs tutelles si diverses autour d'un même contrat, il a fallu dépenser des trésors de négociations. Après toute une année à la tête de l'IHP et quelques tourmentes diplomatiques, j'étais prêt à effectuer ce délicat travail de coordination. Le rassemble- ment se nommera CARMIN : Centres d'Accueil et de Ren- contres Mathématiques INternationales. En marge de ces activités, j'ai créé deux nouveaux ex- posés grand public, écrit un long texte sur « Le Temps» pour un séminaire de physique théorique... et j'ai dû re- prendre à mon compte certaines activités administratives supplémentaires pour pallier l'absence de plusieurs person- nels de l'IHP, frappés par une véritable série noire de ma- ladies diverses. Heureusement que les personnels restés en bonne santé sont si dévoués ! Pendant ces trois mois, j'ai dépensé toutes mes réserves, j'en étais jusqu'à planifier mes heures de sommeil plusieurs jours à l'avance. Hast a que el cuerpo aguante .' Tout en re- pensant à cet automne épuisant, je continue à marcher, j'ar- rive maintenant dans la partie noire de mon trajet. À ma gauche, la forêt, où fourragent renards et biches ; à ma droite, un pré où dorment de paisibles vaches. Mais surtout, pour les trois cents mètres qui viennent, c'est un chemin de terre complètement noir, sans le moindre éclai- rage public, sans la moindre pollution lumineuse. Ça n'a pas de prix, un chemin sans éclairage! Quand la lune est cachée, on ne voit pas à trois mètres. Le pas accé- lère, le cœur bat un peu plus vite, les sens sont en alerte. Un craquement dans les bois fait dresser l'oreille, on se dit que la route semble plus longue que d'habitude, on s'imagine un rôdeur à l'affût, on se retient pour ne pas courir. Ce tunnel noir, c'est un peu comme la phase de noir complet qui caractérise le début d'un projet de recherche mathématique. Un mathématicien est comme un aveugle 263 dans une pièce noire, cherchant à voir un chat noù; qui n'est peut-être même pas là ... C'est Darwin qui l'avait dit, il avait raison ! Le noir total, Bilbo dans le tunnel de Gollum. Cette période noire qui marque les premiers pas d'un mathématicien en territoire inconnu, c'est la première phase du cycle habituel. Après le noir vient une petite, petite lueur fragile, qui nous fait penser que quelque chose se prépare ... Puis après la petite, petite lueur, si tout va bien, on démêle le fil, et c'est l'arrivée au grand jour ! On est fier et sûr de soi, on expose partout. Souvent cette phase survient d'un seul coup, mais parfois c'est une autre histoire, j'en sais quelque chose. Et puis, après le grand jour et la lumière, il y a toujours la phase de dépression qui suit les grands accomplissements, où l'on minimise sa propre contribution. Après tout, ce que tu as /ait, n)importe quel crétin aurait pu le /aire, maintenant trouve-toi un problème plus sérieux et fais quelque chose de ta vie. Le cycle de la recherche mathématique ... Mais pour l'instant c'est bien dans le noir, au sens propre, que j'avance. Chemin faisant, je tire le rideau sur une journée qui a été riche en émotions. Ngô, Meyer et moi avons rencontré le président de l'Assemblée nationale, en qui nous avons reconnu un frère d'armes dès que nous avons su son passé de chercheur ; puis nous avons été ac- damés par toute l'Assemblée avant la pittoresque séance de questions au gouvernement. Et dans la bibliothèque de l'Assemblée nationale, j'ai admiré un trésor indicible, un meuble construit sur mesure pour accueillir les ouvrages écrits par les scientifiques de l'expédition d'Égypte. Les Monge, Fourier et tant d'autres ont consigné dans ces vo- lumes des résultats qui révolutionnaient la biologie, l'his- toire, l'architecture, tout. La beauté des images, tracées à la main, avec du matériel réalisé sur place pour remplacer celui qui avait été perdu dans un naufrage, la majesté des vieux livres que seuls les experts sont autorisés à manipuler, tout cela m'a bouleversé et empli d'un sentiment lumineux. 264 Et pourtant, dans un coin de mon cerveau, un souci discret mais tenace, qui a grandi peu à peu au cours des derniers mois ... Toujours pas de nouvelles d'Acta, toujours pas de nouvelles des referees ! Seule cette expertise indé- pendante, réalisée par des spécialistes dont l'anonymat sera soigneusement gardé, pourra confirmer nos résultats. Après tous ces honneurs, que dirai-je si notre article est faux? J'imagine que le comité Fields a fait vérifier notre amortissement Landau, vu l'enjeu, mais comme d'habitude je ne suis au courant de rien. Et si jamais un referee avait débusqué une erreur au cours du lent processus de relec- ture et de vérification par les tiers ? Cédric, tu es père de famille, le suicide rituel n'est pas une option. Trêve de plaisanteries, la situation finira bien par se ré- soudre. Et d'ailleurs, j'arrive au bout de mon tunnel d' obs- curité. Là-bas, tout au fond, une petite, petite lueur fragile, c'est la lumière du digicode. Sauvé ! Ça n'a pas de prix, cette émotion quotidienne, cette obs- curité chargée de sentiments intenses, mais comme on se sent bien quand on l'a passée ! J'ouvre le lourd portail, je traverse la cour, j'entre chez moi, j'allume, je monte à l'étage et m'installe à mon bureau, je branche mon ordinateur por- table et télécharge mes mails. Quoi, seulement 88 nouveaux mails dans les 12 dernières heures ? Petite journée ... Mais au milieu du flot, il y en a un qui attire tout de suite mon regard : Acta Mathematica ! J'ouvre fébrilement le message de Johannes Sjostrand, l'éditeur en charge de notre article. The news about your paper are good. Il aurait dû écrire is good: "news", comme "mathema- tics", est singulier malgré les final. Mais qu'importe. Je n'ai pas besoin de plus, je forwarde immédiatement à Clément, en ajoutant deux mots : Gooood news. Cette fois, notre théorème est vraiment né. 265 Théorème ( Mouhot, Villani, 2009) : Soit d 2:: 1 un entiet; et W : 1I'd --+ IR une /onction pé- riodique paire, localement intégrable, dont la trans/armée de Fourier vérifie IW(k)l = 0(1/lkl 2 ). Soit f 0 = f 0 (v) une distribution analytique :!Rd --+ IR+, telle que L,: À~ IIV~f 0 IIL1(dv) < +oo, n. n2':0 sup (110(7])1 e27r-\ol771) < +oo 7]EJRd pour un certain Ào > 0, où 1 désigne la trans/armée de Fourier de f. On suppose que W et f 0 vérifient la condition de stabilité linéaire généralisée de Pen rose: pour tout k E 7ld\ { 0 }, si l'on pose Œ = k / 1 k 1 et pour tout u E ffi., fa ( u) = fua+aj__ f 0 ( z) dz, alors pour tout w E IR tel que f~ ( w) = 0, on a W(k) { f~(u) du< 1. }IR U-W On se donne un profil initial de positions et de vitesses, fi (x, v) 2:: 0, très proche de l'état analytique f 0 , au sens où sa transformée de Fourier 1 en position et vitesse vérifie sup i1(k, 1]) _ ]0(7])1 e27rttlkl e21r-\l77l kEZd, 77EJRd avec À, f.-L > 0, etc > 0 assez petit. Alors il existe des profils analytiques f +oo (v), f -oo (v) tels que la solution de l'équation de Vlasov non linéaire, avec po- tentiel d'interaction W et donnée initiale fi au temps t = 0, vérifie J( t, ·) t-+±oo J ±oo faiblement 266 plus précisément au sens de la convergence simple, exponen- tiellement rapide, des modes de Fourier. La vitesse de convergence de t équation non linéaire est arbitrairement proche de la vitesse de convergence de l' équa- tion linéarisée, à condition que E > 0 soit suffisamment petit. En outre les marginales J f dv et J f dx convergent expo- nentiellement vite vers leur valeur d'équilibre, dans tous les espaces cr. Toutes les estimations apparaissant dans t énoncé non li- néaire sont constructives. Clément Mouhot & Cédric Villani Épilogue Budapest, le 24 février 2011 Les quatre bouteilles sont alignées l'une après l'autre sur la petite table branlante. L'esprit embrumé par le vin haut de gamme, cuvée Villanyi, je tente de suivre Gabor dans sa description, avec force détails, des mérites comparés de ces quatre cuvées de tokay. Jeune, sec, doux, ... je ne suis pas en état de faire le choix. Après avoir repris deux fois du goulash et de la tarte aux pommes, les enfants sont partis tout photographier dans le petit appartement, où trône un écran géant. Claire m'aide à choisir un tokay bio et sucré, la maîtresse de maison apporte un superbe cappuccino au lait délicieusement crémeux. Gabor parle de la Hongrie, de sa jeunesse, des douze heures de mathématique hebdomadaires des petits Hon- grois passionnés, des énoncés de problèmes d'Olympiades retransmis à la télévision, dont sa femme se souvient encore. Il parle de sa langue extraordinaire, lointaine cousine du finnois, dont elle s'est séparée il y a mille ans. Une langue qui force l'auditeur à être sur le qui-vive, se demandant sans cesse si le dernier mot ne va pas bouleverser le sens qui était en train de se dessiner. Est -ce elle qui a fait de la Hongrie le plus grand pourvoyeur de savants et scientifiques de lé- gende de la première moitié du vingtième siècle? La pa- trie des Erdos, von Neumann, Féjer, Riesz, Teller, Wigner, Szilard, Lax, Lovasz, et tous les autres ... -Les juifs ont joué un rôle vital ! insiste Gabor, notre pays a été à un moment le moins antisémite de cette partie 269 du globe, les intellectuels juifs ont accouru et contribué de manière décisive à la fortune intellectuelle de ce pays. Puis le vent a tourné, ils n'étaient plus_ les bienvenus, et ils sont repartis, hélas ... Gabor est le découvreur du Gomboc, cette forme in- croyable à l'existence de laquelle croyait Vladimir Arnold ; cette forme pleine et homogène qui n'a qu'un équilibre stable et un équilibre instable. Une forme superstable mi- nimale, qui revient toujours à sa position d'équilibre quelle que soit la façon dont on la pose sur le sol. Comme un culbuto - mais le culbuto est lesté, alors que le Gomboc est parfaitement homogène. À mon arrivée à Budapest, j'ai tout de suite entendu par- ler de cette découverte et j'ai imaginé le Gomboc exposé dans la bibliothèque de mon institut. Mais avant tout, j'ai voulu le voir, pour me convaincre qu'il existait vraiment ! Un échange de mails a suffi. Mon institut serait très ho- noré d'exposer votre merveilleuse découverte. Je serai très honoré que ma découverte vienne enrichir la collection de votre prestigieux institut ; je serai à votre exposé demain, rendez-vous à la maison après-demain pour déjeuner. Qu'il en soit ainsi, j'ai hâte de vous rencontrer. -Quel bel exposé tu as fait hier à l'université, me répète Gabor au comble de l'excitation. Wh at a talk ! Wh at a beauti/ul talk ! Que c'était beau, on aurait dit que Boltzmann était dans la salle. Parmi nous ! Hein ! Quel bel exposé! TI prend Claire à témoin : -La salle était surchauffée, trop petite pour l'au- dience, le projecteur n'arrivait pas, ton mari devait sauter par-dessus les @s qui traînaient, le tableau descendait tout seul, mais lui il s'en fichait! Une heure et demie d'exposé! Quelle joie ! On trinque à Boltzmann, à la fraternité entre mathéma- ticiens de tous les pays, à mon article sur l'amortissement 270 Landau qui, après quelques échanges avec les referees, a été définitivement accepté hier par Acta Mathematica. Le tokay sucré coule dans les gosiers, Gabor continue à parler. Il parle de son voyage au Congrès International de Mathématiques appliquées de Hambourg en 1995. Un déjeuner payant était organisé autour d'Arnold, alors il n'a pas hésité, il s'est inscrit ; pour cela il a investi la moitié de son misérable budget de voyage. Et puis tout intimidé, il n'avait même pas osé parler au grand homme! Mais le lendemain Gabor avait recroisé par hasard son héros aux prises avec un fâcheux (j'ai déjà résolu votre pro- blème il y a dix ans, non je n'ai pas le temps d'écouter votre démonstration), et Arnold avait saisi l'occasion pour se tirer du piège (non, vraiment pas, je suis désolé, j'ai rendez-vous avec ce monsieur que voici). Arnold avait alors voulu en savoir plus sur cet étrange convive silencieux. «Je t'ai vu hier au déjeuner, je sais que tu viens de Hongrie et que le prix du repas est une grosse somme pour toi, alors si tu veux me dire quelque chose c'est le moment ! » Gabor avait parlé de ses recherches et Arnold lui avait dit que ce n'était pas la bonne direction. Au cours de la discussion qui s'est ensuivie, Arnold lui avait confié sa foi dans l'existence de la Forme Stable Minimale, cette forme qui n'aurait que deux équilibres dont un seul stable. Ces quelques minut~s ont changé le destin de Gabor, qui douze années durant a traqué la fameuse forme. Gabor a collecté des milliers de galets avant de se convaincre que cette forme n'existait pas dans la nature et qu'il faudrait la créer de toutes pièces, peut -être une sphère déformée, un sphéroïde - car les sphéroïdes sont rares dans la nature. En 2007, ille trouva enfin, avec l'aide de Peter, un de ses étudiants devenu confrère d'aventure. Une sphère subtile- ment déformée, du grand art. Ille baptisa Gomboc, sphé- roïde en hongrois. 271 Le premier Gomboc était abstrait, si proche d'une sphère qu'on n'aurait pas vu la différence à l'oeil nu. Mais peu à peu ses parents réussirent à le déformer davantage, à en faire une sorte de croisement entre une balle de tennis et une pierre taillée d'homme préhistorique, et toujours la même propriété, seulement une position d'équilibre stable et une position d'équilibre instable ! Gabor me tend un énorme Gomboc en plexiglas. -N'est-ce pas qu'il est beau? Douze ans de recherche! Quand ils le voient, les Chinois pensent que c'est une repré- sentation en relief du Yin et du Yang ! Le tout premier a été offert à Arnold. Je t'en ferai envoyer un bel exemplaire en métal, numéroté 1928, comme la date de naissance de ton institut! Encore une gorgée de tokay. Les enfants photogra- phient les photos qui défilent sur l'écran géant ; la femme de Gabor, photographe amateur de talent, photographie les enfants. Gabor continue à parler et j'écoute son histoire, fasciné. Une histoire éternelle, une histoire de mathéma- tique, de quêtes, de rêves et de passion. Annexe : Traductions p. 33: Extrait de la nouvelle de« L'Oiseau-Soleil», par Neil Gaiman « Répondez-moi sans détour, Crawcrustle, dit Jackie Newhouse, enflammé. Depuis combien de temps mangez-vous le Phénix? -Un peu plus de dix mille ans, dit Zebediah. Plus ou moins quelques milliers. Ça n'est pas difficile, une fois qu'on a compris le truc; c'est comprendre le truc qui est difficile. Mais ce Phénix est le meilleur que j'aie jamais préparé. Ou devrais-je dire : "C'est la meilleure préparation que j'aie jamais faite de ce Phénix"? -Les années ! dit Virginia Boote. Le feu vous les brûle ! -C'est bien le cas, admit Zebediah. Il faut s)habituer à la chaleur avant de manger l'oiseau, toutefois. Sinon, on peut se consumer totalement. - Pourquoi ne me suis-je pas rappelé ça? s'interrogea Augustus DeuxPlumes McCay, à travers les flammes vives qui l'entouraient. Pourquoi ne me suis-je pas rappelé qu'ainsi sont partis mon père et son père avant lui, que chacun d'eux est allé à Héliopolis pour manger le Phénix ? Pourquoi ne me le rappelé-je que maintenant ? -Allons-nous brûler jusqu'à n'être plus que néant? de- manda Virginia, incandescente. Ou bien brûler jusqu'à l'enfance, puis jusqu'à l'état de fantômes et d'anges, et repartir dans l'autre sens? Ça n'a pas d'importance. Oh, Crusty, qu'est-ce que c'est amusant!» (Extrait de « L'Oiseau-Soleil », par Neil Gaiman, in Des choses fragiles, éd. Diable-Vauvert, 2009; trad. Michel Pagel.) 273 p. 79 : D NE, le groupe de rock de l'lAS Que se passe-t-il quand vous réunissez 200 des meilleurs sa- vants du monde, que vous les isolez dans une résidence boisée, que vous les libérez de toutes les distractions mondaines de la vie universitaire, et que vous leur dites de faire de leur mieux? Pas grand-chose. Certes, beaucoup de recherche de pointe se fait au célèbre Institute for Advanced Study [Institut d'études avancées] à Princeton. Du fait de la remarquable hospitalité de l'Institut, il n'y a pas de meilleur endroit pour permettre à un universitaire de se poser et de réfléchir. Pourtant, le problème, d'après de nom- breux jeunes chercheurs, est que la seule chose à faire à l'Institut consiste à se poser et réfléchir. Ce serait un euphémisme d' appe- ler l'lAS une tour d'ivoire, car il n'y a pas d'endroit plus élevé. La plupart des institutions universitaires de classe mondiale, même les plus sérieuses, ont un endroit où un rat de bibliothèque gagné par la lassitude peut se faire servir une pinte de bière et écouter le juke-box. Mais pas l'lAS. Les anciens évoquent les jours in- souciants dans les années 40 et 50, lorsque l'Institut était le point de rassemblement de l'élite intellectuelle de Princeton. John von Neumann a inventé l'informatique moderne, mais il a également la réputation d'avoir concocté maints cocktails enivrants qu'il dis- tribuait généreusement dans des fêtes endiablées. Einstein a mis la physique sens dessus dessous, mais il savait aussi, à l'occasion, prendre son tour au violon. Prenant leurs repères sur les An- ciens, les patriarches de l'Institut croyaient apparemment que les hommes devaient être complets, comme ils l'auraient dit, versés dans des activités variées, trouver un juste milieu entre le sophis- tiqué et le simple. Mais de nos jours l'apollinien a tellement pris le pas sur le dionysiaque à l'Institut que, selon certains membres, l'idée même de prendre du bon temps n'est plus considérée qu'en termes abstraits. En vous promenant dans l'Institut, vous pouvez croiser la route d'un Prix Nobel ou d'un médaillé Fields. Étant donné le soutien généreux de l'Institut, vous pourriez même en devenir un vous-même. Mais vous pouvez être quasiment certain que vous ne partagerez ni verre, ni éclat de rire. 274 p. 207 : L'invitation à un colloque du Fields lnstitute Date: Tue, 22 Sep 2009 16:10:51 -0400 (EDT) From: Robert McCann <mccann@math.toronto.edu> To: Cedric Villani <Cedric.VILLANI@umpa.ens-lyon.fr> Subject: Fields 2010 Cher Cedric, L'automne prochain je suis implique dans l'organisation d'un atelier sur le theme "Probabilite geometrique et transport optimal", du 1er au 5 novembre, dans le cadre du semestre thematique du Fields sur le theme "Analyse geometrique asymptotique". Tu seras certainement invite a l'atelier, toutes depenses prises en charge, et j'espere que tu pourras venir. Cependant, je voulais aussi verifier s'il y avait une possibilite que tu sois interesse a sejourner a Toronto et au Fields Institute pour une plus longue periode, auquel cas nous essaierions de rendre ce projet attractif. Merci de me dire, Robert 275 p. 217 : Extrait de notes de cours Comme r = 1 est le cas le plus intéressant, il est tentant de croire que nous nous heurtons à une difficulté profonde. Mais c'est un piège : on peut obtenir une estimée bien plus précise en séparant les modes et en les estimant un par un, plutôt qu'en re- cherchant une estimée sur la norme entière. Précisément, si nous posons r.pk(t) = e27r(.Xt+M)Ikll,ô(t, k)l, alors nous obtenons un système de la forme (7 .15) Supposons que ak(t) = O(e-ak e- 2 1r.XIklt). D'abord, simpli- fions la dépendance en temps en posant Alors (7 .15) devient tl> ( ) A ( ) c t tl> ( kt ) kt ::; kt+ (k+1)1'+1 k+l k+1 . (7 .16) (L'exponentielle dans le dernier terme a le bon exposant car (k + 1)(kt/(k + 1)) = kt.) Maintenant, si nous parvenons à une estimée sous-exponentielle sur tl>k(t), cela impliquera une décroissance exponentielle pour r.p k ( t). Encore une fois, nous cherchons une série entière, supposant que Ak reste constant au cours du temps, et décroît comme e-ak quand k -+ oo; donc nous faisons l'ansatz tl>k(t) = l:m ak,m tm avec ak,O = e-ak. En exercice, le lecteur peut effectuer les calculs qui mènent à une estimée doublement récurrente sur les coeffi- cients ak,m et déduire d'où 276 1 Va<--. r+2 (7 .17) Cela est sous-exponentiel même pour r = 1 : en fait, nous avons exploité le fait que les échos pour des valeurs différentes de k sont asymptotiquement bien séparés en temps. En conclusion, du fait de la singularité de l'interaction, on s'attend à perdre une exponentielle fractionnaire sur le taux de convergence : si le mode k de la source décroît comme e- 2 7l'Àjkit, alors 'Pb le mode k de la solution, devrait décroître comme e- 2 7l'Àjkjt e(clklt)Q. Plus généralement, si le mode k dé- croît comme A (kt), on s'attend à ce que cp k ( t) décroisse comme A(kt) e(cjkjt)o. Alors on conclut comme avant en absorbant l'ex- ponentielle fractionnaire par une exponentielle très lente, au prix d'une énorme constante: disons 277 p. 221: Extrait de mon exposé à Brown University Coulomh/Newton (cas le plus intéressant) Dans la preuve, l'interaction Coulomb/Newton et la régula- rité analytique sont toutes deux critiques; mais cela marche en- core sur des temps exponentiellement grands « parce que » • la décroissance linéaire attendue est exponentielle • la croissance non linéaire attendue est exponentielle • le schéma de Newton converge bi-exponentiellement Cependant il semble possible de faire mieux en exploitant le fait que les échos à des fréquences spatiales différentes sont asymp- totiquement assez bien séparés. 278 p. 225 : La lettre de resoumission Cédric Villani École Normale Supérieure de Lyon & Institut Henri Poincaré 11 rue Pierre & Marie Curie F-75005 Paris, FRANCE cvillani@umpa.ens-lyon.fr Paris, le 6 décembre 2009 À Johannes Sjostrand Éditeur d'Acta Mathematica IMB, Université de Bourgogne 9, Av. A. Savarey, BP 47870 F-21078 Dijon, FRANCE johannes.sjostrand@u-bourgogne.fr Resoumission à Acta Mathematica Cher Professeur Sjostrancl Suite à votre lettre du 23 octobre dernier; nous sommes heureux de soumettre une nouvelle version de notre manuscrit, Amortisse- ment Landau, pour publication éventuelle dans Acta Mathema- tica. Nous avons bien pris note des réserves exprimées par certains des experts dans les rapports préliminaires sur notre première sou- mission. Nous pensons que ces réserves ont été parfaitement prises en compte dans la version actuelle, notablement améliorée. Tout d'abord, et c'est peut-être le plus important, le résultat principal couvre maintenant les potentiels de Coulomb et Newton; dans un cadre analytique c'était la seule zone d'ombre qui restait dans notre analyse. L'analyticité est une hypothèse classsique dans l'étude de l'amortissement Landau, aussi bien en physique qu'en mathéma- tique,· elle est indispensable à la convergence exponentielle. Cepen- dant, elle est très rigide, et l'un des experts s'est plaint que nos résultats ne pouvaient se passer de l'analyticité. Avec cette nouvelle version ce n'est plus le cas, puisque nous sommes maintenant en mesure d'inclure certaines classes de données Gevrey. 279 Dans la première version, nous écrivions : «nous affirmons que, à moins d'identifier un nouveau facteur de stabilit~ il n'y a pas de raison de croire en l'amortissement Landau non linéaire pour, disons, l'interaction gravitationnelle, dans une classe de régularité plus basse qu'analytique. » Depuis lors nous avons justement iden- tifié un tel facteur (les échos qui se produisent à des fréquences dif /érentes sont asymptotiquement bien séparés). Son exploitation a mené aux améliorations mentionnées ci-dessus. En corollaire, notre travail inclut maintenant de nouveaux ré- sultats de stabilité pour des équilibres homogènes de l'équation de Vlasov-Poisson, comme la stabilité de certaines /onctions de distri- bution non monotones dans le cas répulsif (un problème ouvert de longue date), et la stabilité en deçà de la longueur de Jeans dans le cas attractz/ Une autre réserve exprimée par un expert était notre utilisation d'espaces fonctionnels non conventionnels. C'est peut-être le cas pour notre «norme de travail», mais cela ne l'est pas pour la norme naïve présente dans nos hypothèses et conclusions, déjà utilisée par dJ autres chercheurs. Le passage d'une norme à l'autre se /ait par le Théorème 4.20. L'article a été entièrement réécrit pour incorporer ces améliora- tions, et vérifié avec soin. Pour éviter une nouvelle augmentation de la longueur, nous avons supprimé tous les développements et com- mentaires qui n'étaient pas strictement liés à notre résultat princi- pal; la plupart des remarques restantes sont seulement destinées à expliquer les résultats et méthodes. Un commentaire/ina! concernant la longueur de notre travail: nous sommes prêts à discuter d'éventuels ajustements dans l' orga- nisation de l'article, et nous notons que la présentation modulaire des outils utilisés dans notre manuscrit ouvre la porte à un travail en équipe des experts chargés de la vérification, ce qui devrait allé- ger leur tâche. Nous espérons vivement que cet article satisfera les experts et restons Sincèrement vôtres, Clément Mouhot & Cédric Villani 280 p. 259: Les tygres de Frisch Phénomène du Tygre pour les équations de Burgers et Euler tronquées (lhOO') par Uriel Frisch On montre que les solutions d'équations hydrodynamiques incompressibles, après suppression des modes de Fourier dont les fréquences sont au-delà d'un seuil kg, possèdent des proprié- tés inattendues. On réalise cette étude à la fois pour l'équation de Burgers monodimensionnelle et pour l'équation d'Euler bidi- mensionnelle. Pour de grands kg, pour des conditions initiales lisses, le premier symptôme de la troncature, une oscillation loca- lisée de courte longueur d'onde, que nous appelons un « tygre », est provoquée par une interaction résonante entre le mouvement des particules fluides et les ondes de troncature engendrées par les caractéristiques à petite échelle (chocs, couches limites à forts gradients de vorticité, etc.). Ces tygres apparaissent quand des singularités dans le plan complexe s'approchent de la droite réelle à moins d'une longueur d'onde de Galerkin Àg = 27r/kg, et se produisent typiquement loin des structures à petite échelle pré- existantes, aux positions où la vitesse s'accorde avec ces struc- tures. Les tygres sont faibles et tout d'abord fortement localisés - dans le cas de Burgers, au moment de l'apparition du premier choc, leurs amplitudes et largeurs sont proportionnelles à k";; 2 / 3 et k";; 1 / 3 respectivement -, mais croissent et finissent par enva- hir le flot entier. Ce sont donc les premières manifestations d'une thermalisation prédite par T.D. Lee en 1952. La brusque ano- malie dissipative-la présence d'une dissipation finie dans la li- mite de viscosité évanescente après un temps fini -, qui est bien connue pour l'équation de Burgers et parfois conjecturée pour l'équation d'Euler 3D, a une contrepartie en présence d'une tron- cature : la capacité des tygres à emmagasiner une quantité finie d'énergie dans la limite kg --+ oo. Cela mène à des contraintes de Reynolds agissant à des échelles plus grandes que la longueur d'onde de Galerkin, et empêche le flot de converger vers la solu- tion limite incompressible. D'après certains indices, il serait pos- sible d'expurger les tygres et donc de retrouver le comportement correct dans la limite non visqueuse. ;':: 281 p. 260: «Le Tygre »de William Blake Bien que ce célèbre poème soit essentiellement intraduisible, on en trouvera facilement de nombreuses tentatives de traduction en français, sous /orme papier ou sous /orme électronique; aucune ne m'a paru satisfaisante, et je ne peux qu'encourager le lecteur à s'efforcer d'apprécier la version originale. De nombreuses exégèses sont disponibles, ainsi que plusieurs variantes subtilement diffé- rentes dues aux hésitations de l'auteur et de ses éditeurs. ]'ai ici repris le texte d'origine et (comme Blake l'avait expérimenté dans l'un de ses manuscrits) supprimé la ponctuation, qui elle-même su- bit d'importantes variations d'une édition à l'autre. Composé par e-press Casablanca -Maroc Cet ouvrage a été imprimé par Normandie Roto Impression s.a s. pour le compte des Éditions Grasset en septembre 2012 ~ PAPIER À BASE DE FIBRES CERTIFIÉES Grasset s'engage pour l'environnement en réduisant l'empreinte carbone de ses hvres Celle de cet exemplaire est de 1 kg éq. (02 Rendez-vous sur www.grasset-durable fr Première édition, dépôt légal: août 2012 Nouveau tirage, dépôt légal: septembre 2012 N° d'édition: 17385-N° d'impression: 123515 Imprimé en France |
Des livres aux SMS, en passant par diverses pages web, les données textuelles sont partout.
Néanmoins, des transformations adéquates permettent de prendre en compte tout type de donnée, et le texte n’est pas exclu.
C’est ainsi que, des avancées récentes en traitement automatique du langage naturel ont prouvé que le traitement du texte par l’ordinateur peut être raffiné autant qu’on veut, dans les limites du possible.
Cela est en fait une bonne nouvelle car, il s’avère que des nombreux sujets restent fermés à la majorité des gens suite au manque de temps, au regard de la quantité d’informations à consulter pour espérer avoir ne fusse qu’une lueur d’idée du domaine ou du sujet qu’on veut rapidement explorer.
Comme présenté dans la section précédente, la voie la plus privilégiée pour transmettre les connaissances est l’écriture.
Il est souvent inintéressant de passer du temps à lire des textes très longs, surtout quand on veut juste avoir une compréhension suffisante en peu de temps de ce qui est écrit, ou quand le sujet traité ne fait pas partie de notre domaine de prédilection.
Il est donc intéressant de mettre au point un système qui pourra assister l’homme dans la tâche de synthèse des connaissances afin de promouvoir par là-même un échange entre disciplines, ce qui est souvent très enrichissant.
Est-il possible de mettre au point un système informatique capable de synthétiser les textes avec une performance de niveau humain ?
Un traitement purement linguistique ne pourrait-il pas nous permettre de générer des synthèses suffisamment bons pour atteindre notre objectif ?
L’inclusion des traitements basés sur l’intelligence artificielle dans les modules de synthèse est-elle obligatoire pour atteindre des bonnes performances ?
Quelle est l’architecture globale la plus adaptée pour réaliser un système de synthèse automatique performant ?
Vu la complexité du langage naturel, un traitement purement linguistique ne nous permettrait pas de mettre au point un système de niveau humain en synthèse des textes;
Étant donné que, par définition, le langage naturel est difficile à formaliser complètement, on ne pourrait pas se passer de l’intelligence artificielle pour parvenir à réaliser un système performant;
Une architecture basé essentiellement sur des modèles du type transformer, joint à l’utilisation de quelques règles inspirées de la linguistique permettrait d’avoir un système de synthèse performant.
Certains textes sont souvent fournis, accompagnés des synthèses qui sont parfois très bonnes, parfois incomplètes et parfois même très polarisées ou tout simplement mauvaises.
Toutefois, avoir une synthèse à la demande serait mieux que de ne trouver que des synthèses de certains textes, sans d’ailleurs en avoir le plus souvent besoin.
Nombreux sont des textes (livres, articles, pages web et autres documents) dont on voudrait avoir des bonnes synthèses, qu’on ne trouve que très rarement si on ne s’est pas découragé avant.
C’est la raison pour laquelle, nous nous sommes fixé comme objectif de répondre à ce besoin précis en mettant au point une application web de synthèse des textes.
Des solutions ont été proposées mais ne sont pas toujours à la hauteur de nos attentes (mettre au point un système de performance presqu’humaine en synthèse automatique des textes).
Les plus prometteuses de ces solutions se limitent à des tailles bien réduites de texte, ce qui est déjà un grand pas mais pas suffisant évidemment.
Pour les chercheurs, car il pourra faciliter le survol rapide des connaissances provenant SYNTHESE AUTOMATIQUE DES TEXTES
Pour tout le monde alors, le système pourra permettre un gain de temps considérable chaque fois qu’il donnera la possibilité d’avoir accès à une synthèse de bonne qualité à la demande, en très peu de temps.
Cette recherche a pour objectif principal de concevoir et réaliser un système (une application web) qui facilitera la génération automatique des synthèses de niveau humain.
Mettre au point une base de données pour stocker les synthèses les mieux cotées par les usagers, en prévision d’une amélioration future du système;
Pour la mise au point du système, nous comptons utiliser les méthodes d’analyse moyennant les techniques expérimentale (pour vérifier l’adéquation du fonctionnement de l’application mise sur pied avec le problème posé), et documentaire (pour une vision approfondie des techniques couramment utilisées et d’éventuelles améliorations nécessaires).
Ce travail se focalisera sur la synthèse des documents du type informationnel (livres historiques, discours, articles de presse, lettres, nouvelles, romans et tout autre type de document ayant une faible densité d’expressions mathématiques) et il s’agira d’une synthèse mono-document.
Au premier chapitre, Généralités sur le traitement automatique du langage naturel, nous passerons en revu toute la théorie nécessaire à la compréhension de notre travail.
Au second chapitre, Présentation du résumé automatique et conception de l’architecture du système, nous y présenterons les aspects du résumé automatique essentiels à notre travail et y concevrons pas à pas le système de synthèse automatique des textes dans tous ses aspects (pas uniquement le côté synthèse).
Au troisième chapitre : Conception finale, réalisation et tests, nous y finaliserons la conception et expliquerons les points importants de l’implémentation en nous basant sur la conception faite, puis nous présenterons les résultats des tests que nous aurons effectué.
Dans ce chapitre, nous allons présenter brièvement le traitement automatique du langage naturel, ainsi que les techniques de traitement qui seront utiles pour la réalisation de l’objectif principal de ce travail.
Nous allons donc y présenter une vue d’ensemble des architectures généralement utilisées, en nous focalisant essentiellement sur l’aspect intelligence artificielle du NLP (Natural Language Processing).
Dans un premier temps, nous y présentons quelques techniques, souvent incontournables lorsqu’on veut réaliser une tâche de traitement du langage.
Après cela, nous parcourons divers modèles qui nous permettrons d’aborder le modèle le plus adapté à la tâche de synthèse automatique des textes, qui est l’objectif de ce travail.
Le NLP est une discipline rattachée à l’intelligence artificielle et ayant pour principal objectif, l’étude des possibilités du traitement du langage humain par des machines.
La raison pour laquelle la discipline s’inscrit comme faisant partie du domaine d’intelligence artificielle est que le langage est considéré comme étant une aptitude centrale de l’intelligence humaine, étant donné que l’usage d’un langage si complexe est l’un des éléments distinctifs principaux entre humains et autres animaux.
des textes produits par des humains, pour finalement ressortir des informations pertinentes à propos de ces derniers ou alors du texte modifié de façon approprié selon l’objectif poursuivi.
C’est ainsi que des tâches comme la traduction automatique, la génération automatique des textes ou aussi la synthèse automatique qui va nous intéresser dans ce travail, produisent directement du texte en sortie.
Mais, dans tous les cas, la sortie est soit immédiatement utilisable, soit alors elle est prise comme entrée d’un autre système dans la chaîne de traitement du texte.
On peut toutefois se demander la raison pour laquelle on parle de traitement automatique du "langage naturel" (quitte à se demander ce qui distinguerait un langage naturel des autres langages).
Pour établir clairement cette différence, il est nécessaire de donner une définition de ce qu’est un langage formel.
Pour caricaturer, un langage formel est celui pour lequel il existe un mécanisme fini, et explicite, permettant d’en faire une analyse, quand bien même il serait constitué d’un nombre infini de mots.
On peut donc comprendre directement que le mot "naturel" est ici utilisé pour faire une distinction avec les langages formels.
C’est donc dans ce sens que toutes les langues parlées peuvent être vues comme des langages naturels.
Les langages formels ont une syntaxe précise et sont spécifiquement conçus pour des objectifs bien cernés (penser à tous les langages de programmation par exemple).
Concernant les langues humaines usuellement utilisées, on ne peut pas dire, sans être démenti, qu’elles sont dénuées d’imprécisions.
Ceci n’est qu’un exemple particulier pour illustrer cette dichotomie inhérente à l’emploi de la langue quelle qu’elle soit, mais cela suffit pour qu’on s’aperçoive que le problème est bel et bien réel.
C’est tout ce qui précède qui rend le langage humain à la fois riche et challengeant quand il s’agit de doter les machines de cette aptitude.
Ces approches utilisaient essentiellement des caractéristiques statistiques des séquences comme, la fréquence des mots et les co-occurences par exemple.
Néanmoins, le principal désavantage de ces techniques était qu’elles ne parvenaient pas à capturer une grande partie de la complexité linguistique du langage humain, comme par exemple le contexte.
Ainsi, les développements, récents d’ailleurs, des réseaux de neurone et du deep learning ont donné des nouveaux outils, pour approcher dans une large mesure les performances humaines en terme de traitement de langage.
A notre avis, ces techniques sont les plus adaptées car, tout d’abord elles se rapprochent beaucoup plus des méthodes de traitement d’information par le cerveau humain, et ensuite, il serait autrement très couteux, voir impossible, d’élaborer des modèles capables d’embrasser toute la complexité du langage humain.
elles et le traitement élaboré sur ces représentations, de manière à en tirer des informations pertinentes ou à réaliser des transformations appropriées.
Cette représentation constitue d’ailleurs un problème fondamental car c’est d’elle que dépend toute la chaîne de traitement des systèmes de NLP [46].
Dans cette partie, nous allons présenter diverses techniques intervenant dans le traitement des données de langage naturel.
Pour cela, nous allons d’abord présenter certaines manipulations réalisées sur les données en guise de pré-traitement.
C’est pour cela que l’opération consistant à réduire un corpus de texte en ses tokens est centrale.
Dans notre contexte, la tokenisation est une opération qui consiste à décomposer un texte
Cela est une première étape pour diminuer la difficulté inhérente au traitement des textes.
En considérant la décomposition en mots, pour diminuer au maximum les difficultés de traitement et l’ambiguïté, on ajoute à la tokenisation d’autres traitements qui sont en général : la désaccentuation, le passage aux minuscules, la suppression des stopwords, la racinisation et la lemmatisation appliqués aux tokens obtenus [22].
Les stopwords sont, pour une langue donnée, des mots qui permettent de réaliser des phrases correctes mais qui n’apportent pas directement d’information significative sur l’ensemble (du point de vu traitement).
Cela permet juste de maximiser la probabilité de confondre des mots semblables qui sont présentés différemment dans diverses phrases.
Pour illustration, on voudrait par exemple que si on retrouve les éléments "manger", "mange", "mangeable", "mangeons" dans un corpus, qu’ils soient transformés en un seul terme "mange".
C’est cela en bref le stemming et, contrairement à ce que le nom suggère, il ne s’agit pas exactement de trouver la racine des mots (les mots dont ils dérivent).
Elle réalise en fait ce qui n’est pas réalisé par le stemming en ce sens que lemmatiser un token consiste à la transformer en sa racine, et cette dernière doit être présente dans le dictionnaire.
Cette tâche est grandement facilitée par des techniques de deep learning.
Il s’agit des tâches très importantes que nous devons nécessairement mentionner.
La détection des entités nommées (Named Entity Recognition ou NER) consiste à repérer tout ce qui correspond à des noms de personnes, des noms d’organisations ou d’entreprises, des noms de lieux, des quantités, des distances, des valeurs, des dates ou tout autre élément qui constitue une nomination d’une entité existante précise dans un texte donné.
Cette tâche est visiblement très importante dans la phase d’interprétation des données textuelles et il s’agit d’un simple problème de classification.
Le Part-Of-Speech tagging est une tâche consistant en gros, à associer aux éléments des textes, des informations grammaticales.
En général, il s’agit d’associer aux termes des textes, leur nature grammaticale.
En effet, c’est une première étape dans l’analyse structurelle des textes, permettant de déduire diverses dépendances du point de vu linguistique.
Elle est fortement facilitée par des approches basées sur le deep learning comme c’est le cas aussi pour la reconnaissance d’entités nommées.
Nous allons passer sous silence certains autres concepts du NLP comme le sacs de mots et le word embeddings dont nous parlerons dans la partie qui va suivre et qui présentera le résumé automatique, en tant que tâche du NLP.
Comme cela a été maintes fois mentionné, deux approches majeures sont d’usage pour traiter automatiquement les données de langage naturel.
Mais les deux approches sont dans la majorité des cas complétées par certaines heuristiques [31].
En ce qui nous concerne, l’approche sera essentiellement numérique avec un penchant prononcé pour les techniques du deep learning.
D’ailleurs, concernant ces dernières techniques, les modèles de l’état de l’art les plus adaptés sont les transformers et leur présentation exige une revue chronologique car en effet, pour y arriver, des modèles classiques basés sur des réseaux de neurones récurrents (RNN) ont été utilisés car plus adaptés aux données séquentielles que sont les textes.
Ensuite, le constat de leur mémoire limitée a fait à ce qu’on les modifie pour obtenir des unités à mémoire plus large dont les LSTM(Long Short-Term Memory) et les GRU(Gated Recurrent Unit).
Furent ensuite introduits les mécanismes d’attention qui améliorèrent les techniques, aboutissant finalement aux modèles dits transformers, plus adaptés à des tâches de NLP élaborées.
Les réseaux de neurones artificiels (Artificial Neural Network ou ANN) sont un ensemble de neurones (artificiels) assemblés pour résoudre des tâches considérées comme requérant une certaine intelligence.
Il s’agit essentiellement d’une fonction d’agrégation ayant pour rôle de réaliser une somme pondérée des entrées qui lui sont présentées et d’une fonction d’activation qui formate la sortie de la fonction d’agrégation selon les valeurs attendues en sortie [12].
Les neurones sont généralement assemblés par couche comme présenté sur la figure qui suit :
Ce qui vient d’être présenté est suffisant pour avoir une idée globale de ce qu’est réellement un réseau de neurones artificiel.
Néanmoins, nous pousserons plus loin pour toucher le plus vite possible aux modèles qui nous intéressent dans ce travail.
Un RNN(Recurrent Neural Network) est un type de réseaux de neurones conçu en principe pour traiter les données séquentielles, comme les données textuelles,...
La principale différence structurelle entre les ANN simples et les RNN est l’existence des connexions de récurrence dans ces derniers.
Les fonctions d’activation fact et gact qui sont mentionnées dans les équations I.1 représentent respectivement la tangente hyperbolique tanh et la fonction dite sof tmax [15].
L’entraînement des réseaux de neurones récurrents se fait de la même façon que pour les réseaux de neurones simples (avec uniquement une différence due au fait que pour le RNN on prend en compte le temps).
On n’entrera pas dans le détail, vu que ce n’est pas exactement le sujet du travail mais, pour entamer la partie qui suit, il nous faut préciser que, comme pour les réseaux de neurones simples, l’entraînement exige d’appliquer une fonction de différentiation sur l’erreur produite par le système.
Mais, comme ici le gradient tient compte des grandeurs précédentes dans le temps, il y a un certain nombre de termes multiplicatifs qui peuvent amener le modèle à ne jamais converger ou au contraire, à la saturation.
Les cellules LSTM (pour Long Short-Term Memory) sont utilisées en lieu et place des cellules RNN classiques (dites vanilla) pour permettre au réseau de traiter des séquences de plus en plus longues sans perte rapide d’information [16].
Pour cela, des éléments de contrôle de la mémoire de la cellule sont ajoutés.
Pour illustrer nos propos, voici une image qui nous permettra de différencier une cellule RNN classique d’une cellule LSTM :
Présentée comme cela, la cellule LSTM semble superflue mais si on présentait les équations associées à un réseau fait de ces cellules, on se rendra compte que c’est plutôt intuitif.
Une cellule LSTM se comprend en la considérant comme constituée d’un ensemble de portes avec des fonctions bien particulières.
Il est évident que, pour chacune de ces portes que nous nommerons, à un instant t donné par It, Ft et Ot, le système doit apprendre ses paramètres en fonction de l’entrée et de l’état interne.
Mais on doit aussi remarquer que, l’état est défini par deux paramètres au lieu d’un seul comme pour les RNN simples.
Il s’agit, à un instant t donné, de ht (considéré comme état à court terme) et de ct (qui est un état à long terme mais dont le contenu est contrôlé, au vu de l’architecture de la cellule).
On sait aussi que, si on veut une mémoire à long terme contrôlée, la valeur finale de ct doit être mise à jour en repérant ce qui doit être oublié parmi les éléments qui étaient précédemment dans la mémoire, pour y ajouter ensuite ce qui est sélectionné comme pertinent à l’entrée.
Et de cela on peut conclure que c’est plus intéressant d’avoir Ft et It qui prennent des valeurs entre 0 et 1 (pour modéliser la sélection) et ct devra dépendre de ces deux éléments, avec aussi l’état précédent de la mémoire à long terme.
Il est aussi vraisemblable que, l’état à court terme doit provenir de la mémoire à long terme (ça correspondra à une sélection de ce qui doit être pris en compte directement dans la mémoire à long terme).
Cet état ht doit par conséquent dépendre de ct (il faut néanmoins noter qu’une autre approche serait possible ici, mais celle-ci est déjà pertinente).
Il va ici s’agir de ht vu que la cellule est développée par analogie avec le processus de mémorisation des systèmes naturels (mémoire à court terme correspondant à la mémoire de travail).
Avec F ,G,J ,K,L,M des fonctions dépendant des coefficients considérés (poids et/ou éléments de sélection qui sont les diverses portes définies).
Cette implémentation peut être modifiée, surtout en ce qui concerne les fonctions d’activation utilisées (σ et tanh), et en particulier la fonction d’activation de finalisation tanh ici, mais c’est l’une des plus optimales.
Cela a fait à ce qu’on puisse essayer de le diminuer en implémentant le GRU (Gated Recurrent Unit) poussant un peu plus loin l’abstraction des portes pour diminuer le nombre de paramètres.
Et pour les portes, on fusionne les portes de sélection des entrées avec celle des éléments à oublier (donc les portes I et F) pour former une porte dite de mise à jour (porte qui sera appelée update ou U).
Ces deux portes (de mise à jour et de réinitialisation) sont en fait implémentées de façon identique que celles des cellules LSTM.
La particularité des GRU se situe principalement au niveau de la gestion de la mémoire (l’implémentation du processus de mémorisation) car, ayant supprimé la distinction long-terme/court-terme, il fallait bien trouver un mécanisme devant permettre de bien gérer les deux aspects de la mémoire avec un seul état interne conservé.
C’est ainsi que, la porte de mise à jour (porte U) est introduite dans le calcul de l’état h pour assurer la sélection du type de mise à jour à effectuer.
Ainsi donc, h devient une combinaison d’éléments provenant de l’état interne précédent avec ceux provenant des nouveaux calculs effectués par la cellule (en fonction de l’entrée et de l’état interne précédent).
Il faut noter que sur cette image (figure I.5), l’implémentation de la mise à jour est l’inverse de celle que nous avons décrit par les équations I.4.
C’est-à-dire que les termes Ut et (1−Ut) sont permutés.
Parmi les techniques d’amélioration des performances, une peut être considérée car elle a un rapport direct avec notre travail.
Les mécanismes d’attention sont en bref des techniques permettant de lutter contre la perte de mémoire qu’on constate par exemple dans les cellules récurrentes ci-haut décrites, en se focalisant sur des éléments les plus importants à chaque traitement.
Le travail consiste donc à repérer, pour chaque entrée, les éléments sur lesquels se focaliser.
L’une des implémentations les plus commodes est l’attention globale [30].
Pour l’expliquer, nous allons considérer une architecture jusque là passée sous silence, mais qui permet aux modèles introduits là haut de s’utiliser efficacement pour les tâches courantes du NLP en particulier.
1°) fournir une série d’éléments en entrée et ressortir une autre série (utile pour la prédiction de la valeur des actions par exemple,...
2°) fournir un série en entrée mais faire ressortir un seul élément ou vecteur (utile pour la classification des textes, l’analyse des sentiments,...);
4°) on peut aussi avoir un réseau série-vers-vecteur, appelé encodeur, suivi d’un réseau vecteur-vers-série, appelé décodeur (très utile pour la traduction et la synthèse automatique par exemple,...).
Ainsi, si par exemple on est entrain de vouloir traduire une longue phrase, on peut finir par transmettre un vecteur de contexte qui a perdu toute information sur les premiers éléments de la séquence passée en entrée.
C’est pour cela qu’au lieu de passer un vecteur de contexte général, les mécanismes d’attention permettraient ici de ne se focaliser que sur certaines informations lors du traitement d’un élément particulier de la séquence (en ayant évidemment passé tous les états internes passés au décodeur).
Pour le réaliser concrètement, le mécanisme d’attention global consiste à formater le vecteur de contexte en fonction des éléments de l’encodeur à prendre en compte lors du traitement par le décodeur.
Considérons que Ω, dont les termes sont représentés par wij, est la matrice des poids d’attention normalisés par une fonction softmax pour chaque ligne.
Et que Π, dont les termes sont représentés par αij, est la matrice des poids d’attention générée par le mécanismes avant normalisation.Si les éléments ci représentent à chaque fois le vecteur contexte final à l’étape i de décodage et les hj sont les vecteurs d’état interne de l’encodeur, l’attention globale revient à réaliser la manipulation suivante, pour formater le vecteur de contexte à prendre en compte pour l’élément en cours de traitement [30] :
La dernière relation du système I.5 revient à réaliser une somme pondérée des vecteurs d’état internes passés de l’encodeur, selon l’importance de chaque état pour le traitement en cours.
Cela est volontaire car c’est intuitif (on réalise des sommations sur tous les éléments).
En général, comme on peut d’ailleurs le déduire des relations de l’attention globale, ces mécanismes étaient utilisés dans le cadre des réseaux récurrents.
Une question s’est toutefois naturellement posée : ne pourrait-on pas se passer des RNN pour mettre au point des réseaux complètement basés sur l’attention ?.
La réponse est oui, avec des ajustements adéquats pour résoudre les faiblesses des modèles classiques dans le traitement des données séquentielles.
Il s’agit des modèles dont l’architecture générique se présente comme suit :
Les transformers sont des modèles du type encodeur-décodeur comme on peut le constater sur la figure ci-dessus (bien que certaines implémentations n’en utilisent qu’une partie selon la tâche).
Nous donnerons une explication succincte de chacun des modules présents dans l’image I.7.
1°) Moduled’embedding : Nous savons que les données textuelles doivent être présentées au modèle sous forme numérique.
un impact significatif sur les performances d’un modèle, cette représentation doit être bien choisie.
Un choix intuitif, et qui s’avère être performant, est de tout faire pour que si deux termes ont des sens proches, ils aient aussi des représentations vectorielles proches.
Cela est réalisé par différentes techniques que nous présenterons dans le chapitre suivant, mais c’est là le rôle de la couche d’enchâssement (embedding).
2°) L’encodage positionnel (positionnal encoding) : Ce module ajoute l’information sur la position relative de chacun des éléments placés en entrée par rapport aux autres.
Cela pallie au problème de perte d’information sur la position des mots quand on utilise un réseau non séquentiel comme les réseaux récurrents.
L’un des encodages les plus utilisés est celui basé sur les fonctions trigonométriques tel qu’introduit dans [50].
3°) Module d’auto-attention : La couche d’attention, présentée en première position dans la boîte de l’encodeur, est en fait une couche dite de self-attention car elle opère sur la même séquence d’entrée.
L’opération est réalisée pour permettre au modèle d’avoir une représentation de l’importance des termes dans la séquence d’entrée, les uns par rapport aux autres.
Dans cette phrase, l’un des constats qu’on peut faire est que, le nom "Walter" est beaucoup plus lié au pronom "il" qu’au verbe "préférer".
C’est à l’établissement des tels liens dans les représentations que sert le module d’auto-attention ici présenté.
Il est important que ce lien soit implicitement présent dans les représentations, pour que le traitement soit efficace comme on l’a mentionné lors de la présentation des mécanismes d’attention.
Ici, le mécanisme d’attention utilisé est différent de celui qui a été présenté là-haut (attention globale).
En effet, très brièvement, l’idée du scaled dot-product attention consiste à opérer une recherche des termes sur lesquels focaliser l’attention de la même façon qu’on réalise la recherche de la signification d’un mot dans un dictionnaire.
Pour retrouver ce dernier dans un dictionnaire, il suffit de rechercher le mot qui ressemble le plus à l’orthographe que nous estimons être la plus vraisemblable.
qu’on cherche (orthographié selon ce que nous pensons), la clé correspond au mot présent dans le dictionnaire et la valeur correspond à la signification associée.
Si on supposait qu’il existe plusieurs termes du dictionnaire qui s’orthographient presque de la même façon que le mot qu’on cherche, on devra passer par une mesure de similarité avant de se décider sur le sens le plus probable.
Cela correspond à réaliser le produit de tous les k par les q présents, puis à normaliser l’ensemble des résultats de manière à ce qu’ils représentent des mesures de probabilité, et finir par choisir le sens v le plus probable.
Pour aller plus vite, on implémente ce processus en considérant tous les k, q et v au même moment de manière à réaliser le calcul une fois pour toutes.
Cela revient à regrouper tous les k, q et v dans des matrices K, Q et V .
Il faut noter que dk est la dimension d’une clé, et que cette normalisation permet d’améliorer les performances du modèle mais elle n’est pas la seule envisageable.
Il est aussi important de remarquer que la couche d’attention utilise trois termes pour arriver à bout du problème.
Ces trois termes sont obtenus par une transformation linéaire dont les poids sont appris à travers un réseau de neurones simple.
Il faut aussi noter que l’on utilise parallèlement plusieurs modules d’attention pour capture toutes les caractéristiques des séquences (on parle de multi-head attention).
En effet, contrairement à la couche de self-attention, pour laquelle tous les trois paramètres sont calculés à partir de la même séquence, la couche d’attention ici prend les clés K et valeurs V provenant de l’encodeur mais une requête Q provenant du décodeur.
Ce module est dit masqué suite au fait que, comme le décodeur est un module de génération, on ne regarde que les termes précédemment générés, en masquant les termes qui seront probablement générés aux pas d’après.
7°) Module linéaire final : Il s’agit d’un réseau de neurones classique pour réaliser la déduction finale, le tout étant passé à la fin à travers une opération softmax qui permet de transformer les résultats en probabilité d’éléments générés (cela permet de choisir le terme le plus vraisemblable à générer comme sortie).
Les transformers, ici succinctement présentés, sont un modèle très adapté aux tâches de traitement automatique du langage naturel.
Nous venons de réaliser une vue d’ensemble du domaine de traitement automatique du langage naturel, ainsi que diverses techniques couramment utilisées.
Pour cela, nous avons tout d’abord justifié la préséance des modèles basés sur le deep learning pour diverses tâches du NLP.
Ensuite, nous avons évoqué les technique de pré-traitement des textes, souvent incontournables, comme la réduction des séquences en leurs tokens constitutifs, la suppression des mots fréquents mais n’apportant pas assez d’informations et la réduction des mots en leurs racines respectives.
Ce qui précède nous a finalement conduit à présenter les modèles courants du NLP basés sur les RNNs et, nous avons terminé par la présentation de l’architecture transformer, modèle que nous utiliserons pour ce travail (les précisions sur les modèles particuliers seront données au chapitre suivant).
Les transformers constituent un type de modèle qui s’avère être le plus adapté (pour le moment) au résumé automatique du texte et, dans le chapitre suivant, nous commencerons par présenter les diverses spécificités du résumé automatique comme tâche du NLP, pour finir par présenter l’architecture globale du système que nous comptons élaborer.
Le résumé automatique étant le sujet principal de ce mémoire, dans cette partie nous le présentons alors en détail en tant que discipline et tâche du NLP.
Nous allons ici présenter les théories sur la synthèse automatique des textes, en classifiant les diverses méthodes utilisées pour pouvoir situer notre système dans l’ensemble des travaux jusque-là menés sur ce sujet.
Ensuite, nous présenterons les diverses approches utilisées pour le résumé automatique, sans oublier d’approfondir notre présentation des modèles de type transformer adaptés à cette tâche, pour finalement mentionner le modèle que nous estimons le plus adapté concernant l’approche basée sur le deep-learning pour la synthèse automatique.
Enfin, nous allons réaliser une conception rapide mais suffisante de l’architecture globale de notre système, tout en précisant le rôle et le fonctionnement de chaque partie.
De cela on tire que le résumé devient automatique s’il est généré par un logiciel ou un système informatique.
Cette définition est en fait correcte bien qu’elle ne soit assez précise pour notre contexte.
Il nous faut une définition assez générale et précise, embrassant au mieux l’aspect automatique, ou mieux, l’aspect informatique, qui nous intéresse dans ce mémoire.
Une définition assez valable est celle de TORRES-MORENO Juan-Manuel qui dit qu’un résumé automatique est un texte généré par un logiciel, cohérent et contenant une partie importante des informations pertinentes de la source, et dont le taux de compression est inférieur au tiers de la taille du(des) document(s) source(s) [48].
L’introduction du taux de compression dans la définition n’est pas anodine car, on s’est très vite rendu compte que la performance d’un système de résumé automatique dépendait fortement du taux de compression.
En effet, les études de [26] montrent que les meilleures performances des systèmes de résumé automatique sont généralement atteintes pour des taux de compression compris entre 15 et 30% [48].
Toutefois, on ne doit pas manquer de signaler que la génération automatique des résumés est un problème complexe en soi, tout comme l’évaluation des résultats.
Le résumé est en effet une tâche cognitive requérant la compréhension du texte considéré et, les humains n’étant pas toujours bons dans les tâches de synthèse, le manque d’étalon explique qu’il y ait également une difficulté d’automatisation du processus.
Les résumés peuvent être classifiés selon différents critères tels que leur fonction, le nombre de documents source, le genre de document, le type de résumé, le type de résumeur, le contexte,...
Selon leur fonction, on classifie les résumés en deux groupes qui sont le résumé indicatif et le résumé informatif.
Tel une table des matières, un résumé indicatif renseigne le lecteur sur les thèmes abordés dans un document.
La requête dans ce cas est l’ensemble des sujets sélectionnés à partir du résumé indicatif.
Il s’agit d’un modèle rétréci du texte d’origine, relatant le plus largement possible les informations contenues dans celui-ci.
La problématique ici est donc double : comprendre ce qui n’est pas information dans un texte et connaître le besoin de l’utilisateur final.
Néanmoins, si on n’a pas de requête spécifique de la part de l’utilisateur, le résumé informatif est réalisé en veillant à ce que l’ensemble des principaux sujets du texte d’origine soit rapporté.
Ainsi, les sujets principaux qui sont rappelés dans le résumé sont répartis de manière fidèle par rapport à l’organisation initiale afin de donner un juste aperçu du texte source.
Il s’agit d’un résumé de plusieurs documents (un groupe de documents), très souvent liés thématiquement, en faisant attention à ne pas insérer des informations déjà évoquées.
Il s’agit de résumer les documents du type article de presse (sachant qu’ils ont une structure particulière).
En effet, on sait par exemple que dans le domaine journalistique, les informations les plus importantes sont souvent mentionnées au début du texte.[36]
Le résumé extrait est formé de segments de texte extraits du(des) document(s) source(s).
Le problème consiste donc à repérer les segments de texte qui semblent être les plus pertinents pour faire partie du résumé final.
Les éléments obtenus à la fin sont donc explicitement présents dans le(s) document(s) source(s).
Les méthodes de résumé abstractives imitent, jusqu’à un certain degré, le processus naturel accompli par l’homme pour résumer un document.
Ce processus peut être décrit par deux étapes majeures : la compréhension du texte source et la génération du résumé.
La première étape vise à analyser sémantiquement le contenu du texte et à identifier les parties à exprimer dans le résumé.
C’est en quelques sortes une tâche d’extraction d’information liée au domaine abordé ou de regroupement des phrases du texte source.
Bref, on produit un résumé rapportant le contenu du(des) texte(s) source(s) en utilisant un vocabulaire différent et plus concis.
Il existe aussi des résumés dits semi-extractifs, et même aussi des résumés dits par compression [48] mais nous estimons inutile de les décrire ici étant donné que la distinction abstractif-extractif suffit pour notre contexte.
Le résumeur est le système qui réalise le résumé.
Il s’agit, comme on l’a maintes fois mentionné, d’un résumé fait par un système informatique.
Ici, un ensemble de documents sources est résumé en veillant minutieusement à ce que le document dont le résumé est ajouté à la suite d’un précédent résumé ne puisse pas créer une répétition d’information.
Le résumé est donc généré sans tenir compte de la personnalité des utilisateurs.
Nous allons présenter ici diverses approches algorithmiques pour résumer les documents textuels.
Avec des critères centrés sur le contenu des textes, il existe un grand nombre d’algorithmes assez triviaux de résumé, qui sont basés entre autres sur : • La fréquence d’occurrence des mots et
L’idée majeure des techniques qui utilisent ce critère consiste à considérer que les mots les plus fréquents sont les plus liés au sujet principal du texte à résumer.
Cette approche assez simpliste mais fonctionnelle fut introduite en 1958 par Luhn [29], une première tentative de résumé automatique.
Et, à la fin, le résumé est constitué avec les phrases extraites du texte source, et dont le score dépasse un certain seuil dépendant de la taille maximale imposée pour le résumé.
Le tout est finalement réarrangé selon l’ordre d’apparition (des phrases sélectionnées) dans le texte d’origine.
En utilisant des techniques de repérage d’entités nommées (voir le chapitre précédent), on identifie les entités présentes dans le document.
Par la suite, les phrases contenant cette entité sont sélectionnées.
Enfin, seules les phrases où l’entité principale possède un rôle sémantique fondamental (non auxiliaire) sont gardées pour le résumé.
L’un des moyens les plus simples pour repérer les entités nommées est de passer par l’apprentissage profond comme on l’a précédemment mentionné.
Il existe tout de même des techniques qui ne se fient qu’à la forme et à la structure du texte, sans en considérer le contenu.
L’intuition derrière cette approche est basée sur le constat que dans un texte, les éléments ne sont pas présentés de façon arbitraire.
Pour certains types de documents (documents journalistiques par exemple), les phrases se trouvant au début sont généralement plus informatives et décrivent le sujet principal du document.
Le résumé des articles scientifiques par contre, peut essentiellement se former en se basant sur les contenus des parties résumé et introduction (sous l’hypothèse que ces dernières parties sont bien faites).
Ces exemples suffisent pour illustrer dans quelle mesure cette approche peut s’appliquer.
Cela permet alors de fixer comme mesure de pertinence des phrases, leur similarité avec les titres.
L’approche consistant à se baser sur la longueur des phrases est assez naïve mais fonctionnelle.
Ici, on considère une liste de mots, constituée manuellement, et qui a comme rôle de permettre de se décider si une phrase doit être prise dans le résumé ou rejetée, selon qu’elle contient ou non un(des) mot(s) de la liste qualifié(s) inhibiteur(s) ou valorisant(s).
Nous devons quand même préciser encore une fois que tout dépend de celui qui écrit la liste.
Les méthodes que nous venons de présenter sont assez intuitives mais constituent la base des processus de synthèse.
En effet, synthétiser un texte revient au fond à implémenter un certain nombre de règles, dont font parties évidemment celles que nous venons de mentionner.
Néanmoins, ce que nous venons de présenter est décrit en se basant sur le concept de résumé extractif.
Nous devons toutefois signaler que les résumés abstractifs se basent au fond sur les mêmes principes, soit en partant des résumés extractifs pour ensuite réaliser des paraphrases, insérer des connecteurs appropriés et éliminer les références anaphoriques dans les résumés, soit en implémentant indirectement toutes ces techniques à travers un modèle d’apprentissage automatique ou un modèle basé sur les graphes capables de capturer d’un seul coup tous ces aspects (ou une grande partie d’entre-eux).
Comme nous venons de l’introduire dans la section précédente, le résumé automatique est abordé essentiellement selon deux approches qui sont [31] :
Il faut noter qu’on peut considérer aussi des approches basées sur la théorie des graphes comme intégrant les idées de ces deux approches de façon implicite, tout comme celles basées sur l’apprentissage automatique.
Mais, dans tous les cas, une vue sur quelques heuristiques (méthodes basées sur le bon sens) est toujours à considérer (surtout en amont, puis en aval du processus de synthèse).
Ici, nous allons présenter les approches essentiellement numériques (on va y inclure celles basées sur l’apprentissage automatique et celles basées sur la théorie des graphes).
Il s’agit d’une méthode heuristique pour la synthèse des documents.
Elle exécute implicitement l’approche du TfIdf que nous allons décrire dans la sous-section qui suit celle-ci (sous-section II.4.2).
La sélection (des mots ici) se fait en considérant les hypothèses qui suivent :
la synthèse consiste à supprimer certains mots pour n’en conserver que les plus importants;
Cette approche, comme on l’a mentionné au début, est assez moins précise et empirique, mais elle sous-entend les idées fondamentales appliquées plus tard.
Le tf-idf (time-frequency inverse document frequency est une approche essentiellement utilisée pour le résumé extractif.
Il s’agit d’une correction de l’approche naïve consistant à poser que plus un mot est répété dans un corpus de texte, plus il y est important.
L’approche qui se base naïvement sur la fréquence d’apparition des mots dans les textes pour juger de leur importance relative, accorde à chaque mot un poids égal à T F(i,j).
Pour corriger cette faiblesse, on pose l’hypothèse que les termes importants apparaissent plusieurs fois dans un document (ou juste dans peu de documents du corpus) et non pas dans plusieurs documents.
Puisque dans ce second cas, il est souvent question des éléments communs du langage, sans grande utilité informationnelle.
A cet effet, on définit DFi comme étant le nombre de documents dans le corpus, qui contiennent le terme numéro i.
D’où finalement, le poids d’un terme i dans un document j est donné par :
Pour notre cas, l’application de cette approche consiste à décomposer un long texte en ses phrases et de considérer que chacune de ces phrases est un document et que le texte entier constitue le corpus.
Plusieurs définitions des éléments T F(ij) et IDFi formant l’expression II.2 sont toutefois possibles selon les besoins en terme de performance.
Mais, dans l’ensemble, l’idée de base demeure la même car il ne s’agit en général que de changement des types de normalisation [55].
L’application de cette méthode pour le résumé consiste finalement à calculer le poids de chaque phrase en additionnant les poids des termes la constituant, puis à normaliser le résultat en fonction de la taille de la phrase considérée.
Après tout, on définit un seuil qui permet de soutirer les phrases selon leur pertinence ainsi évaluée (en considérant évidemment plus pertinente une phrase dont le résultat de la sommation des poids est élevé).
TextRank est un algorithme de résumé extractif, basé sur la théorie des graphes et qui s’inspire de l’algorithme PageRank de Google [8, 4].
Il s’agit en fait d’une matrice d’adjacence dans laquelle on pose au préalable que Mii = 0, pour tout i (c’est la même idée pour l’algorithme PageRank étant donné qu’il est logique de considérer qu’une page ne peut s’auto-référencer).
Ce dernier implémente en effet une mesure de similarité selon sa définition de la liaison entre phrases et les besoins en performance.
C’est ainsi qu’on peut utiliser par exemple une mesure de similarité classique nommée similarité cosinus en la basant par exemple sur T FIDF [19].
Pour représenter les mots à comparer, on utilise les méthodes classiques de vectorisation des mots (word embedding).
Nous esquisserons ces méthodes dans les sections qui vont suivre, parlant du word embedding ( II.5 ).
Dans cette formule, K est une constante comprise entre 0 et 1.
Initialement, on prend en général une valeur identique de T extRank(P hri) pour toutes les phrases (souvent T extRank(P hri) = 1), mais la valeur initiale prise n’affecte pas les valeurs finales, juste le temps de convergence [33].
P agi contient Ni références vers d’autres pages, la probabilité qu’on aille vers l’une de ces pages référencées est de N1i (avec l’hypothèse que les références ne sont pas répétées et que la distribution de leur importance est uniforme).
On sait tout de même que plus une page est référencée, plus on doit lui donner de l’importance.
Malheureusement, pour les phrases non référencées (pages dites isolées), on trouve une importance nulle.
Après initialisation des rangs de chaque phrase du texte ( les T extRank(P hri)) et après calcul de la matrice d’adjacence M.
On applique la formule II.5 itérativement et à la convergence, on choisit les phrases qui vont former le résumé selon leur importance ( valeurs des T extRank(P hri) pour toute valeur de i).
A la fin, les phrases sélectionnées sont réarrangées pour former un résumé extrait plus ou moins cohérent.
Il existe également un algorithme nommé LexRank [14] qui est assez similaire à TextRank ici décrit, à la différence près que :
Il considère la position et la longueur des phrases dans le calcul de leur pertinence; - Il est optimisé pour le résumé multi-document.
Toutefois, il faut remarquer que les algorithmes ici présentés sont essentiellement adaptés à la synthèse extractive.
Même si, ces traitements peuvent être mélangés avec les techniques de résolution d’anaphores et les paraphrases pour obtenir des synthèses qui tendent vers la synthèse abstractive, nous devons souligner que les techniques jusque là les plus performantes pour la synthèse abstractive sont essentiellement basées sur le deep learning [36].
Le deep learning peut également être utilisé pour la synthèse extractive, permettant ainsi la génération des synthèses extraites plus cohérentes (avec résolution d’anaphores).
Ainsi donc, nous abordons les méthodes de deep learning utilisées pour cet effet dans les parties qui suivent.
Tout traitement commence par une représentation numérique des termes (des mots ici) pour qu’ils soient assimilables par le modèle.
Une approche naïve consisterait à regrouper tous les mots de notre vocabulaire dans une liste (un dictionnaire) et de les représenter chacun par un nombre unique (un identifiant).
Une autre approche, plus classique, consiste à représenter chaque mot par un vecteur de dimension égale à la taille du dictionnaire et dont tous les termes sont nuls, sauf à la position, dans le dictionnaire, du mot qu’on est entrain de vouloir représenter (on parle du one-hot encoding).
Étant artificiellement construites, sans tenir compte du sens des mots, ni de leur contexte, ces méthodes de représentation rendent la tâche de découverte des caractéristiques par les systèmes de machine learning encore plus difficile.
D’ailleurs, l’une des faiblesses de la seconde méthode décrite (le one-hot encoding) est que les vecteurs sont creux (une majorité de valeurs nulles) et de dimension inutilement très grande.
On pourrait directement songer à une représentation plus judicieuse pour éviter ces deux soucis, et qui consisterait à réaliser une représentation binaire des termes mais, le problème de la sémantique sera toujours là.
On recourt donc à des méthodes de représentation plus élaborées, partant du principe selon lequel le contexte d’un mot suffit pour en appréhender le sens.
Ainsi, tout mot est représenté en réalisant une statistique (implicitement bien sûr) sur les divers mots qui l’accompagnent souvent, de telle sorte que les mots aux sens proches aient aussi des vecteurs très proches.
Il s’agit par exemple des méthodes comme le Word2Vec [34, 35], Glove [39], fastText [6]...
Il s’agit bel et bien des modèles adaptés aux tâches de synthèse, vu qu’en entrée on reçoit une séquence pour ressortir une autre séquence en sortie.
Comme nous l’avons déjà bien mentionné au précédent chapitre, nous n’allons parler que des modèles Seq2Seq de type transformer car actuellement, ils sont les plus adaptés à la tâche que nous voulons réaliser (celle de synthèse automatique).
Les transformers (voir la figure I.7) sont un modèle très avantageux car en fait, au-delà de leurs performances et autres avantages, ils facilitent encore plus la recherche en NLP en rendant effectif le transfer learning (apprentissage par transfert) dans ce domaine.
1°) Pré-entraînement : il s’agit d’un apprentissage non supervisé, qui consiste à donner au modèle une masse colossale de données textuelles, non étiquetées, pour qu’il développe une compréhension statistique du langage qu’on veut qu’il puisse assimiler.
2°) Affinage de l’apprentissage (fine-tuning) : Ça consiste à finaliser l’apprentissage du modèle pré-entraîné de manière supervisée pour qu’il soit en mesure de réaliser une tâche donnée du NLP (il s’agit du transfer learning en fait).
Les méthodes de pré-entraînement sont très déterminantes pour les performances finales du modèle.
Mais, à part les deux que nous venons de mentionner, il existe d’autres objectifs de pré-entraînement [25, 54] selon les variantes de transformers et les objectifs finaux de spécialisation du modèle.
Bien que la forme classique des transformers est bel et bien celle de la figure I.7, il existe 3 types d’implémentation selon les types de tâche visées en dernier lieu :
Ces modèles sont très bons pour les tâches de compréhension du langage comme la classification par exemple.
Ils sont bons pour les tâches de génération de texte.
Ils sont bons pour les tâches demandant à la fois la compréhension et la génération des textes.
Ce sont des modèles du type encodeur seul.
Donc, les phrases sont lues dans les deux sens pour mieux saisir tout le contexte.
2°) Like-GPT : donc semblables au transformer dénommé GPT (Generative Pre-trained Transformer) qui n’ont que la partie décodeur et sont dits auto-regressifs car, seules les parties précédant le mot en cours de traitement sont connues du modèle et il y a chaque fois réinjection des sorties à l’entrée.
En plus de cela, ces modèles ont une couche d’attention bidirectionnelle et sont généralement appelés auto-encodeurs (auto-encoding model).
Ces modèles sont principalement bons pour les tâches de NLU (Natural Language Understanding) comme la classification, le NER (Name Entity Recognition), l’extractive question-answering,...
regressifs et par conséquent les têtes de self-attention n’accèdent qu’aux mots précédant l’étape à laquelle elles sont (pas de regard dans le futur) comme on l’a déjà un peu mentionné.
Ces modèles sont particulièrement bons pour les tâches liées fortement au NLG (Natural Language Generation).
Dans ce groupe, les modèles les plus connus sont :
tégralité de l’architecture des transformers et sont ainsi bons pour les tâches demandant à la fois du NLU et du NLG comme la synthèse automatique abstractive, le generative question-answering et la traduction automatique.
Ici nous pouvons particulièrement mentionner les modèles comme :
Le modèle BART est comme une combinaison de BERT [11] et de GPT-2 [40, 41] en terme
L’image II.2 étant claire, nous pouvons illustrer les diverses corruptions que peuvent subir les données pour le pré-entraînement.
Le modèle BART est bien adapté à la tâche de synthèse abstractive.
allons privilégier (les modèles dérivés de BART principalement) pour réaliser cette tâche dans notre système.
Le choix de BART est dû au fait que c’est le modèle que nous avons trouvé réalisant un bon compromis poids-performances.
Nous justifierons plus précisément ce choix dans le chapitre qui suit, en présentant également quelques résultats des tests.
Il existe un large éventail des méthodes de développement des systèmes informatiques mais, en règle générale, toutes suivent les étapes suivantes [7] :
3°) Validation : on teste le système pour voir s’il correspond aux objectifs précisés dans les spécifications;
Pour pouvoir tout de même y aller méthodiquement, nous nous inspirerons de ces étapes classiquement suivies lors de la conception des systèmes informatiques.
Dans ce second chapitre, nous ne présenterons que les spécifications du système ainsi qu’une ébauche de conception avec une présentation de l’architecture globale.
Synthétiser les textes qui lui sont fournis en entrée (saisis directement ou importés dans fichiers .pdf non scannés, des fichiers .docx et .txt);
Obtenir des synthèses produites par plusieurs algorithmes et les évaluer;
Permettre l’affinage d’un modèle de synthèse automatique (ici nous réaliserons le fine-tuning du modèle mBART ou du modèle mT5 selon celui qui se prêtera mieux à cet affinage).
La figure II.4 presente l’architéture du système qui est d’une architecture 3 − tiers classique.
Il s’agit en fait de l’interface d’accès à l’API (Application Programming Interface), qui permettra aux développeurs de s’authentifier et générer éventuellement un token à utiliser pour implémenter leur propres interfaces devant permettre d’utiliser les services de cette API.
Cette interface permettra aussi de voir toute la documentation de l’API (pour les développeurs) pour mieux utiliser ses services.
Quant au bloc interface que nous venons de présenter sur la figure II.4, c’est en nous mettant à la place d’un développeur lambda qui exploite les services de l’API.
Notre API quant à elle, est une API REST (REpresentationnal State Transfer qui aura 4 end-points principaux dédiés à la synthèse automatique (selon les besoins d’implémentation, on pourra en insérer d’autres mais qui ne concernerons probablement pas la synthèse).
Nous prévoyons, dans un premier temps, ne l’utiliser que pour des petits documents (la taille optimale sera déterminée avec les expérimentations au chapitre suivant).
Module de synthèse abstraite : ce module donnera une synthèse abstraite en utilisant l’un des transformers affinés pour la synthèse ou bien par le module qui sera en train de s’auto-améliorer au cours de l’utilisation du système (on l’a nommé expérimental, voir la figure II.7).
Comme les transformers réalisent des synthèses de documents de taille généralement limitée à environ une page, nous mettrons au point, dans cette partie, une pipeline qui nous permettra d’augmenter le nombre de pages (nous pensons à 100 pages mais les expérimentations nous permettrons de choisir une taille optimale, tenant compte surtout de la rapidité).
Module de synthèse extrait simplifié : Il s’agira d’un module qui permettra la réalisation de la synthèse mais en utilisant l’un des algorithmes de synthèse extraite implémentés (soit de manière aléatoire, soit par choix de l’utilisateur).
Module expérimental : Il s’agira d’un module de synthèse abstraite qui sera essentiellement utilisé pour la synthèse des petits documents (quelques pages).
Pour ce module, nous comptons mettre au point une routine d’entraînement à partir des synthèses collectées par le système, pour améliorer au fur et à mesure les performances de ce module.
Nous comptons réaliser l’entraînement par transfer learning avec les transformers mT5[53] ou mBART [27] comme base.
N’ayant pas encore testé cette partie, nous serons fixé sur la méthode à utiliser ainsi que le modèle de base à choisir au chapitre suivant, après les expérimentations.
C’est par suite du fait que, pour des raisons de performance, on devra envoyer à l’API le fichier sous un format particulier.
Il faudra réaliser l’acquisition des données dans divers formats (pdf,docx,...) mais les données acquises seront envoyées dans un format plus léger à l’API (du JSON pour notre cas).
La base des données, que nous avons mentionné dans la figure II.4, a un double rôle :
2°) Le stockage des paires document-synthèse, ainsi que l’appréciation de l’utilisateur (évaluation par les utilisateurs).
Comme nous pouvons le voir, un traitement sera fait pour adapter les données reçues à ce qui peut être traité par le système.
Ce traitement consistera à ne retenir que des symboles alphanumériques, à réaliser la tokenisation des textes (chaque token sera une phrase pour cette partie) et à affecter un identifiant unique à chaque phrase.
Après cela, les données seront invariablement passées aux algorithmes de synthèse extractive, qui générerons chacun un groupe de poids des phrases.
Élimination des phrases de poids faible (avec comme seuil, la taille maximale de résumé précisée par l’utilisateur);
Réarrangement de chaque dictionnaire obtenu après expulsion des phrases non significatives (les éléments seront arrangés par ordre décroissant des poids pour chaque sortie);
Avec Wj le nouveau poids affecté à la phrase ayant un identifiant global j (l’identifiant là d’origine) et D la liste des dictionnaires (les sorties de chaque algorithme);
Arranger toutes les phrases par ordre décroissant dans une unique liste et sélectionner les plus haut dans la liste jusqu’à atteindre le seuil fixé (nombre de mots fixé pour la synthèse).
Réarranger les phrases de la liste selon leur ordre de succession dans le texte d’origine.
Ce qui précède constitue en fait l’algorithme que nous allons implémenter pour le module de pondération et sélection.
Nous implémenterons plusieurs modèles (BART, BARThez, PEGASUS, mBART ou mT5 entraîné avec nos données, ainsi que tous ceux qui nous paraîtrons utiles durant les essais); Chaque module de synthèse se présentera néanmoins comme suit :
Comme nous pouvons le remarquer, il y a toujours un module de mise en forme initial (pre-processing) qui nous permettra en gros de supprimer tous les caractères que nous ne pourrons pas gérer.
Vient ensuite le module de tokenisation (le tokenizer ou tokeniseur) [49] qui consistera ici à diviser tout le texte en ses mots constitutifs et à leur affecter des identifiants numériques.
Ce sont ces identifiants qui seront fournis au modèle et transformés en vecteurs par la couche d’embedding du modèle.
Il s’agit en effet de l’architecture classique d’un transformer, comme présenté sur la figure I.7 à l’exception du fait qu’ici on fait explicitement apparaître l’existence de la sortie du modèle.
Cette partie, que nous avons nommé head est différente selon les tâches [52], c’est pourquoi nous avons voulu la mentionner explicitement car, selon le besoin, on peut la modifier.
Nous devons finalement mentionner que les modules de tokenisation (nommés tokenizer en anglais) dépendront explicitement des modèles utilisés.
Toutefois, voici une ébauche d’interface que nous comptons utiliser pour exploiter le service :
Avec cette interface, on a une idée générale de la manière dont nous comptons servir le système aux utilisateurs.
Dans cette partie, nous venons de présenter le résumé automatique des textes, tout en réalisant une vue d’ensemble des méthodes utilisées dans la littérature à cet effet.
Nous avons mentionné que la classification des résumés que nous utiliserons sera celle les départageant en abstractive summarization et extractive summarization et que, pour notre cas, il s’agira de réaliser un système de résumé mono-document, avec une partie abstractive et une autre extractive, générant un résumé générique pour des documents de type narratif et argumentatifs.
Nous avons également listé les divers modèles de transformer adaptés à la tâche de synthèse automatique abstraite, et nous avons mentionné devoir privilégier les modèles du type BART pour des raisons qui serons précisées dans le chapitre suivant.
Enfin, nous avons réalisé la conception préliminaire du système tout en précisant que, concernant l’API, la BD (Base des Données) et les interfaces, les détails d’implémentation utiles seront précisés dans la partie dédiée à la conception proprement dite et aux tests, c’est-à-dire au chapitre suivant.
Le chapitre suivant nous permettra donc finalement de préciser, réaliser et tester les méthodes que nous avons jusque-là adoptées pour la mise au point de notre système de synthèse automatique des documents.
Mike Lewis, Yinhan Liu, Naman Goyal, Marjan Ghazvininejad, Abdelrahman Mohamed, Omer Levy, Ves Stoyanov, and Luke Zettlemoyer.
Yinhan Liu, Jiatao Gu, Naman Goyal, Xian Li, Sergey Edunov, Marjan Ghazvininejad, Mike Lewis, and Luke Zettlemoyer.
Yinhan Liu, Myle Ott, Naman Goyal, Jingfei Du, Mandar Joshi, Danqi Chen, Omer Levy, Mike Lewis, Luke Zettlemoyer, and Veselin Stoyanov.
Approche hybride pour le résumé automatique de textes.
Tomas Mikolov, Kai Chen, Greg Corrado, and Jeffrey Dean.
Tomas Mikolov, Ilya Sutskever, Kai Chen, Greg S Corrado, and Jeff Dean.
Colin Raffel, Noam Shazeer, Adam Roberts, Katherine Lee, Sharan Narang, Michael Matena, Yanqi Zhou, Wei Li, Peter J Liu, et al.
Barry Schiffman, Ani Nenkova, and Kathleen McKeown. | UNIVERSITELIBREDESPAYSDESGRANDSLACS
FACULTE DES SCIENCES ET DES TECHNOLOGIES
APPLIQUEES
DEPARTEMENT DE GENIE ELECTRIQUE ET INFORMATIQUE
B.P 368 GOMA
www.ulpgl.net
CONCEPTION ET REALISATION D’UN
SYSTEME BASE SUR L’INTELLIGENCE
ARTIFICIELLE POUR RESUMER
AUTOMATIQUEMENT LES TEXTES
Par : KRAME KADURHA David
Travail présenté en vue de l’obtention du Diplôme d’ingénieur civil en génie électrique et informatique
Option : Génie informatique
Directeur : Prof BARAKA MUSHAGE Olivier
Encadreur : Ir MUHINDO WAMUHINDO Abdenego
ANNEE ACADEMIQUE 2021−2022
Dédicaces
Remerciements
Résumé
Sigles et abréviations
Table des matières
Dédicaces i
Remerciements ii
Résumé iii
Sigles et abréviations iv
Introduction générale 1
0.1 Contexte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
0.2 Identification et formulation du problème . . . . . . . . . . . . . . . . . . . 1
0.3 Questions de recherche . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
0.4 Hypothèses de travail . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
0.5 Justification du choix du sujet et motivations . . . . . . . . . . . . . . . . . 3
0.6 Objectifs de la recherche . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
0.6.1 Objectif général . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
0.6.2 Objectifs spécifiques . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
0.7 Méthodologie de recherche et délimitation du travail . . . . . . . . . . . . . 5
0.8 Subdivision du travail . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
Généralités sur le NLP 6
Introduction partielle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
Présentation et définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
Nécessité de l’approche par deep learning . . . . . . . . . . . . . . . . . . . 8
Quelques techniques courantes de traitement des textes . . . . . . . . . . . 9
La tokenisation (tokenization) . . . . . . . . . . . . . . . . . . . . . . 9
Les stopwords[44] . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
La racinisation (stemming) . . . . . . . . . . . . . . . . . . . . . . . . 10
La lemmatisation (lemmatization) . . . . . . . . . . . . . . . . . . . . 10
SYNTHESE AUTOMATIQUE DES TEXTES
Reconnaissance d’entités nommées (NER)[44] . . . . . . . . . . . . . 11
L’étiquetage morpho-syntaxique (POS tagging) . . . . . . . . . . . . 11
Approches du NLP . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
Les réseaux de neurones artificiels (ANN) . . . . . . . . . . . . . . . 12
Les réseaux de neurones récurrents (RNN) . . . . . . . . . . . . . . . 13
Mécanismes d’attention . . . . . . . . . . . . . . . . . . . . . . . . . 20
Les transformers . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
Conclusion partielle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
Résumé automatique et conception 29
Introduction partielle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
Présentation et définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
Catégorisation des résumés . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
Selon la fonction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
Selon le nombre de documents source . . . . . . . . . . . . . . . . . 32
Selon le genre des documents . . . . . . . . . . . . . . . . . . . . . . 32
Selon le type de sortie (résumé obtenu) . . . . . . . . . . . . . . . . . 33
Selon le type de résumeur . . . . . . . . . . . . . . . . . . . . . . . . 34
Selon le contexte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
Selon le destinataire du résumé . . . . . . . . . . . . . . . . . . . . . 35
Approches de résumé automatique . . . . . . . . . . . . . . . . . . . . . . . 35
Techniques intuitives de résumé [36] . . . . . . . . . . . . . . . . . . 35
Algorithmes classiques de résumé automatique . . . . . . . . . . . . 38
Modèles Seq2Seq . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
Methodes du Word-Embedding . . . . . . . . . . . . . . . . . . . . . 45
Modèles séquence-à-séquence proprement dits . . . . . . . . . . . . 46
Modèle BART pour la synthèse abstractive . . . . . . . . . . . . . . . 50
Conception de l’architecture globale du système . . . . . . . . . . . . . . . . 51
Spécifications du système . . . . . . . . . . . . . . . . . . . . . . . . 52
Présentation des éléments du système . . . . . . . . . . . . . . . . . 52
vi sur 68
TABLE DES MATIÈRES
Architecture du module de synthèse extractive . . . . . . . . . . . . 54
Architecture du module de synthèse abstractive . . . . . . . . . . . 56
Présentation des interfaces . . . . . . . . . . . . . . . . . . . . . . . . 58
Conclusion partielle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
Conception finale, réalisation et tests 60
Conclusion générale 61
Annexes 68
vii sur 68
Liste des figures
I.1 Réseau de neurones à une couche cachée et sans boucle [47] 13
I.2 Illustration de ce qu’est un RNN [22] 14
I.3 Comparaison entre cellules RNN classique et LSTM [18] 15
I.4 Vue fonctionnelle d’une cellule LSTM [18] 16
I.5 Cellule GRU [18] 19
I.6 Réseaux série-vers-série (en haut à gauche), série-vers-vecteur (en haut à
droite), vecteur-vers-série (en bas à gauche) et encodeur-décodeur (en bas àdroite) [16] 21
I.7 Architecture générique des transformers [50] 23
I.8 Vue éclatée d’un transformer [51] 27
II.1 Diagramme des fréquences des mots et le choix de Luhn [29] 40
II.2 Comparaison simplifiée entre BERT, GPT et BART [25] 50
II.3 Transformations de bruitage expérimentées pour BART [25] 50
II.4 Architecture globale de notre système 52
II.5 Architecture globale du système de synthèse abstractive 57
II.6 Architecture interne du modèle mentionné sur la figure II.5 57
II.7 Ébauche d’interface 58
viii
Introduction générale
0.1 Contexte
A l’ère du numérique, comme depuis l’invention de l’écriture, le texte est l’un des principaux moyens de communication et surtout, de transmission des connaissances.
Des livres aux SMS, en passant par diverses pages web, les données textuelles sont partout. En 2018, il s’agissait d’environs 80% de l’information qui circulait sur le web [23]. L’évolution de l’informatique continue à démontrer la possibilité de simplifier toujours grandement la vie de l’homme en automatisant de plus en plus l’accomplissement des tâches rébarbatives.
Certaines tâches comme celles liées explicitement à l’arithmétique semblent mieux se prêter à cette vague d’automatisation, les données numériques étant par essence celles prises en compte par les plateformes numériques.
Néanmoins, des transformations adéquates permettent de prendre en compte tout type de donnée, et le texte n’est pas exclu. C’est ainsi que, des avancées récentes en traitement automatique du langage naturel ont prouvé que le traitement du texte par l’ordinateur peut être raffiné autant qu’on veut, dans les limites du possible.
Cela est en fait une bonne nouvelle car, il s’avère que des nombreux sujets restent fermés à la majorité des gens suite au manque de temps, au regard de la quantité d’informations à consulter pour espérer avoir ne fusse qu’une lueur d’idée du domaine ou du sujet qu’on veut rapidement explorer.
C’est en ce sens que la mise au point des technologies pouvant faciliter l’exploration des connaissances présentées sous forme textuelle est salvatrice.
0.2 Identification et formulation du problème
Comme présenté dans la section précédente, la voie la plus privilégiée pour transmettre les connaissances est l’écriture. Mais, admettons que souvent, dans un long texte, la
1
SYNTHESE AUTOMATIQUE DES TEXTES
quantité d’information pertinente est moindre par rapport à la longueur du texte entier.
Comment faire donc pour identifier cette partie utile et gagner ainsi en temps ?
Il est souvent inintéressant de passer du temps à lire des textes très longs, surtout quand on veut juste avoir une compréhension suffisante en peu de temps de ce qui est écrit, ou quand le sujet traité ne fait pas partie de notre domaine de prédilection. Il est donc intéressant de mettre au point un système qui pourra assister l’homme dans la tâche de synthèse des connaissances afin de promouvoir par là-même un échange entre disciplines, ce qui est souvent très enrichissant.
0.3 Questions de recherche
Vu le problème que nous venons de présenter, une question se pose :
Est-il possible de mettre au point un système informatique capable de synthétiser les textes avec une performance de niveau humain ?
La précédente question nous amène aussi à nous demander ceci :
Un traitement purement linguistique ne pourrait-il pas nous permettre de générer des synthèses suffisamment bons pour atteindre notre objectif ?
L’inclusion des traitements basés sur l’intelligence artificielle dans les modules de synthèse est-elle obligatoire pour atteindre des bonnes performances ?
Quelle est l’architecture globale la plus adaptée pour réaliser un système de synthèse automatique performant ?
0.4 Hypothèses de travail
A la suite des questions que nous venons de soulever, nous postulons que :
Vu la complexité du langage naturel, un traitement purement linguistique ne nous permettrait pas de mettre au point un système de niveau humain en synthèse des textes;
0.5. JUSTIFICATION DU CHOIX DU SUJET ET MOTIVATIONS
Étant donné que, par définition, le langage naturel est difficile à formaliser complètement, on ne pourrait pas se passer de l’intelligence artificielle pour parvenir à réaliser un système performant;
Une architecture basé essentiellement sur des modèles du type transformer, joint à l’utilisation de quelques règles inspirées de la linguistique permettrait d’avoir un système de synthèse performant.
0.5 Justification du choix du sujet et motivations
Pour synthétiser un texte, il faut l’avoir aumoins lu! Et pourtant, pour lire un texte, il faut du temps, une denrée souvent rare.
Certains textes sont souvent fournis, accompagnés des synthèses qui sont parfois très bonnes, parfois incomplètes et parfois même très polarisées ou tout simplement mauvaises. Toutefois, avoir une synthèse à la demande serait mieux que de ne trouver que des synthèses de certains textes, sans d’ailleurs en avoir le plus souvent besoin. Nombreux sont des textes (livres, articles, pages web et autres documents) dont on voudrait avoir des bonnes synthèses, qu’on ne trouve que très rarement si on ne s’est pas découragé avant. C’est la raison pour laquelle, nous nous sommes fixé comme objectif de répondre à ce besoin précis en mettant au point une application web de synthèse des textes. Beaucoup de chercheurs en linguistique et en traitement automatique du langage naturel principalement se sont penché sur ce sujet [23, 48, 1, 21, 2].
Des solutions ont été proposées mais ne sont pas toujours à la hauteur de nos attentes (mettre au point un système de performance presqu’humaine en synthèse automatique des textes). Les plus prometteuses de ces solutions se limitent à des tailles bien réduites de texte, ce qui est déjà un grand pas mais pas suffisant évidemment. C’est pour cette raison qu’il nous semble pertinent d’étudier cette question en profondeur et de mettre au point un système complet et utilisable en dehors du monde de la recherche.
Socialement, la mise au point de ce système sera d’une très grande importance. Cela dans plusieurs axes dont principalement :
Pour les chercheurs, car il pourra faciliter le survol rapide des connaissances provenant SYNTHESE AUTOMATIQUE DES TEXTES
des filières liées à leurs domaines, sans être obligés de consulter à l’avance un tas de documents issus de ces domaines connexes;
Pour tout le monde alors, le système pourra permettre un gain de temps considérable chaque fois qu’il donnera la possibilité d’avoir accès à une synthèse de bonne qualité à la demande, en très peu de temps.
0.6 Objectifs de la recherche
Objectif général
Cette recherche a pour objectif principal de concevoir et réaliser un système (une application web) qui facilitera la génération automatique des synthèses de niveau humain.
Objectifs spécifiques
Pour arriver à bout de notre projet nous comptons :
Évaluer les failles et limites des techniques de synthèse automatique existantes;
Corriger les failles ou compléter les techniques de synthèse automatique existantes; • Établir des architectures logiques optimales pour obtenir des synthèses de qualité;
Élaborer une interface de programmation d’applications devant faciliter l’accès au service de synthèse automatique;
Mettre au point une base de données pour stocker les synthèses les mieux cotées par les usagers, en prévision d’une amélioration future du système;
Réaliser une interface web de qualité pour permettre l’accès au service par divers utilisateurs.
0.7. MÉTHODOLOGIE DE RECHERCHE ET DÉLIMITATION DU TRAVAIL
Méthodologie de recherche et délimitation du travail
Pour la mise au point du système, nous comptons utiliser les méthodes d’analyse moyennant les techniques expérimentale (pour vérifier l’adéquation du fonctionnement de l’application mise sur pied avec le problème posé), et documentaire (pour une vision approfondie des techniques couramment utilisées et d’éventuelles améliorations nécessaires).
Ce travail se focalisera sur la synthèse des documents du type informationnel (livres historiques, discours, articles de presse, lettres, nouvelles, romans et tout autre type de document ayant une faible densité d’expressions mathématiques) et il s’agira d’une synthèse mono-document.
Subdivision du travail
Excepté l’introduction et la conclusion générales, ce travail sera ainsi constitué :
Au premier chapitre, Généralités sur le traitement automatique du langage naturel, nous passerons en revu toute la théorie nécessaire à la compréhension de notre travail.
Au second chapitre, Présentation du résumé automatique et conception de l’architecture du système, nous y présenterons les aspects du résumé automatique essentiels à notre travail et y concevrons pas à pas le système de synthèse automatique des textes dans tous ses aspects (pas uniquement le côté synthèse).
Au troisième chapitre : Conception finale, réalisation et tests, nous y finaliserons la conception et expliquerons les points importants de l’implémentation en nous basant sur la conception faite, puis nous présenterons les résultats des tests que nous aurons effectué.
Chapitre I
Généralitéssurletraitementautomatique du langage naturel
Introduction partielle
Dans ce chapitre, nous allons présenter brièvement le traitement automatique du langage naturel, ainsi que les techniques de traitement qui seront utiles pour la réalisation de l’objectif principal de ce travail. Nous allons donc y présenter une vue d’ensemble des architectures généralement utilisées, en nous focalisant essentiellement sur l’aspect intelligence artificielle du NLP (Natural Language Processing).
Dans un premier temps, nous y présentons quelques techniques, souvent incontournables lorsqu’on veut réaliser une tâche de traitement du langage. Après cela, nous parcourons divers modèles qui nous permettrons d’aborder le modèle le plus adapté à la tâche de synthèse automatique des textes, qui est l’objectif de ce travail.
Présentation et définitions
Le NLP est une discipline rattachée à l’intelligence artificielle et ayant pour principal objectif, l’étude des possibilités du traitement du langage humain par des machines. La raison pour laquelle la discipline s’inscrit comme faisant partie du domaine d’intelligence artificielle est que le langage est considéré comme étant une aptitude centrale de l’intelligence humaine, étant donné que l’usage d’un langage si complexe est l’un des éléments distinctifs principaux entre humains et autres animaux.
Le NLP inclut l’ensemble d’algorithmes, des tâches et des problèmes prenant en entrée
6
I.2. PRÉSENTATION ET DÉFINITIONS
des textes produits par des humains, pour finalement ressortir des informations pertinentes à propos de ces derniers ou alors du texte modifié de façon approprié selon l’objectif poursuivi. C’est ainsi que des tâches comme la traduction automatique, la génération automatique des textes ou aussi la synthèse automatique qui va nous intéresser dans ce travail, produisent directement du texte en sortie.
Mais, dans tous les cas, la sortie est soit immédiatement utilisable, soit alors elle est prise comme entrée d’un autre système dans la chaîne de traitement du texte.
On peut toutefois se demander la raison pour laquelle on parle de traitement automatique du "langage naturel" (quitte à se demander ce qui distinguerait un langage naturel des autres langages).
Pour établir clairement cette différence, il est nécessaire de donner une définition de ce qu’est un langage formel. Pour caricaturer, un langage formel est celui pour lequel il existe un mécanisme fini, et explicite, permettant d’en faire une analyse, quand bien même il serait constitué d’un nombre infini de mots. Donc, c’est un ensemble de mots analysable par un automate (au sens mathématique du terme) [9].
On peut donc comprendre directement que le mot "naturel" est ici utilisé pour faire une distinction avec les langages formels. C’est donc dans ce sens que toutes les langues parlées peuvent être vues comme des langages naturels. Les langages formels ont une syntaxe précise et sont spécifiquement conçus pour des objectifs bien cernés (penser à tous les langages de programmation par exemple). Ils sont donc très précis tant au point de vu grammatical que sémantique.
Concernant les langues humaines usuellement utilisées, on ne peut pas dire, sans être démenti, qu’elles sont dénuées d’imprécisions. Elles regorgent en générale une grande richesse, ce qui a pour conséquence d’introduire très souvent une grande ambiguïté. Pour s’en convaincre, il suffirait par exemple de considérer la phrase suivante :
Je le vois avec mes jumelles.
Très vite on remarque que cette phrase peut s’interpréter selon le contexte. On ne sait pas, en effet, si le sujet affirme voir quelqu’un avec ses jumelles d’observation, se promenant avec ses enfants jumelles, ou si le sujet voit quelque chose en utilisant ses jumelles en tant qu’instrument.
Ceci n’est qu’un exemple particulier pour illustrer cette dichotomie inhérente à l’emploi de la langue quelle qu’elle soit, mais cela suffit pour qu’on s’aperçoive que le problème est bel et bien réel.
Ce n’est d’ailleurs pas juste au niveau des interprétations qu’on peut identifier ce problème. Il s’observe même quand on considère les règles de grammaire. Certaines règles sont ainsi admises par certains linguistes mais rejetées ou trouvées superflues par d’autres [20].
C’est tout ce qui précède qui rend le langage humain à la fois riche et challengeant quand il s’agit de doter les machines de cette aptitude. D’où la raison d’être d’une discipline à part entière dédiée à la mise au point des règles de traitement du langage naturel, le NLP
[17].
I.3 Nécessité de l’approche par deep learning
Avant l’avènement du deep learning, des techniques traditionnelles du NLP étaient utilisées pour des tâches comme la détection des spams, l’analyse des sentiments et le POS (Part Of Speech tagging). Ces approches utilisaient essentiellement des caractéristiques statistiques des séquences comme, la fréquence des mots et les co-occurences par exemple. Néanmoins, le principal désavantage de ces techniques était qu’elles ne parvenaient pas à capturer une grande partie de la complexité linguistique du langage humain, comme par exemple le contexte.
Ainsi, les développements, récents d’ailleurs, des réseaux de neurone et du deep learning ont donné des nouveaux outils, pour approcher dans une large mesure les performances humaines en terme de traitement de langage. A notre avis, ces techniques sont les plus adaptées car, tout d’abord elles se rapprochent beaucoup plus des méthodes de traitement d’information par le cerveau humain, et ensuite, il serait autrement très couteux, voir impossible, d’élaborer des modèles capables d’embrasser toute la complexité du langage humain.
Le deep learning pour le NLP est axé grosso-modo sur la représentation d’entités textu-
I.4. QUELQUES TECHNIQUES COURANTES DE TRAITEMENT DES TEXTES
elles et le traitement élaboré sur ces représentations, de manière à en tirer des informations pertinentes ou à réaliser des transformations appropriées. Cette représentation constitue d’ailleurs un problème fondamental car c’est d’elle que dépend toute la chaîne de traitement des systèmes de NLP [46].
I.4 Quelquestechniquescourantesdetraitementdestextes
Dans cette partie, nous allons présenter diverses techniques intervenant dans le traitement des données de langage naturel. Ces traitements seront présentés de manière à dégager un pattern presque récurrent en terme de structure de traitement pour divers systèmes de NLP. Pour cela, nous allons d’abord présenter certaines manipulations réalisées sur les données en guise de pré-traitement. Puis, nous évoquerons deux techniques utiles aux tâches relevant du NLU (Natural Language Understanding).
I.4.1 La tokenisation (tokenization)
Manipuler des longues chaînes de caractères ne serait pas envisageable. Mais en informatique on est habitué à traiter des structures en terme de listes, de tableaux, de vecteurs,... Le tout étant représenté numériquement. C’est pour cela que l’opération consistant à réduire un corpus de texte en ses tokens est centrale.
Dans notre contexte, la tokenisation est une opération qui consiste à décomposer un texte
(une suite de phrases) en ses phrases constitutives ou une phrase en ses mots constitutifs. Cela est une première étape pour diminuer la difficulté inhérente au traitement des textes. En considérant la décomposition en mots, pour diminuer au maximum les difficultés de traitement et l’ambiguïté, on ajoute à la tokenisation d’autres traitements qui sont en général : la désaccentuation, le passage aux minuscules, la suppression des stopwords, la racinisation et la lemmatisation appliqués aux tokens obtenus [22].
I.4.2 Les stopwords[44]
Les stopwords sont, pour une langue donnée, des mots qui permettent de réaliser des phrases correctes mais qui n’apportent pas directement d’information significative sur l’ensemble (du point de vu traitement). Il s’agit par exemple en français de mots comme de, la, le,... ce qui correspond en gros aux prépositions, aux articles, aux conjonctions,... Il faut néanmoins préciser qu’on peut très bien décider de ne pas supprimer certains stopwords.
I.4.3 La racinisation (stemming)
La racinisation ou stemming en anglais consiste à découper le token de manière à n’en conserver qu’une partie qui semble rendre mieux compte de ce dont dérive ledit token. Seulement, ceci est fait sans se fier à ce que le résultat obtenu en tant que racine fasse partie du dictionnaire de la langue considérée [44, 22].
Cela permet juste de maximiser la probabilité de confondre des mots semblables qui sont présentés différemment dans diverses phrases. C’est à des fins de comparaison de phrases et de réduction d’ambiguïté. Pour illustration, on voudrait par exemple que si on retrouve les éléments "manger", "mange", "mangeable", "mangeons" dans un corpus, qu’ils soient transformés en un seul terme "mange". Cela se fait en découpant tous les mots qui ajoutent
d’autres affixes au terme. C’est cela en bref le stemming et, contrairement à ce que le nom suggère, il ne s’agit pas exactement de trouver la racine des mots (les mots dont ils dérivent). L’opération consiste essentiellement à réaliser un découpage des mots de manière à en supprimer les affixes.
I.4.4 La lemmatisation (lemmatization)
La lemmatisation quant à elle est une opération plus soignée mais plus coûteuse en terme d’implémentation [44, 22]. Elle réalise en fait ce qui n’est pas réalisé par le stemming en ce sens que lemmatiser un token consiste à la transformer en sa racine, et cette dernière doit être présente dans le dictionnaire. Par exemple, pour un mot au pluriel, il s’agira de le remplacer par son singulier, un verbe conjugué, par son infinitif,... Pour illustration, la
I.4. QUELQUES TECHNIQUES COURANTES DE TRAITEMENT DES TEXTES
lemmatisation consisterait à transformer par exemple "va", "allions", "irons" et "allé" par "aller" et "une" et "des" par "un". Cette tâche est grandement facilitée par des techniques de deep learning.
L’obtention des tokens peut également conduire à des tâches plus élaborées comme la détection des entités nommées et l’étiquetage morpho-syntaxique. Il s’agit des tâches très importantes que nous devons nécessairement mentionner.
I.4.5 Reconnaissance d’entités nommées (NER)[44]
La détection des entités nommées (Named Entity Recognition ou NER) consiste à repérer tout ce qui correspond à des noms de personnes, des noms d’organisations ou d’entreprises, des noms de lieux, des quantités, des distances, des valeurs, des dates ou tout autre élément qui constitue une nomination d’une entité existante précise dans un texte donné. Cette tâche est visiblement très importante dans la phase d’interprétation des données textuelles et il s’agit d’un simple problème de classification.
I.4.6 L’étiquetage morpho-syntaxique (POS tagging)
Le Part-Of-Speech tagging est une tâche consistant en gros, à associer aux éléments des textes, des informations grammaticales. En général, il s’agit d’associer aux termes des textes, leur nature grammaticale. Cela consisterait à dire que tel élément est un nom, tel autre un verbe,...[44, 22]
Cette tâche n’est pas une fin en soi. En effet, c’est une première étape dans l’analyse structurelle des textes, permettant de déduire diverses dépendances du point de vu linguistique. Elle est fortement facilitée par des approches basées sur le deep learning comme c’est le cas aussi pour la reconnaissance d’entités nommées.
Nous allons passer sous silence certains autres concepts du NLP comme le sacs de mots et le word embeddings dont nous parlerons dans la partie qui va suivre et qui présentera le résumé automatique, en tant que tâche du NLP.
I.5 Approches du NLP
Comme cela a été maintes fois mentionné, deux approches majeures sont d’usage pour traiter automatiquement les données de langage naturel. Il s’agit de l’approche numérique et de l’approche symbolique ou linguistique. Mais les deux approches sont dans la majorité des cas complétées par certaines heuristiques [31].
En ce qui nous concerne, l’approche sera essentiellement numérique avec un penchant prononcé pour les techniques du deep learning. D’ailleurs, concernant ces dernières techniques, les modèles de l’état de l’art les plus adaptés sont les transformers et leur présentation exige une revue chronologique car en effet, pour y arriver, des modèles classiques basés sur des réseaux de neurones récurrents (RNN) ont été utilisés car plus adaptés aux données séquentielles que sont les textes. Ensuite, le constat de leur mémoire limitée a fait à ce qu’on les modifie pour obtenir des unités à mémoire plus large dont les LSTM(Long Short-Term Memory) et les GRU(Gated Recurrent Unit). Furent ensuite introduits les mécanismes d’attention qui améliorèrent les techniques, aboutissant finalement aux modèles dits transformers, plus adaptés à des tâches de NLP élaborées.
I.5.1 Les réseaux de neurones artificiels (ANN)
Les réseaux de neurones artificiels (Artificial Neural Network ou ANN) sont un ensemble de neurones (artificiels) assemblés pour résoudre des tâches considérées comme requérant une certaine intelligence. Le neurone artificiel est un algorithme élaboré en s’inspirant du modèle théorique simplifié d’un neurone naturel. Il s’agit essentiellement d’une fonction d’agrégation ayant pour rôle de réaliser une somme pondérée des entrées qui lui sont présentées et d’une fonction d’activation qui formate la sortie de la fonction d’agrégation selon les valeurs attendues en sortie [12].
Les neurones sont généralement assemblés par couche comme présenté sur la figure qui suit :
Figure I.1: Réseau de neurones à une couche cachée et sans boucle [47]
Ce qui vient d’être présenté est suffisant pour avoir une idée globale de ce qu’est réellement un réseau de neurones artificiel. Néanmoins, nous pousserons plus loin pour toucher le plus vite possible aux modèles qui nous intéressent dans ce travail.
I.5.2 Les réseaux de neurones récurrents (RNN)
Un RNN(Recurrent Neural Network) est un type de réseaux de neurones conçu en principe pour traiter les données séquentielles, comme les données textuelles,...
La principale différence structurelle entre les ANN simples et les RNN est l’existence des connexions de récurrence dans ces derniers. Il s’agit des boucles permettant la prise en compte des sorties passées dans le traitement final des données [16].
Pour l’illustrer, rien de mieux qu’une image représentant la structure fonctionnelle des réseaux de neurones récurrents :
Figure I.2: Illustration de ce qu’est un RNN [22]
Où xi, hi et A représentent respectivement les entrées (à chaque pas temporel i), les états internes qui en résultent et le module récurent utilisé.
Pour une meilleure compréhension, une présentation formelle serait plus commode : Soient Wx la matrice des poids associée au vecteur d’entrée x, Wy une matrice associée au vecteur de sortie y et Wh celle associée au vecteur représentant les états cachés du réseau, avec bh et by respectivement les vecteurs des biais des neurones pour l’état caché et pour la sortie. Si on nomme aussi par yt la sortie du réseau à un instant donné t, on aura [15] :
ht
yt
= fact (Wxxt +Whht−1 +bh)
= gact Wyht +by
(I.1)
On voit très bien que la sortie du système dépend non seulement de l’entrée, mais aussi de l’état du système (h).
Les fonctions d’activation fact et gact qui sont mentionnées dans les équations I.1 représentent respectivement la tangente hyperbolique tanh et la fonction dite sof tmax [15].
L’entraînement des réseaux de neurones récurrents se fait de la même façon que pour les réseaux de neurones simples (avec uniquement une différence due au fait que pour le RNN on prend en compte le temps). On n’entrera pas dans le détail, vu que ce n’est pas exactement le sujet du travail mais, pour entamer la partie qui suit, il nous faut préciser que, comme pour les réseaux de neurones simples, l’entraînement exige d’appliquer une fonction de différentiation sur l’erreur produite par le système. Il s’agit de la fonction gradient. Mais, comme ici le gradient tient compte des grandeurs précédentes dans le temps, il y a un certain nombre de termes multiplicatifs qui peuvent amener le modèle à ne jamais converger ou au contraire, à la saturation. C’est le problème classique d’évanouissement (disparition) des gradients ou d’explosion des gradients [15].
En réponse au problème de disparition des gradients, les cellules LSTM (Long Short-Term Memory) sont utilisées en lieu et place des cellules RNN normales.
Les cellules LSTM
Les cellules LSTM (pour Long Short-Term Memory) sont utilisées en lieu et place des cellules RNN classiques (dites vanilla) pour permettre au réseau de traiter des séquences de plus en plus longues sans perte rapide d’information [16]. Pour cela, des éléments de contrôle de la mémoire de la cellule sont ajoutés. Pour illustrer nos propos, voici une image qui nous permettra de différencier une cellule RNN classique d’une cellule LSTM :
Figure I.3: Comparaison entre cellules RNN classique et LSTM [18]
Présentée comme cela, la cellule LSTM semble superflue mais si on présentait les équations associées à un réseau fait de ces cellules, on se rendra compte que c’est plutôt intuitif. Pour aborder les équations associées, considérons l’image suivante :
Figure I.4: Vue fonctionnelle d’une cellule LSTM [18]
Une cellule LSTM se comprend en la considérant comme constituée d’un ensemble de portes avec des fonctions bien particulières. Il s’agit d’une porte d’entrée, une porte d’oubli et une porte de sortie.
Il est évident que, pour chacune de ces portes que nous nommerons, à un instant t donné par It, Ft et Ot, le système doit apprendre ses paramètres en fonction de l’entrée et de l’état interne. Mais on doit aussi remarquer que, l’état est défini par deux paramètres au lieu d’un seul comme pour les RNN simples. Il s’agit, à un instant t donné, de ht (considéré comme état à court terme) et de ct (qui est un état à long terme mais dont le contenu est contrôlé, au vu de l’architecture de la cellule).
De ce que nous venons de dire, nous pouvons conclure que Ft, It et Ot sont des fonctions de Xt et de ht−1 aux poids près. On sait aussi que, si on veut une mémoire à long terme contrôlée, la valeur finale de ct doit être mise à jour en repérant ce qui doit être oublié parmi les éléments qui étaient précédemment dans la mémoire, pour y ajouter ensuite ce qui est sélectionné comme pertinent à l’entrée. Cela revient à utiliser Ft et It comme des portes de contrôle (ou de sélection). Et de cela on peut conclure que c’est plus intéressant d’avoir Ft et It qui prennent des valeurs entre 0 et 1 (pour modéliser la sélection) et ct devra dépendre de ces deux éléments, avec aussi l’état précédent de la mémoire à long terme.
Il est aussi vraisemblable que, l’état à court terme doit provenir de la mémoire à long terme (ça correspondra à une sélection de ce qui doit être pris en compte directement dans la mémoire à long terme). Cet état ht doit par conséquent dépendre de ct (il faut néanmoins noter qu’une autre approche serait possible ici, mais celle-ci est déjà pertinente). Finalement, on sait que la sortie finale doit nécessairement dépendre de l’état interne de la cellule. Il va ici s’agir de ht vu que la cellule est développée par analogie avec le processus de mémorisation des systèmes naturels (mémoire à court terme correspondant à la mémoire de travail).
De ce qu’on vient de dire on peut tirer que, fondamentalement on doit avoir :
F
t
I t
O
t
c t
h t
y t
= F (Xt,ht−1) = G(Xt,ht−1) = J (Xt,ht−1)
= K(ct−1,Xt,ht−1)
= L(ct)
= M(ht)
(I.2)
Avec F ,G,J ,K,L,M des fonctions dépendant des coefficients considérés (poids et/ou éléments de sélection qui sont les diverses portes définies).
Une implémentation classique de ce raisonnement se présente comme suit [16, 15] :
F
t
I t
O
t
c t
h t
y t
= σ Wf xXt +Wf hht−1 +bf
= σ WixXt +Wf iht−1 +bi
= σ (WoxXt +Wohht−1 +bo)
= Ft ◦ct−1 +It ◦tanh(WcxXt +Wchht−1 +bc)
= Ot ◦tanh(ct)
= Wyhht +by
(I.3)
Il faut remarquer qu’on a utilisé la fonction sigmoïde σ pour restreindre les valeurs des sélecteurs (portes) entre 0 et 1, puis on a utilisé le produit de Hadamard (produit terme à terme des matrices) pour réaliser effectivement la sélection grâce aux portes, en diminuant les termes dont les valeurs correspondantes des portes sont proches de 0 et en essayant de conserver ceux dont les valeurs correspondantes des portes sont proches de 1.
Cette implémentation peut être modifiée, surtout en ce qui concerne les fonctions d’activation utilisées (σ et tanh), et en particulier la fonction d’activation de finalisation tanh ici, mais c’est l’une des plus optimales.
Le seul problème qui demeure est que le nombre de termes à apprendre est très grand. Cela a fait à ce qu’on puisse essayer de le diminuer en implémentant le GRU (Gated Recurrent Unit) poussant un peu plus loin l’abstraction des portes pour diminuer le nombre de paramètres.
Les cellules GRU
Les cellules GRU (Gated Recurrent Unit) sont une autre implémentation des cellules des réseaux de neurones récurrents comme les LSTM à la différence près que, bien que partant de la même idée fondamentale évoquée précédemment, les GRU apparaissent comme une simplification des LSTM.
Elles possèdent néanmoins des performances comparables en ce qui concerne la prédiction des séries temporelles,... Les simplifications sont réalisées au niveau des états cachés et des portes. On conserve un seul état caché h (quitte à le contrôler à l’interne pour implémenter la mémorisation à long terme et à court terme). Et pour les portes, on fusionne les portes de sélection des entrées avec celle des éléments à oublier (donc les portes I et F) pour former une porte dite de mise à jour (porte qui sera appelée update ou U). La porte de sélection des éléments de sortie quant à elle, est transformée en porte de réinitialisation.
Ces deux portes (de mise à jour et de réinitialisation) sont en fait implémentées de façon identique que celles des cellules LSTM. La particularité des GRU se situe principalement au niveau de la gestion de la mémoire (l’implémentation du processus de mémorisation) car, ayant supprimé la distinction long-terme/court-terme, il fallait bien trouver un mécanisme devant permettre de bien gérer les deux aspects de la mémoire avec un seul état interne conservé.
C’est ainsi que, la porte de mise à jour (porte U) est introduite dans le calcul de l’état h pour assurer la sélection du type de mise à jour à effectuer. Il s’agit de faire en sorte que, selon l’état interne et l’entrée, tout l’état interne précédent soit considéré mais que certains éléments soient complètement modifiés, selon le besoin, et d’autres presque conservés.
Ainsi donc, h devient une combinaison d’éléments provenant de l’état interne précédent avec ceux provenant des nouveaux calculs effectués par la cellule (en fonction de l’entrée et de l’état interne précédent). Le comportement est alors le suivant :
Quand le vecteur de mise à jour a un terme proche de 1, cet état interne est presque conservé. Par conséquent, sa mise à jour est presque ignorée. Quand c’est plutôt 0, l’état interne précédent est presque ignorée et une mise à jour complète de cet état est effectuée.
La formulation mathématique permet de mieux en saisir le fonctionnement [16, 15] :
U
t
R
t
h t
y t
= σ (WuxXt +Wuhht−1 +bu)
= σ (WrxXt +Wriht−1 +br)
= Ut ◦ht−1 +(1−Ut)◦tanh(WhxXt +Whr (Rtht−1)+bc)
= Wyhht +by
(I.4)
Et pour illustration, on peut considérer l’image suivante :
Figure I.5: Cellule GRU [18]
Il faut noter que sur cette image (figure I.5), l’implémentation de la mise à jour est l’inverse de celle que nous avons décrit par les équations I.4. C’est-à-dire que les termes Ut et (1−Ut) sont permutés. Mais aussi, ici Zt représente Ut.
Ces modèles fonctionnent très bien et certaines implémentations permettent d’améliorer encore leurs performances. Ils sont néanmoins lents à entraîner, surtout à cause de l’aspect temporel. Parmi les techniques d’amélioration des performances, une peut être considérée car elle a un rapport direct avec notre travail. Il s’agit des mécanismes d’attention [3].
I.5.3 Mécanismes d’attention
Les mécanismes d’attention sont en bref des techniques permettant de lutter contre la perte de mémoire qu’on constate par exemple dans les cellules récurrentes ci-haut décrites, en se focalisant sur des éléments les plus importants à chaque traitement. Le travail consiste donc à repérer, pour chaque entrée, les éléments sur lesquels se focaliser.
C’est là qu’interviennent donc ces mécanismes.
L’une des implémentations les plus commodes est l’attention globale [30].
Pour l’expliquer, nous allons considérer une architecture jusque là passée sous silence, mais qui permet aux modèles introduits là haut de s’utiliser efficacement pour les tâches courantes du NLP en particulier. Il s’agit des modèles dits encodeur-décodeur.
En effet, lorsqu’on a un modèle à séquence fonctionnel, les objectifs peuvent être multiples. On peut vouloir :
1°) fournir une série d’éléments en entrée et ressortir une autre série (utile pour la prédiction de la valeur des actions par exemple,... );
2°) fournir un série en entrée mais faire ressortir un seul élément ou vecteur (utile pour la classification des textes, l’analyse des sentiments,...);
3°) fournir un vecteur plusieurs fois en entrée et produire une série (pour la génération des légendes pour des images par exemple,...);
4°) on peut aussi avoir un réseau série-vers-vecteur, appelé encodeur, suivi d’un réseau vecteur-vers-série, appelé décodeur (très utile pour la traduction et la synthèse automatique par exemple,...). Il s’agit du modèle encodeur-décodeur.
Une illustration par image sera suffisante :
Figure I.6: Réseaux série-vers-série (en haut à gauche), série-vers-vecteur (en haut à
droite), vecteur-vers-série (en bas à gauche) et encodeur-décodeur (en bas à droite) [16]
.
L’élément (le vecteur d’état) passé entre l’encodeur et le décodeur est dit vecteur de contexte. Il représente en quelques sortes un condensé des informations passés à l’entrée de l’encodeur. Toutefois, plus la séquence d’entrée est longue, plus le risque que la mémoire de certaines séquences puisse s’étioler devient grand. Ainsi, si par exemple on est entrain de vouloir traduire une longue phrase, on peut finir par transmettre un vecteur de contexte qui a perdu toute information sur les premiers éléments de la séquence passée en entrée. C’est pour cela qu’au lieu de passer un vecteur de contexte général, les mécanismes d’attention permettraient ici de ne se focaliser que sur certaines informations lors du traitement d’un élément particulier de la séquence (en ayant évidemment passé tous les états internes passés au décodeur). Pour le réaliser concrètement, le mécanisme d’attention global consiste à formater le vecteur de contexte en fonction des éléments de l’encodeur à prendre en compte lors du traitement par le décodeur.
Considérons que Ω, dont les termes sont représentés par wij, est la matrice des poids d’attention normalisés par une fonction softmax pour chaque ligne. Et que Π, dont les termes sont représentés par αij, est la matrice des poids d’attention générée par le mécanismes avant normalisation.Si les éléments ci représentent à chaque fois le vecteur contexte final à l’étape i de décodage et les hj sont les vecteurs d’état interne de l’encodeur, l’attention globale revient à réaliser la manipulation suivante, pour formater le vecteur de contexte à prendre en compte pour l’élément en cours de traitement [30] :
wij = sof tmax(αij) = Pekαeijαik (I.5)
ci = Pj wijhj
La dernière relation du système I.5 revient à réaliser une somme pondérée des vecteurs d’état internes passés de l’encodeur, selon l’importance de chaque état pour le traitement en cours. De ces équations il faut aussi remarquer que la notation des sommations n’est pas rigoureuse. Cela est volontaire car c’est intuitif (on réalise des sommations sur tous les éléments).
Plusieurs techniques arrivant à réaliser l’attention existent. En général, comme on peut d’ailleurs le déduire des relations de l’attention globale, ces mécanismes étaient utilisés dans le cadre des réseaux récurrents. Une question s’est toutefois naturellement posée : ne pourrait-on pas se passer des RNN pour mettre au point des réseaux complètement basés sur l’attention ?. La réponse est oui, avec des ajustements adéquats pour résoudre les faiblesses des modèles classiques dans le traitement des données séquentielles. C’est cela qui a conduit aux modèles dits transformers [50].
I.5.4 Les transformers
Il s’agit des modèles dont l’architecture générique se présente comme suit :
Figure I.7: Architecture générique des transformers [50]
Les transformers sont des modèles du type encodeur-décodeur comme on peut le constater sur la figure ci-dessus (bien que certaines implémentations n’en utilisent qu’une partie selon la tâche). Ils sont essentiellement basé sur les mécanismes d’attention, se passant de la récurrence [16, 15].
Nous donnerons une explication succincte de chacun des modules présents dans l’image I.7. En effet, présentons les modules selon l’ordre dans lequel les données traversent le modèle :
1°) Moduled’embedding : Nous savons que les données textuelles doivent être présentées au modèle sous forme numérique. Elles doivent donc être transformées avant de les passer aux parties suivantes. Néanmoins, vu que la représentation des entrées a
un impact significatif sur les performances d’un modèle, cette représentation doit être bien choisie. Un choix intuitif, et qui s’avère être performant, est de tout faire pour que si deux termes ont des sens proches, ils aient aussi des représentations vectorielles proches. Cela est réalisé par différentes techniques que nous présenterons dans le chapitre suivant, mais c’est là le rôle de la couche d’enchâssement (embedding).
2°) L’encodage positionnel (positionnal encoding) : Ce module ajoute l’information sur la position relative de chacun des éléments placés en entrée par rapport aux autres. Cela pallie au problème de perte d’information sur la position des mots quand on utilise un réseau non séquentiel comme les réseaux récurrents. Donc, la position de chaque terme de la séquence placée en entrée est encodée dans un vecteur puis ajoutée à l’encodage global du terme. L’un des encodages les plus utilisés est celui basé sur les fonctions trigonométriques tel qu’introduit dans [50].
3°) Module d’auto-attention : La couche d’attention, présentée en première position dans la boîte de l’encodeur, est en fait une couche dite de self-attention car elle opère sur la même séquence d’entrée. L’opération est réalisée pour permettre au modèle d’avoir une représentation de l’importance des termes dans la séquence d’entrée, les uns par rapport aux autres.
Pour illustration, considérons la phrase suivante : Walter est malade, il préfère se reposer.
Dans cette phrase, l’un des constats qu’on peut faire est que, le nom "Walter" est beaucoup plus lié au pronom "il" qu’au verbe "préférer". C’est à l’établissement des tels liens dans les représentations que sert le module d’auto-attention ici présenté. Il est important que ce lien soit implicitement présent dans les représentations, pour que le traitement soit efficace comme on l’a mentionné lors de la présentation des mécanismes d’attention. Donc cette couche est en fait un prolongement de celle d’embedding. Ici, le mécanisme d’attention utilisé est différent de celui qui a été présenté là-haut (attention globale). Il s’agit ici d’un mécanisme plutôt basé sur le produit scalaire mis à l’échelle (scaled dot-product). En effet, très brièvement, l’idée du scaled dot-product attention consiste à opérer une recherche des termes sur lesquels focaliser l’attention de la même façon qu’on réalise la recherche de la signification d’un mot dans un dictionnaire. Supposons qu’on veuille avoir la signification d’un mot dont on ne connaît pas l’orthographe exacte. Pour retrouver ce dernier dans un dictionnaire, il suffit de rechercher le mot qui ressemble le plus à l’orthographe que nous estimons être la plus vraisemblable. Mathématiquement, cette recherche de similitude correspond à un produit scalaire.
Similairement, le scaled dot-product consiste à générer trois éléments qui sont la clé ou key k, la valeur ou value v et la requête ou query q. La requête correspond au mot
qu’on cherche (orthographié selon ce que nous pensons), la clé correspond au mot présent dans le dictionnaire et la valeur correspond à la signification associée. Si on supposait qu’il existe plusieurs termes du dictionnaire qui s’orthographient presque de la même façon que le mot qu’on cherche, on devra passer par une mesure de similarité avant de se décider sur le sens le plus probable. Cela correspond à réaliser le produit de tous les k par les q présents, puis à normaliser l’ensemble des résultats de manière à ce qu’ils représentent des mesures de probabilité, et finir par choisir le sens v le plus probable.
Pour aller plus vite, on implémente ce processus en considérant tous les k, q et v au même moment de manière à réaliser le calcul une fois pour toutes. Cela revient à regrouper tous les k, q et v dans des matrices K, Q et V . Ce qui donne la relation qui définit l’attention par produit scalaire mis à l’échelle [50] :
Q ·KT
Attention(Q,K,V ) = sof tmax p ·V (I.6) dk
Dans cette relation, expression I.6, le terme pdk permet de mettre à l’échelle le résultat du produit scalaire de Q par K, c’est-à-dire Q·KT . Il faut noter que dk est la dimension d’une clé, et que cette normalisation permet d’améliorer les performances du modèle mais elle n’est pas la seule envisageable.
Il est aussi important de remarquer que la couche d’attention utilise trois termes pour arriver à bout du problème. Ces trois termes sont obtenus par une transformation linéaire dont les poids sont appris à travers un réseau de neurones simple.
Il faut aussi noter que l’on utilise parallèlement plusieurs modules d’attention pour capture toutes les caractéristiques des séquences (on parle de multi-head attention). Pour une plus ample illustration, voir la figure I.8.
4°) Le module feed-forward : Il s’agit en fait d’un réseau de neurones de propagation avant classique (réseau à couches ajoutées de façon séquentielle). Il permet de réaliser le traitement qui fait suite à l’attention.
5°) Couche d’attention encodeur-décodeur : Il s’agit de la couche qui reçoit les données en provenance de l’encodeur. Il s’agit ici d’une couche d’attention et non d’autoattention comme c’était le cas pour la première couche de l’encodeur. En effet, contrairement à la couche de self-attention, pour laquelle tous les trois paramètres sont calculés à partir de la même séquence, la couche d’attention ici prend les clés K et valeurs V provenant de l’encodeur mais une requête Q provenant du décodeur.
Une autre couche feed-forward suit celle-ci et a le même rôle que celle de l’encodeur.
6°) Module d’attention masquée : Il s’agit de la première couche du décodeur. C’est aussi un module de self-attention auquel on ajoute le masquage. Ce module est dit masqué suite au fait que, comme le décodeur est un module de génération, on ne regarde que les termes précédemment générés, en masquant les termes qui seront probablement générés aux pas d’après. Cela est réalisé en rendant juste leurs probabilités nulles.
7°) Module linéaire final : Il s’agit d’un réseau de neurones classique pour réaliser la déduction finale, le tout étant passé à la fin à travers une opération softmax qui permet de transformer les résultats en probabilité d’éléments générés (cela permet de choisir le terme le plus vraisemblable à générer comme sortie).
Cette explication simplifiée se comprend mieux si on y joint la vue éclatée suivante :
I.6. CONCLUSION PARTIELLE
Figure I.8: Vue éclatée d’un transformer [51]
Les transformers, ici succinctement présentés, sont un modèle très adapté aux tâches de traitement automatique du langage naturel. C’est un modèle incontournable vu aussi que ses traitements peuvent être facilement parallélisés. Cela est rendu possible par le fait que l’architecture des transformers est parallèle par essence.
I.6 Conclusion partielle
Nous venons de réaliser une vue d’ensemble du domaine de traitement automatique du langage naturel, ainsi que diverses techniques couramment utilisées. Pour cela, nous avons tout d’abord justifié la préséance des modèles basés sur le deep learning pour diverses tâches du NLP.
Ensuite, nous avons évoqué les technique de pré-traitement des textes, souvent incontournables, comme la réduction des séquences en leurs tokens constitutifs, la suppression des mots fréquents mais n’apportant pas assez d’informations et la réduction des mots en leurs racines respectives. Nous y avons aussi joint quelques techniques utiles à la compréhension du langage humain comme le POS tagging et la reconnaissance d’entités nommées. Ce qui précède nous a finalement conduit à présenter les modèles courants du NLP basés sur les RNNs et, nous avons terminé par la présentation de l’architecture transformer, modèle que nous utiliserons pour ce travail (les précisions sur les modèles particuliers seront données au chapitre suivant).
Les transformers constituent un type de modèle qui s’avère être le plus adapté (pour le moment) au résumé automatique du texte et, dans le chapitre suivant, nous commencerons par présenter les diverses spécificités du résumé automatique comme tâche du NLP, pour finir par présenter l’architecture globale du système que nous comptons élaborer.
Chapitre II
Présentation du résumé automatique et conception du système
II.1 Introduction partielle
Le résumé automatique étant le sujet principal de ce mémoire, dans cette partie nous le présentons alors en détail en tant que discipline et tâche du NLP. Nous allons ici présenter les théories sur la synthèse automatique des textes, en classifiant les diverses méthodes utilisées pour pouvoir situer notre système dans l’ensemble des travaux jusque-là menés sur ce sujet.
Ensuite, nous présenterons les diverses approches utilisées pour le résumé automatique, sans oublier d’approfondir notre présentation des modèles de type transformer adaptés à cette tâche, pour finalement mentionner le modèle que nous estimons le plus adapté concernant l’approche basée sur le deep-learning pour la synthèse automatique. Enfin, nous allons réaliser une conception rapide mais suffisante de l’architecture globale de notre système, tout en précisant le rôle et le fonctionnement de chaque partie.
II.2 Présentation et définitions
Selon Le Petit Robert, résumer c’est reprendre en plus court un discours, le présenter brièvement en conservant l’essentiel. En d’autres termes, c’est l’abréger, l’écourter, le réduire. De même, en tant qu’exercice intellectuel, le résumé, consiste à réduire un texte tout en lui restant fidèle. Il exige donc de restituer les idées en un nombre déterminé de mots, en évitant au mieux de recopier le texte à résumer. Il faut alors composer un texte
29
plus court qui contienne l’essentiel du message initial.
De cela on tire que le résumé devient automatique s’il est généré par un logiciel ou un système informatique.
Cette définition est en fait correcte bien qu’elle ne soit assez précise pour notre contexte. Il nous faut une définition assez générale et précise, embrassant au mieux l’aspect automatique, ou mieux, l’aspect informatique, qui nous intéresse dans ce mémoire. Une définition assez valable est celle de TORRES-MORENO Juan-Manuel qui dit qu’un résumé automatique est un texte généré par un logiciel, cohérent et contenant une partie importante des informations pertinentes de la source, et dont le taux de compression est inférieur au tiers de la taille du(des) document(s) source(s) [48].
L’introduction du taux de compression dans la définition n’est pas anodine car, on s’est très vite rendu compte que la performance d’un système de résumé automatique dépendait fortement du taux de compression. En effet, les études de [26] montrent que les meilleures performances des systèmes de résumé automatique sont généralement atteintes pour des taux de compression compris entre 15 et 30% [48].
Nous allons adopter, dans ce travail, la définition de TORRES-MORENO Juan-Manuel ci-haut présentée.
Toutefois, on ne doit pas manquer de signaler que la génération automatique des résumés est un problème complexe en soi, tout comme l’évaluation des résultats. Le résumé est en effet une tâche cognitive requérant la compréhension du texte considéré et, les humains n’étant pas toujours bons dans les tâches de synthèse, le manque d’étalon explique qu’il y ait également une difficulté d’automatisation du processus.
II.3 Catégorisation des résumés
Les résumés peuvent être classifiés selon différents critères tels que leur fonction, le nombre de documents source, le genre de document, le type de résumé, le type de résumeur, le contexte,...
II.3. CATÉGORISATION DES RÉSUMÉS
Parcourons de manière succincte ces différents critères de classification [36, 31, 32, 38, 37, 48] :
II.3.1 Selon la fonction
Selon leur fonction, on classifie les résumés en deux groupes qui sont le résumé indicatif et le résumé informatif.
Résumé indicatif
Tel une table des matières, un résumé indicatif renseigne le lecteur sur les thèmes abordés dans un document. Il liste donc les sujets les plus importants évoqués par le texte. Certains systèmes de résumé guidé génèrent un résumé indicatif du texte comme étape initiale, l’utilisateur choisit alors parmi les sujets proposés par le résumé ceux qui l’intéressent et le système produit enfin un résumé informatif du texte guidé par la requête de l’utilisateur. La requête dans ce cas est l’ensemble des sujets sélectionnés à partir du résumé indicatif.
Résumé informatif
Il s’agit d’un modèle rétréci du texte d’origine, relatant le plus largement possible les informations contenues dans celui-ci. Ce type de résumé répond souvent à une attente en résumant de plus le contenu. La problématique ici est donc double : comprendre ce qui n’est pas information dans un texte et connaître le besoin de l’utilisateur final. Néanmoins, si on n’a pas de requête spécifique de la part de l’utilisateur, le résumé informatif est réalisé en veillant à ce que l’ensemble des principaux sujets du texte d’origine soit rapporté. Ainsi, les sujets principaux qui sont rappelés dans le résumé sont répartis de manière fidèle par rapport à l’organisation initiale afin de donner un juste aperçu du texte source.
II.3.2 Selon le nombre de documents source
Selon le nombre de documents source on a les résumés mono-document et multidocument.
Résumé mono-document
Il consiste à résumer un document isolé. Le corpus de documents source est donc ici constitué d’un seul et unique document.
Résumé multi-document
Il s’agit d’un résumé de plusieurs documents (un groupe de documents), très souvent liés thématiquement, en faisant attention à ne pas insérer des informations déjà évoquées.
II.3.3 Selon le genre des documents
Résumé des documents journalistiques
Il s’agit de résumer les documents du type article de presse (sachant qu’ils ont une structure particulière). En effet, on sait par exemple que dans le domaine journalistique, les informations les plus importantes sont souvent mentionnées au début du texte.[36]
Résumé des documents spécialisés
Il s’agit de résumer des documents en provenance d’un domaine précis (géologie, médecine, mathématique,...), fortement spécialisé.
Résumé des documents littéraires
C’est le résumé de documents du type narratif, des textes littéraires, des textes argumentatifs, ...
II.3. CATÉGORISATION DES RÉSUMÉS
Résumé des documents encyclopédiques
Ici il s’agit de résumer des documents de type encyclopédique (en général multithématiques de toute évidence) à l’exemple de Wikipédia...
II.3.4 Selon le type de sortie (résumé obtenu)
Cette classification est très importante et très utilisée. Il s’agit des :
Résumés extractifs (extractive summarization)
Le résumé extrait est formé de segments de texte extraits du(des) document(s) source(s). Ces segments peuvent être des phrases, des propositions ou n’importe quelle unité textuelle présent dans le(s) document(s) à résumer. Le problème consiste donc à repérer les segments de texte qui semblent être les plus pertinents pour faire partie du résumé final. Les éléments obtenus à la fin sont donc explicitement présents dans le(s) document(s) source(s).
Résumés abstractifs (abstractive summarization)
Les méthodes de résumé abstractives imitent, jusqu’à un certain degré, le processus naturel accompli par l’homme pour résumer un document. Par conséquent, elles produisent des résumés plus similaires aux résumés manuels (humains). Ce processus peut être décrit par deux étapes majeures : la compréhension du texte source et la génération du résumé. La première étape vise à analyser sémantiquement le contenu du texte et à identifier les parties à exprimer dans le résumé. C’est en quelques sortes une tâche d’extraction d’information liée au domaine abordé ou de regroupement des phrases du texte source. Vient ensuite la génération du texte.
Bref, on produit un résumé rapportant le contenu du(des) texte(s) source(s) en utilisant un vocabulaire différent et plus concis.
Il existe aussi des résumés dits semi-extractifs, et même aussi des résumés dits par compression [48] mais nous estimons inutile de les décrire ici étant donné que la distinction abstractif-extractif suffit pour notre contexte.
II.3.5 Selon le type de résumeur
Le résumeur est le système qui réalise le résumé. Il peut s’agir d’une entité naturelle (un humain) ou artificielle (un logiciel). On a donc essentiellement les deux cas suivants :
Résumé humain (manuel)
Il s’agit d’un résumé réalisé par un humain. Il peut être fait par l’auteur même du document (on parle souvent de résumé d’auteur), par un expert du domaine traité (on parle souvent de résumé d’expert) ou par un professionnel de résumé (on parle de résumé professionnel).
Résumé automatique
Il s’agit, comme on l’a maintes fois mentionné, d’un résumé fait par un système informatique.
II.3.6 Selon le contexte
Résumé générique
Ici on résume le document sans prendre en compte les besoins d’information de l’utilisateur. On produit juste un résumé complet et le plus mieux fait possible.
Résumé guidé
Pour ces types de résumé, l’utilisateur commande la génération du résumé en précisant les types d’information dont il a besoin.
Résumé mis à jour
Il s’agit d’un résumé de type dynamique par essence. Ici, un ensemble de documents sources est résumé en veillant minutieusement à ce que le document dont le résumé est ajouté à la suite d’un précédent résumé ne puisse pas créer une répétition d’information.
Il y a donc un contrôle de nouveauté.
II.3.7 Selon le destinataire du résumé
On peut aussi classifier un résumé selon le public auquel il est destiné.
Résumé sans profil
Il s’agit d’un résumé qui ne tient pas compte d’un quelconque profil utilisateur. Le résumé est donc généré sans tenir compte de la personnalité des utilisateurs.
Résumé avec profil
Il s’agit d’un résumé dont l’un des éléments guides (requête) est le profil des individus auxquels le résumé est destiné.
En ce qui concerne notre système, nous implémenterons à la fois un résumeur abstractif et un résumeur extractif et ce sera mono-document. En plus de cela, le résumé ne sera pas guidé, il s’agira de produire des résumés génériques, pour des documents de type littéraire (documents du type narratif, des textes littéraires, des textes argumentatifs,...).
II.4 Approches de résumé automatique
Nous allons présenter ici diverses approches algorithmiques pour résumer les documents textuels. Les approches seront abordées en supposant que les résumés sont principalement classés en abstractif et extractif.
II.4.1 Techniques intuitives de résumé [36]
Avec des critères centrés sur le contenu des textes, il existe un grand nombre d’algorithmes assez triviaux de résumé, qui sont basés entre autres sur : • La fréquence d’occurrence des mots et
• L’annotation en rôle sémantique.
Ces critères mettent l’accent sur le contenu du texte et le message qu’il communique.
Fréquence d’occurrence des mots
L’idée majeure des techniques qui utilisent ce critère consiste à considérer que les mots les plus fréquents sont les plus liés au sujet principal du texte à résumer. Cette approche assez simpliste mais fonctionnelle fut introduite en 1958 par Luhn [29], une première tentative de résumé automatique.
On affecte des scores aux phrases présentes dans le texte, en additionnant chaque fois les poids des mots les constituant (on attribue ce poids en fonction de la fréquence d’apparition du mot considéré dans le texte entier). Et, à la fin, le résumé est constitué avec les phrases extraites du texte source, et dont le score dépasse un certain seuil dépendant de la taille maximale imposée pour le résumé. Le tout est finalement réarrangé selon l’ordre d’apparition (des phrases sélectionnées) dans le texte d’origine.
L’annotation en rôle sémantique
Ici, l’idée est simple. En utilisant des techniques de repérage d’entités nommées (voir le chapitre précédent), on identifie les entités présentes dans le document. Après cela, l’entité la plus fréquente est identifiée et considérée comme entité principale. Par la suite, les phrases contenant cette entité sont sélectionnées. Enfin, seules les phrases où l’entité principale possède un rôle sémantique fondamental (non auxiliaire) sont gardées pour le résumé.
L’un des moyens les plus simples pour repérer les entités nommées est de passer par l’apprentissage profond comme on l’a précédemment mentionné.
Il existe tout de même des techniques qui ne se fient qu’à la forme et à la structure du texte, sans en considérer le contenu. L’intuition derrière cette approche est basée sur le constat que dans un texte, les éléments ne sont pas présentés de façon arbitraire. De manière usuelle, les techniques utilisées se basent sur :
La position des phrases;
La similarité avec le titre
La longueur des phrases ou sinon,
Les mots indices (cue word)
La position des phrases
Cette approche est à appliquer en fonction de la nature du document et de son genre. Pour certains types de documents (documents journalistiques par exemple), les phrases se trouvant au début sont généralement plus informatives et décrivent le sujet principal du document. De plus, les phrases situées au début de chaque paragraphe tendent à apporter plus d’informations pertinentes. Le résumé des articles scientifiques par contre, peut essentiellement se former en se basant sur les contenus des parties résumé et introduction (sous l’hypothèse que ces dernières parties sont bien faites). En revanche, dans le cas des revues intégratives (critique et comparaison des études), les phrases les mieux notées sont celles des parties résultats et discussion et conclusion.
Ces exemples suffisent pour illustrer dans quelle mesure cette approche peut s’appliquer.
La similarité avec le titre
Cette approche part du principe selon lequel un bon titre doit informer de manière brève du contenu principal du texte qu’il encadre. Cela permet alors de fixer comme mesure de pertinence des phrases, leur similarité avec les titres. Toute la problématique se réduit donc à la construction d’algorithmes capables de capturer efficacement la similarité.
La longueur des phrases
L’approche consistant à se baser sur la longueur des phrases est assez naïve mais fonctionnelle.
En effet, la longueur moyenne d’une phrase dans un texte dépend de son genre. Généralement, les phrases très courtes sont considérées comme peu informatives alors que les phrases très longues sont présumées favoriser la redondance. Cette caractéristique est exploitée en fixant un intervalle de longueur (entre 15 et 30 mots). Une phrase ayant une longueur en dehors de cet intervalle est pénalisée [45].
Les mots indices
Ici, on considère une liste de mots, constituée manuellement, et qui a comme rôle de permettre de se décider si une phrase doit être prise dans le résumé ou rejetée, selon qu’elle contient ou non un(des) mot(s) de la liste qualifié(s) inhibiteur(s) ou valorisant(s). Comme exemple des mots ou groupes de mots inhibiteurs on trouve : par exemple, accessoirement, ... Et pour les mots valorisants on peut citer : notez bien, ...
Nous devons quand même préciser encore une fois que tout dépend de celui qui écrit la liste.
Les méthodes que nous venons de présenter sont assez intuitives mais constituent la base des processus de synthèse. En effet, synthétiser un texte revient au fond à implémenter un certain nombre de règles, dont font parties évidemment celles que nous venons de mentionner. Néanmoins, ce que nous venons de présenter est décrit en se basant sur le concept de résumé extractif. Nous devons toutefois signaler que les résumés abstractifs se basent au fond sur les mêmes principes, soit en partant des résumés extractifs pour ensuite réaliser des paraphrases, insérer des connecteurs appropriés et éliminer les références anaphoriques dans les résumés, soit en implémentant indirectement toutes ces techniques à travers un modèle d’apprentissage automatique ou un modèle basé sur les graphes capables de capturer d’un seul coup tous ces aspects (ou une grande partie d’entre-eux). Les techniques intuitives ci-haut présentées ne sont pas les seules. Il en existe également d’autres, basées essentiellement sur les théories linguistiques. Entre autres les méthodes d’analyse du discours (par exemple la RST [31] ou Rhetorical Structure Theory)...
II.4.2 Algorithmes classiques de résumé automatique
Comme nous venons de l’introduire dans la section précédente, le résumé automatique est abordé essentiellement selon deux approches qui sont [31] :
1°) Les approches numériques, fondées sur les techniques à base des scores (poids), et
2°) Les approches symboliques fondées sur les techniques purement linguistiques, basées en premier sur une étude sémantique.
Il faut noter qu’on peut considérer aussi des approches basées sur la théorie des graphes comme intégrant les idées de ces deux approches de façon implicite, tout comme celles basées sur l’apprentissage automatique. Mais, dans tous les cas, une vue sur quelques heuristiques (méthodes basées sur le bon sens) est toujours à considérer (surtout en amont, puis en aval du processus de synthèse).
Ici, nous allons présenter les approches essentiellement numériques (on va y inclure celles basées sur l’apprentissage automatique et celles basées sur la théorie des graphes).
Algorithme de Luhn [29]
Il s’agit d’une méthode heuristique pour la synthèse des documents. C’est la plus ancienne méthode de résumé automatique (au sens moderne du terme).
Cette approche n’est pas considérée comme très bien formalisée. Elle exécute implicitement l’approche du TfIdf que nous allons décrire dans la sous-section qui suit celle-ci (sous-section II.4.2).
La sélection (des mots ici) se fait en considérant les hypothèses qui suivent :
la synthèse consiste à supprimer certains mots pour n’en conserver que les plus importants;
les mots se trouvant au début sont probablement importants;
les autres mots utiles respectent une certaine distribution. La figure II.1 montre, selon Luhn, comment choisir ces mots importants (partie hachurée de la courbe).
Figure II.1: Diagramme des fréquences des mots et le choix de Luhn [29]
Cette approche, comme on l’a mentionné au début, est assez moins précise et empirique, mais elle sous-entend les idées fondamentales appliquées plus tard.
Algorithme TF-IDF
Le tf-idf (time-frequency inverse document frequency est une approche essentiellement utilisée pour le résumé extractif. Il s’agit d’une correction de l’approche naïve consistant à poser que plus un mot est répété dans un corpus de texte, plus il y est important.
Soit donc un corpus constitué de D documents et Nj le nombre total de mots (termes) présents dans un document j donné du corpus. Nommons Freq(i,j) le nombre de fois qu’un terme i apparaît dans le document j.
On définit classiquement la fréquence d’apparition par :
Freq(i,j)
T F(i,j) = (II.1)
Nj
L’approche qui se base naïvement sur la fréquence d’apparition des mots dans les textes pour juger de leur importance relative, accorde à chaque mot un poids égal à T F(i,j). La grande faiblesse de cette approche est d’inclure ainsi des termes sans grande pertinence informationnelle comme des prépositions, des articles,... très présents au sein des documents.
Pour corriger cette faiblesse, on pose l’hypothèse que les termes importants apparaissent plusieurs fois dans un document (ou juste dans peu de documents du corpus) et non pas dans plusieurs documents. Puisque dans ce second cas, il est souvent question des éléments communs du langage, sans grande utilité informationnelle. Ceci constitue en fait la loi de Zipt [55] et c’est le fondement de l’approche du tf-idf.
A cet effet, on définit DFi comme étant le nombre de documents dans le corpus, qui contiennent le terme numéro i. Cela permet d’affecter alors le poids selon la formule [5] :
D !
T FIDF(i,j) = log(1+T F(i,j))·log (II.2)
DFi
Dans l’expression, II.2, en supposant que N est le dictionnaire des termes présents dans l’ensemble des documents, il faut noter que : i ∈ {1,...,N} et j ∈ {1,...,D}.
D’où finalement, le poids d’un terme i dans un document j est donné par :
wij = T FIDF(i,j) (II.3)
Pour notre cas, l’application de cette approche consiste à décomposer un long texte en ses phrases et de considérer que chacune de ces phrases est un document et que le texte entier constitue le corpus.
Plusieurs définitions des éléments T F(ij) et IDFi formant l’expression II.2 sont toutefois possibles selon les besoins en terme de performance.
Mais, dans l’ensemble, l’idée de base demeure la même car il ne s’agit en général que de changement des types de normalisation [55].
L’application de cette méthode pour le résumé consiste finalement à calculer le poids de chaque phrase en additionnant les poids des termes la constituant, puis à normaliser le résultat en fonction de la taille de la phrase considérée. Après tout, on définit un seuil qui permet de soutirer les phrases selon leur pertinence ainsi évaluée (en considérant évidemment plus pertinente une phrase dont le résultat de la sommation des poids est élevé).
Algorithme TextRank
TextRank est un algorithme de résumé extractif, basé sur la théorie des graphes et qui s’inspire de l’algorithme PageRank de Google [8, 4].
A la base, on considère un ensemble de N phrases donné, et on calcule les coefficients de liaison de chaque phrase aux N −1 autres. A la fin, on peut obtenir une matrice M de taille N ×N dont chaque terme Mij représente le degré de liaison entre la phrase numéro i et la numéro j. Il s’agit en fait d’une matrice d’adjacence dans laquelle on pose au préalable que Mii = 0, pour tout i (c’est la même idée pour l’algorithme PageRank étant donné qu’il est logique de considérer qu’une page ne peut s’auto-référencer).
Soit donc i ∈ {1,...,N}. Appelons P hri la phrase numéro i du corpus. Cela veut dire qu’on peut écrire :
Liaison P hri ↭ P hrj = Mij = Mji (II.4)
Les valeurs de Mij sont calculées au choix, selon le programmeur. Ce dernier implémente en effet une mesure de similarité selon sa définition de la liaison entre phrases et les besoins en performance.
C’est ainsi qu’on peut utiliser par exemple une mesure de similarité classique nommée similarité cosinus en la basant par exemple sur T FIDF [19].
Pour représenter les mots à comparer, on utilise les méthodes classiques de vectorisation des mots (word embedding). Nous esquisserons ces méthodes dans les sections qui vont suivre, parlant du word embedding ( II.5 ).
Le rang des phrases sont alors calculés de manière itérative en s’inspirant de la formule [33] :
N
Xh i
T extRank(P hri) = (1−K)+K · T extRank(P hrj) ·Mij (II.5)
j=1 j,i
Dans cette formule, K est une constante comprise entre 0 et 1.
Initialement, on prend en général une valeur identique de T extRank(P hri) pour toutes les phrases (souvent T extRank(P hri) = 1), mais la valeur initiale prise n’affecte pas les valeurs finales, juste le temps de convergence [33].
La formule II.5 n’est pas arbitraire, elle est d’ailleurs triviale si on s’inspire de l’algorithme de PagePank la plus simple. Pour cet algorithme (PageRank), on avait pris à l’origine K = 0.85 [8].
Justification de la formule Le principe de PageRank consiste à se dire que, si une page
P agi contient Ni références vers d’autres pages, la probabilité qu’on aille vers l’une de ces pages référencées est de N1i (avec l’hypothèse que les références ne sont pas répétées et que la distribution de leur importance est uniforme). On sait tout de même que plus une page est référencée, plus on doit lui donner de l’importance.
Si alors on pose que l’importance de la page P agi est connue, le calcul de l’importance d’une page P agj vers laquelle elle pointe se calculera logiquement par :
X 1
Importance(P agj) = Importance(P agi)· (II.6) i Ni
Avec i appartenant à l’ensemble des pages qui mentionnent la page P agj en leur sein.
Malheureusement, pour les phrases non référencées (pages dites isolées), on trouve une importance nulle. Pour lutter contre cela, la formule II.6 est un peu modifiée en y introduisant adéquatement une constante non nulle K.
Ce qui donne l’expression [8] :
X 1
Importance(P agj) = (1−K)+K · Importance(P agi)· (II.7) i Ni
On voit alors qu’il s’agit belle et bien de la formule utilisée pour TextRank (formule II.5).
Après initialisation des rangs de chaque phrase du texte ( les T extRank(P hri)) et après calcul de la matrice d’adjacence M. On applique la formule II.5 itérativement et à la convergence, on choisit les phrases qui vont former le résumé selon leur importance ( valeurs des T extRank(P hri) pour toute valeur de i).
A la fin, les phrases sélectionnées sont réarrangées pour former un résumé extrait plus ou moins cohérent.
Il existe également un algorithme nommé LexRank [14] qui est assez similaire à TextRank ici décrit, à la différence près que :
Il prend essentiellement en compte les métriques de similarité robustes;
Il considère la position et la longueur des phrases dans le calcul de leur pertinence; - Il est optimisé pour le résumé multi-document.
Plusieurs autres algorithmes populaires existent, par exemple les algorithmes LSA (Latent Semantic Analysis ou Analyse Sémantique Latente) et LDA (Latent Dirichlet Allocation ou Allocation Latente de Dirichlet) [5].
Le premier, la LSA, est un algorithme statistique, basé sur l’algorithme SVD (Singular Value Decomposition ou décomposition en valeurs singulières). Seulement, cette technique est très gourmande en ressources suite à la complexité de l’algorithme qui implémente le SVD. Le second, la LDA, basé sur la détection des thématiques, peut aussi être utilisé.
Toutefois, il faut remarquer que les algorithmes ici présentés sont essentiellement adaptés à la synthèse extractive. Même si, ces traitements peuvent être mélangés avec les techniques de résolution d’anaphores et les paraphrases pour obtenir des synthèses qui tendent vers la synthèse abstractive, nous devons souligner que les techniques jusque là les plus performantes pour la synthèse abstractive sont essentiellement basées sur le deep learning [36]. Le deep learning peut également être utilisé pour la synthèse extractive, permettant ainsi la génération des synthèses extraites plus cohérentes (avec résolution d’anaphores). Ainsi donc, nous abordons les méthodes de deep learning utilisées pour cet effet dans les parties qui suivent.
II.5 Modèles Seq2Seq
II.5.1 Methodes du Word-Embedding
Tout traitement commence par une représentation numérique des termes (des mots ici) pour qu’ils soient assimilables par le modèle. Une approche naïve consisterait à regrouper tous les mots de notre vocabulaire dans une liste (un dictionnaire) et de les représenter chacun par un nombre unique (un identifiant). Une autre approche, plus classique, consiste à représenter chaque mot par un vecteur de dimension égale à la taille du dictionnaire et dont tous les termes sont nuls, sauf à la position, dans le dictionnaire, du mot qu’on est entrain de vouloir représenter (on parle du one-hot encoding).
Ces représentations, et toutes celles qui s’y apparentent, ont la grande faiblesse d’être peu informatives (au point de vu sémantique). Étant artificiellement construites, sans tenir compte du sens des mots, ni de leur contexte, ces méthodes de représentation rendent la tâche de découverte des caractéristiques par les systèmes de machine learning encore plus difficile. D’ailleurs, l’une des faiblesses de la seconde méthode décrite (le one-hot encoding) est que les vecteurs sont creux (une majorité de valeurs nulles) et de dimension inutilement très grande. On pourrait directement songer à une représentation plus judicieuse pour éviter ces deux soucis, et qui consisterait à réaliser une représentation binaire des termes mais, le problème de la sémantique sera toujours là.
On recourt donc à des méthodes de représentation plus élaborées, partant du principe selon lequel le contexte d’un mot suffit pour en appréhender le sens. Ainsi, tout mot est représenté en réalisant une statistique (implicitement bien sûr) sur les divers mots qui l’accompagnent souvent, de telle sorte que les mots aux sens proches aient aussi des vecteurs très proches. Bref, on en arrive à réaliser la proposition : "Similarité sémantique implique similarité de représentation". Ce sont les méthodes classiques du word embedding (ou plongement lexical). Il s’agit par exemple des méthodes comme le Word2Vec [34, 35], Glove [39], fastText [6]...
II.5.2 Modèles séquence-à-séquence proprement dits
S’agissant des modèles séquence-à-séquence (Seq2Seq), ils ont été présentés dans la section I.5.3 (voir particulièrement la figure I.6). Il s’agit bel et bien des modèles adaptés aux tâches de synthèse, vu qu’en entrée on reçoit une séquence pour ressortir une autre séquence en sortie.
Comme nous l’avons déjà bien mentionné au précédent chapitre, nous n’allons parler que des modèles Seq2Seq de type transformer car actuellement, ils sont les plus adaptés à la tâche que nous voulons réaliser (celle de synthèse automatique). Les transformers (voir la figure I.7) sont un modèle très avantageux car en fait, au-delà de leurs performances et autres avantages, ils facilitent encore plus la recherche en NLP en rendant effectif le transfer learning (apprentissage par transfert) dans ce domaine.
L’entraînement des transformers est semi-supervisé. Il se fait en deux crans (nous les décrirons dans le cadre du NLP) :
1°) Pré-entraînement : il s’agit d’un apprentissage non supervisé, qui consiste à donner au modèle une masse colossale de données textuelles, non étiquetées, pour qu’il développe une compréhension statistique du langage qu’on veut qu’il puisse assimiler.
Au final, on obtient un modèle pré-entraîné.
2°) Affinage de l’apprentissage (fine-tuning) : Ça consiste à finaliser l’apprentissage du modèle pré-entraîné de manière supervisée pour qu’il soit en mesure de réaliser une tâche donnée du NLP (il s’agit du transfer learning en fait). Cette spécialisation, requiert une très faible quantité de données car le modèle aura déjà une représentation assez bonne de la langue. Cela pallie à la fois au problème de manque des données labellisées en NLP et de la consommation en terme de ressource énergétique des gros modèles lors de leur entraînement.
Les méthodes de pré-entraînement sont très déterminantes pour les performances finales du modèle. Ce premier entraînement du modèle a pour rôle de l’amener à construire un modèle de langage [25].
Il existe ainsi plusieurs objectifs de de pré-entraînement (pour construire le modèle de langue). On peut par exemple entraîner le modèle à :
Prédire le mot suivant : donc, lors de cet entraînement non supervisé, on fournit chaque fois au modèle une séquence de mots en lui demandant de prédire le suivant. Il s’agit d’un objectif d’entraînement dit NSP (Next Sentence Prediction) visant à transformer implicitement le transformer en un modèle de langue [11];
Deviner le mot caché (masqué) : on fournit au modèle du texte dont certaines parties (mots ou suite de mots) sont cachées. L’objectif assigné au modèle est alors de retrouver les mots masqués. On parle du MMLMasked Language Modelling [11].
Ainsi, au fur et à mesure, les paramètres du modèle s’affinent, le transformant en un modèle de langue performant. Mais, à part les deux que nous venons de mentionner, il existe d’autres objectifs de pré-entraînement [25, 54] selon les variantes de transformers et les objectifs finaux de spécialisation du modèle.
Bien que la forme classique des transformers est bel et bien celle de la figure I.7, il existe 3 types d’implémentation selon les types de tâche visées en dernier lieu :
1°) Modèles à encodeur seul : on supprime la partie décodeur. Ces modèles sont très bons pour les tâches de compréhension du langage comme la classification par exemple.
2°) Modèles à décodeur seul : on supprime alors la partie décodeur du modèle. Ils sont bons pour les tâches de génération de texte.
3°) Modèles encodeur-décodeur : ou encore modèles seq2seq proprement-dits. Ils sont bons pour les tâches demandant à la fois la compréhension et la génération des textes.
Pour illustrer ce fait, on va considérer donc 3 types de transformers [49, 52] :
1°) Like-BERT : semblables au transformer dénommé BERT Bidirectional Encoder Representations from Transformers. Ce sont des modèles du type encodeur seul. Ils sont également bidirectionnels. Donc, les phrases sont lues dans les deux sens pour mieux saisir tout le contexte.
2°) Like-GPT : donc semblables au transformer dénommé GPT (Generative Pre-trained Transformer) qui n’ont que la partie décodeur et sont dits auto-regressifs car, seules les parties précédant le mot en cours de traitement sont connues du modèle et il y a chaque fois réinjection des sorties à l’entrée.
3° Like-BART/T5 : semblables à BART (Bidirectional and Auto-Regressive Transformers) ou à T5 (Text-To-Text Transfer Transformer). C’est donc ceux du type encodeur-décodeur.
Modèles encodeurs (encoder-model) : Comme on l’a dit, pour ces modèles, on n’implé-
mente que la partie encodeur du transformer d’origine (celui de Vaswani et al. [50]). En plus de cela, ces modèles ont une couche d’attention bidirectionnelle et sont généralement appelés auto-encodeurs (auto-encoding model). Ces modèles sont principalement bons pour les tâches de NLU (Natural Language Understanding) comme la classification, le NER (Name Entity Recognition), l’extractive question-answering,...
Dans ce groupe, les modèles les plus connus sont :
ALBERT [24],
BERT [11],
DistilBERT [43],
RoBERTA [28],
Etc.
Modèles décodeurs (decoder-models): Utilisent seulement la partie décodeur, sont auto-
regressifs et par conséquent les têtes de self-attention n’accèdent qu’aux mots précédant l’étape à laquelle elles sont (pas de regard dans le futur) comme on l’a déjà un peu mentionné. Ces modèles sont particulièrement bons pour les tâches liées fortement au NLG (Natural Language Generation).
Dans ce groupe, les modèles les plus connus sont :
Les GPT (1, 2 et 3) [41],
TransformerXL [10],
Etc.
Modèles encodeur-décodeur (sequence-to-sequence models): Ces modèles utilisent l’in-
tégralité de l’architecture des transformers et sont ainsi bons pour les tâches demandant à la fois du NLU et du NLG comme la synthèse automatique abstractive, le generative question-answering et la traduction automatique.
Ici nous pouvons particulièrement mentionner les modèles comme :
BART [25],
mBART [27],
BARThez [13],
T5 [42],
mT5 [53], • PEGASUS [54],
Etc.
II.5.3 Modèle BART pour la synthèse abstractive
Le modèle BART est comme une combinaison de BERT [11] et de GPT-2 [40, 41] en terme
d’architecture et d’objectif de pré-entraînement, avec quelques optimisations supplémentaires [25]. Pour illustration, voici une image de comparaison :
Figure II.2: Comparaison simplifiée entre BERT, GPT et BART [25]
L’image II.2 étant claire, nous pouvons illustrer les diverses corruptions que peuvent subir les données pour le pré-entraînement. L’image ci-dessous l’illustre :
Figure II.3: Transformations de bruitage expérimentées pour BART [25]
Le modèle BART est bien adapté à la tâche de synthèse abstractive. C’est celui que nous
allons privilégier (les modèles dérivés de BART principalement) pour réaliser cette tâche dans notre système.
Justification du choix de BART
Le choix de BART est dû au fait que c’est le modèle que nous avons trouvé réalisant un bon compromis poids-performances. Aussi, après quelques tests, ses résultats nous ont paru être plus intéressants. En outre, l’objectif d’entraînement utilisé pour BART nous paraît assez général pour construire un modèle de langage performant. Nous justifierons plus précisément ce choix dans le chapitre qui suit, en présentant également quelques résultats des tests.
II.6 Conception de l’architecture globale du système
Il existe un large éventail des méthodes de développement des systèmes informatiques mais, en règle générale, toutes suivent les étapes suivantes [7] :
1°) Spécifications : on définit avec précision ce que fera le système (à quoi est-il destiné?);
2°) Conception et mise en oeuvre : on conçoit et on réalise le système;
3°) Validation : on teste le système pour voir s’il correspond aux objectifs précisés dans les spécifications;
4°) Évolution : ça correspond à tout ce qui vient après la livraison du produit (versionning, maintenances,...).
Ici, on ne va pas utiliser une méthode de conception particulière. Pour pouvoir tout de même y aller méthodiquement, nous nous inspirerons de ces étapes classiquement suivies lors de la conception des systèmes informatiques.
Dans ce second chapitre, nous ne présenterons que les spécifications du système ainsi qu’une ébauche de conception avec une présentation de l’architecture globale. La suite sera traitée dans le chapitre suivant.
II.6.1 Spécifications du système
Le système devra pouvoir permettre de réaliser ce qui suit :
Synthétiser les textes qui lui sont fournis en entrée (saisis directement ou importés dans fichiers .pdf non scannés, des fichiers .docx et .txt);
Servir les synthèses directement ou à travers un fichier .pdf à télécharger;
Obtenir des synthèses produites par plusieurs algorithmes et les évaluer;
Stocker les couples document-synthèse;
Faciliter le parcours des documents en soulignant les parties saillantes;
Permettre l’affinage d’un modèle de synthèse automatique (ici nous réaliserons le fine-tuning du modèle mBART ou du modèle mT5 selon celui qui se prêtera mieux à cet affinage).
C’est cela le minimum de besoins que le système devra être capable de combler.
II.6.2 Présentation des éléments du système
L’architecture globale de notre système est un trois-tiers classique. Elle se présente comme sur la figure II.4 :
Figure II.4: Architecture globale de notre système
La figure II.4 presente l’architéture du système qui est d’une architecture 3 − tiers classique. Il y a toutefois une partie qui n’est pas ici représentée car nous voulons nous donner une grande liberté de conception à son sujet. Il s’agit en fait de l’interface d’accès à l’API (Application Programming Interface), qui permettra aux développeurs de s’authentifier et générer éventuellement un token à utiliser pour implémenter leur propres interfaces devant permettre d’utiliser les services de cette API. Il s’agit donc d’une API privée.
Cette interface permettra aussi de voir toute la documentation de l’API (pour les développeurs) pour mieux utiliser ses services.
Quant au bloc interface que nous venons de présenter sur la figure II.4, c’est en nous mettant à la place d’un développeur lambda qui exploite les services de l’API.
Notre API quant à elle, est une API REST (REpresentationnal State Transfer qui aura 4 end-points principaux dédiés à la synthèse automatique (selon les besoins d’implémentation, on pourra en insérer d’autres mais qui ne concernerons probablement pas la synthèse).
Module de synthèse extraite : ce module réalisera une synthèse en combinant divers résultats d’algorithmes de synthèse extraite. Nous prévoyons, dans un premier temps, ne l’utiliser que pour des petits documents (la taille optimale sera déterminée avec les expérimentations au chapitre suivant).
Module de synthèse abstraite : ce module donnera une synthèse abstraite en utilisant l’un des transformers affinés pour la synthèse ou bien par le module qui sera en train de s’auto-améliorer au cours de l’utilisation du système (on l’a nommé expérimental, voir la figure II.7). Comme les transformers réalisent des synthèses de documents de taille généralement limitée à environ une page, nous mettrons au point, dans cette partie, une pipeline qui nous permettra d’augmenter le nombre de pages (nous pensons à 100 pages mais les expérimentations nous permettrons de choisir une taille optimale, tenant compte surtout de la rapidité).
Module de synthèse extrait simplifié : Il s’agira d’un module qui permettra la réalisation de la synthèse mais en utilisant l’un des algorithmes de synthèse extraite implémentés (soit de manière aléatoire, soit par choix de l’utilisateur).
Module expérimental : Il s’agira d’un module de synthèse abstraite qui sera essentiellement utilisé pour la synthèse des petits documents (quelques pages). Pour ce module, nous comptons mettre au point une routine d’entraînement à partir des synthèses collectées par le système, pour améliorer au fur et à mesure les performances de ce module. Nous comptons réaliser l’entraînement par transfer learning avec les transformers mT5[53] ou mBART [27] comme base. N’ayant pas encore testé cette partie, nous serons fixé sur la méthode à utiliser ainsi que le modèle de base à choisir au chapitre suivant, après les expérimentations.
On peut aussi remarquer qu’il y a un module pre-processing dans la partie interfaces. C’est par suite du fait que, pour des raisons de performance, on devra envoyer à l’API le fichier sous un format particulier. Il faudra réaliser l’acquisition des données dans divers formats (pdf,docx,...) mais les données acquises seront envoyées dans un format plus léger à l’API (du JSON pour notre cas).
La base des données, que nous avons mentionné dans la figure II.4, a un double rôle :
1°) Le stockage des données de l’utilisateur (il s’agira en fait des identifiants des interfaces qui utiliseront l’API);
2°) Le stockage des paires document-synthèse, ainsi que l’appréciation de l’utilisateur (évaluation par les utilisateurs).
II.6.3 Architecture du module de synthèse extractive
Le module de synthèse extractive se présente comme suit :
Comme nous pouvons le voir, un traitement sera fait pour adapter les données reçues à ce qui peut être traité par le système. Ce traitement consistera à ne retenir que des symboles alphanumériques, à réaliser la tokenisation des textes (chaque token sera une phrase pour cette partie) et à affecter un identifiant unique à chaque phrase.
Après cela, les données seront invariablement passées aux algorithmes de synthèse extractive, qui générerons chacun un groupe de poids des phrases. Après cela, le module de pondération et sélection réalisera successivement ce qui suit :
Acquisition des sorties de chaque algorithme de synthèse extractive (il s’agira des dictionnaires dont les clés seront les identifiant uniques des phrases et les valeurs seront les poids affectés par l’algorithme). A chaque algorithme, on donnera un poids qu’on nommera WNomdel′algo compris entre 0 et 1, selon la confiance qu’on lui porte (la somme des poids sera égale à 1 et par défaut, tous les algorithmes pourront avoir le même poids) ;
Élimination des phrases de poids faible (avec comme seuil, la taille maximale de résumé précisée par l’utilisateur);
Réarrangement de chaque dictionnaire obtenu après expulsion des phrases non significatives (les éléments seront arrangés par ordre décroissant des poids pour chaque sortie);
Donner des propabilités aux espaces des poids de chaque dictionnaire par application d’un softmax sur chacun d’eux. Ce qui donnera, pour chaque phrase de chaque dictionnaire, un nouveau poids ωphri, avec i le numéro du dictionnaire et phr le numéro de la phrase considérée dans ce dictionnaire ;
Listage complet des éléments (leurs identifiants) de tous les dictionnaires.
Pour chaque élément de la liste globale ainsi établie, appliquer la formule suivante pour obtenir un nouveau poids :
X
W = Wi ·ωphri (II.8) j
i∈D
Avec Wj le nouveau poids affecté à la phrase ayant un identifiant global j (l’identifiant là d’origine) et D la liste des dictionnaires (les sorties de chaque algorithme);
Arranger toutes les phrases par ordre décroissant dans une unique liste et sélectionner les plus haut dans la liste jusqu’à atteindre le seuil fixé (nombre de mots fixé pour la synthèse).
Constituer une liste avec les éléments sélectionnés.
Réarranger les phrases de la liste selon leur ordre de succession dans le texte d’origine.
Constituer la synthèse extraite.
Ce qui précède constitue en fait l’algorithme que nous allons implémenter pour le module de pondération et sélection.
II.6.4 Architecture du module de synthèse abstractive
Le module de synthèse abstraite n’est pas unique. Nous implémenterons plusieurs modèles (BART, BARThez, PEGASUS, mBART ou mT5 entraîné avec nos données, ainsi que tous ceux qui nous paraîtrons utiles durant les essais); Chaque module de synthèse se présentera néanmoins comme suit :
Figure II.5: Architecture globale du système de synthèse abstractive
Comme nous pouvons le remarquer, il y a toujours un module de mise en forme initial (pre-processing) qui nous permettra en gros de supprimer tous les caractères que nous ne pourrons pas gérer. Vient ensuite le module de tokenisation (le tokenizer ou tokeniseur) [49] qui consistera ici à diviser tout le texte en ses mots constitutifs et à leur affecter des identifiants numériques. Ce sont ces identifiants qui seront fournis au modèle et transformés en vecteurs par la couche d’embedding du modèle.
Le modèle quant à lui, aura toujours une architecture pareille :
Figure II.6: Architecture interne du modèle mentionné sur la figure II.5
Il s’agit en effet de l’architecture classique d’un transformer, comme présenté sur la figure I.7 à l’exception du fait qu’ici on fait explicitement apparaître l’existence de la sortie du modèle. Ça correspond au réseau linéaire suivi d’une couche de softmax tel que présenté sur la figure
I.7. Cette partie, que nous avons nommé head est différente selon les tâches [52], c’est pourquoi nous avons voulu la mentionner explicitement car, selon le besoin, on peut la modifier.
Nous devons finalement mentionner que les modules de tokenisation (nommés tokenizer en anglais) dépendront explicitement des modèles utilisés.
II.6.5 Présentation des interfaces
La partie interface nous permettra juste d’utiliser le service que nous aurons élaboré et d’évaluer par la même occasion ses performances. Elle n’est pas donc cruciale. Toutefois, voici une ébauche d’interface que nous comptons utiliser pour exploiter le service :
Figure II.7: Ébauche d’interface
Avec cette interface, on a une idée générale de la manière dont nous comptons servir le système aux utilisateurs.
II.7. CONCLUSION PARTIELLE II.7 Conclusion partielle
Dans cette partie, nous venons de présenter le résumé automatique des textes, tout en réalisant une vue d’ensemble des méthodes utilisées dans la littérature à cet effet. Nous avons mentionné que la classification des résumés que nous utiliserons sera celle les départageant en abstractive summarization et extractive summarization et que, pour notre cas, il s’agira de réaliser un système de résumé mono-document, avec une partie abstractive et une autre extractive, générant un résumé générique pour des documents de type narratif et argumentatifs.
Nous avons également listé les divers modèles de transformer adaptés à la tâche de synthèse automatique abstraite, et nous avons mentionné devoir privilégier les modèles du type BART pour des raisons qui serons précisées dans le chapitre suivant.
Enfin, nous avons réalisé la conception préliminaire du système tout en précisant que, concernant l’API, la BD (Base des Données) et les interfaces, les détails d’implémentation utiles seront précisés dans la partie dédiée à la conception proprement dite et aux tests, c’est-à-dire au chapitre suivant. Le chapitre suivant nous permettra donc finalement de préciser, réaliser et tester les méthodes que nous avons jusque-là adoptées pour la mise au point de notre système de synthèse automatique des documents.
GENERALEMENT
Place les références là où il le faut STP. Même si c’est une interpretation personnelle, elle tire la source quelque part.
Verifie aussi tous les commentaires que j’ai placé aux différents niveaux du texte
Chapitre III
Conception finale, réalisation et tests
Conclusion générale
Bibliographie
D. Adams. Combining State-of-the-art Models for Multi-document Summarization Using Maximal Marginal Relevance. University of Lethbridge, 2021.
Stergos D. Afantenos, Vangelis Karkaletsis, and Panagiotis Stamatopoulos. Summarization from medical documents: A survey. CoRR, abs/cs/0504061, 2005.
Dzmitry Bahdanau, Kyunghyun Cho, and Yoshua Bengio. Neural machine translation by jointly learning to align and translate. arXiv preprint arXiv:1409.0473, 2014.
Catherine Benincasa, Adena Calden, Emily Hanlon, Matthew Kindzerske, Kody Law, Eddery Lam, John Rhoades, Ishani Roy, Michael Satz, Eric Valentine, et al. Page rank algorithm. Department of Mathematics and Statics, University of Massachusetts, Amherst, Research, 2006.
Michael W Berry and Jacob Kogan. Text mining: applications and theory. John Wiley & Sons, 2010.
Piotr Bojanowski, Edouard Grave, Armand Joulin, and Tomas Mikolov. Enriching word vectors with subword information. Transactions of the association for computational linguistics, 5:135–146, 2017.
Boudjemaa Boudaa. Cours de génie logiciel (avec exercices résolus). Université IbnKhaldoun-Tiaret, Algérie, 02 2020.
Sergey Brin and Lawrence Page. The anatomy of a large-scale hypertextual web search engine. Computer networks and ISDN systems, 30(1-7):107–117, 1998.
O. Carton and D. Perrin. Langages formels : calculabilité et complexité : cours et exercices corrigés. Vuibert, 2014.
Zihang Dai, Zhilin Yang, Yiming Yang, Jaime Carbonell, Quoc V Le, and Ruslan Salakhutdinov. Transformer-xl: Attentive language models beyond a fixed-length context. arXiv preprint arXiv:1901.02860, 2019.
Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. Bert: Pretraining of deep bidirectional transformers for language understanding. arXiv preprint arXiv:1810.04805, 2018.
Youcef Djeriri. Les Réseaux de Neurones Artificiels. 09 2017.
Moussa Kamal Eddine, Antoine J-P Tixier, and Michalis Vazirgiannis. Barthez:
a skilled pretrained french sequence-to-sequence model. arXiv preprint arXiv:2010.12321, 2020.
Günes Erkan and Dragomir R Radev. Lexrank: Graph-based lexical centrality as salience in text summarization. Journal of artificial intelligence research, 22:457–479, 2004.
Thushan Ganegedara. Natural Language Processing with TensorFlow: Teach language to machines using Python’s deep learning library. Packt Publishing Ltd, 2018.
A. Géron. Deep Learning avec Keras et TensorFlow: Mise en oeuvre et cas concrets. Dunod, 2020.
M. Hagiwara. Real-World Natural Language Processing: Practical Applications with Deep Learning. Manning, 2021.
Patrick Hairy. Les réseaux de neurones récurrents pour les séries temporelles, Septembre 2021.
Nitin Indurkhya and Fred J Damerau. Handbook of natural language processing.
Chapman and Hall/CRC, 2010.
D. Jurafsky and J.H. Martin. Speech and Language Processing. Always learning.
Pearson, 2014.
SYNTHESE AUTOMATIQUE DES TEXTES
Min-Yen Kan, Kathleen R. McKeown, and Judith L. Klavans. Applying natural language generation to indicative summarization. CoRR, cs.CL/0107019, 2001.
Akshay Kulkarni and Adarsha Shivananda. Natural language processing recipes. Springer, 2019.
S. Lamsiyah, S. Ouatik El Alaoui, and B Espinasse. Résumé automatique guidé de textes: Etat de l’art et perspectives (guided summarization : State-of-the-art and perspectives ). In Actes de la Conférence TALN. Volume 2 - Démonstrations, articles des Rencontres Jeunes Chercheurs, ateliers DeFT, pages 55–72, Rennes, France, 5 2018. ATALA.
Zhenzhong Lan, Mingda Chen, Sebastian Goodman, Kevin Gimpel, Piyush Sharma, and Radu Soricut. Albert: A lite bert for self-supervised learning of language representations. arXiv preprint arXiv:1909.11942, 2019.
Mike Lewis, Yinhan Liu, Naman Goyal, Marjan Ghazvininejad, Abdelrahman Mohamed, Omer Levy, Ves Stoyanov, and Luke Zettlemoyer. Bart: Denoising sequence-to-sequence pre-training for natural language generation, translation, and comprehension. arXiv preprint arXiv:1910.13461, 2019.
Chin-Yew Lin. Training a selection function for extraction. In CIKM ’99, 1999.
Yinhan Liu, Jiatao Gu, Naman Goyal, Xian Li, Sergey Edunov, Marjan Ghazvininejad, Mike Lewis, and Luke Zettlemoyer. Multilingual denoising pre-training for neural machine translation. Transactions of the Association for Computational Linguistics, 8:726–742, 2020.
Yinhan Liu, Myle Ott, Naman Goyal, Jingfei Du, Mandar Joshi, Danqi Chen, Omer Levy, Mike Lewis, Luke Zettlemoyer, and Veselin Stoyanov. Roberta: A robustly optimized bert pretraining approach. arXiv preprint arXiv:1907.11692, 2019.
H. P. Luhn. The automatic creation of literature abstracts. IBM Journal of Research and Development, 2(2):159–165, 1958.
Minh-Thang Luong, Hieu Pham, and Christopher D Manning. Effective approaches to attention-based neural machine translation. arXiv preprint arXiv:1508.04025, 2015.
Mohamed Hedi Maaloul. Approche hybride pour le résumé automatique de textes. Application à la langue arabe. Theses, Université de Provence - Aix-Marseille I, December 2012. Date Soutenance 18-12-2012.
Inderjeet Mani. Automatic summarization, volume 3. John Benjamins Publishing, 2001.
Rada Mihalcea and Paul Tarau. Textrank: Bringing order into text. In Proceedings of the 2004 conference on empirical methods in natural language processing, pages 404– 411, 2004.
Tomas Mikolov, Kai Chen, Greg Corrado, and Jeffrey Dean. Efficient estimation of word representations in vector space. arXiv preprint arXiv:1301.3781, 2013.
Tomas Mikolov, Ilya Sutskever, Kai Chen, Greg S Corrado, and Jeff Dean. Distributed representations of words and phrases and their compositionality. Advances in neural information processing systems, 26, 2013.
Maali Mnasri. Résumé automatique multi-document dynamique. Theses, Université Paris-Saclay, September 2018.
Marie-Francine Moens. Automatic indexing and abstracting of document texts. Computational Linguistics, 27(1):149–149, 2001.
Ani Nenkova and Rebecca Passonneau. Evaluating content selection in summarization: The pyramid method. In HLT-NAACL 2004 - Human Language Technology Conference of the North American Chapter of the Association for Computational Linguistics, Proceedings of the Main Conference, HLT-NAACL 2004 Human Language Technology Conference of the North American Chapter of the Association for Computational Linguistics, Proceedings of the Main Conference, pages 145–152. Association for Computational Linguistics (ACL), 2004.
SYNTHESE AUTOMATIQUE DES TEXTES
Jeffrey Pennington, Richard Socher, and Christopher D Manning. Glove: Global vectors for word representation. In Proceedings of the 2014 conference on empirical methods in natural language processing (EMNLP), pages 1532–1543, 2014.
Alec Radford, Karthik Narasimhan, Tim Salimans, Ilya Sutskever, et al. Improving language understanding by generative pre-training. 2018.
Alec Radford, Jeffrey Wu, Rewon Child, David Luan, Dario Amodei, Ilya Sutskever, et al. Language models are unsupervised multitask learners. OpenAI blog, 1(8):9, 2019.
Colin Raffel, Noam Shazeer, Adam Roberts, Katherine Lee, Sharan Narang, Michael Matena, Yanqi Zhou, Wei Li, Peter J Liu, et al. Exploring the limits of transfer learning with a unified text-to-text transformer. J. Mach. Learn. Res., 21(140):1–67, 2020.
Victor Sanh, Lysandre Debut, Julien Chaumond, and Thomas Wolf. Distilbert, a distilled version of bert: smaller, faster, cheaper and lighter. arXiv preprint arXiv:1910.01108, 2019.
D. Sarkar. Text Analytics with Python: A Practitioner’s Guide to Natural Language Processing. Apress, 2019.
Barry Schiffman, Ani Nenkova, and Kathleen McKeown. Experiments in multidocument summarization. In Proceedings of the Second International Conference on Human Language Technology Research, HLT ’02, page 52–58, San Francisco, CA, USA, 2002. Morgan Kaufmann Publishers Inc.
S. Srivastava. Natural Language Processing with Python: Hands-On Labs to Apply Deep Learning Architectures to NLP Applications. Independently Published, 2021.
Brahim Tlili. Identification et commande des systèmes non linéaires : Utilisation des modèles de type NARMA. Theses, Ecole Nationale d’Ingénieurs de Tunis, July 2008.
Juan-Manuel Torres-Moreno. Automatic text summarization. John Wiley & Sons, 2014.
Lewis Tunstall, Leandro von Werra, and Thomas Wolf. Natural language processing with transformers. " O’Reilly Media, Inc.", 2022.
Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, Łukasz Kaiser, and Illia Polosukhin. Attention is all you need. Advances in neural information processing systems, 30, 2017.
Lilian Weng. Les réseaux de neurones récurrents pour les séries temporelles, Avril 2020.
Thomas Wolf, Lysandre Debut, Victor Sanh, Julien Chaumond, Clement Delangue, Anthony Moi, Pierric Cistac, Tim Rault, Rémi Louf, Morgan Funtowicz, et al. Transformers: State-of-the-art natural language processing. In Proceedings of the 2020 conference on empirical methods in natural language processing: system demonstrations, pages 38–45, 2020.
Linting Xue, Noah Constant, Adam Roberts, Mihir Kale, Rami Al-Rfou, Aditya Siddhant, Aditya Barua, and Colin Raffel. mt5: A massively multilingual pre-trained text-to-text transformer. arXiv preprint arXiv:2010.11934, 2020.
Jingqing Zhang, Yao Zhao, Mohammad Saleh, and Peter Liu. Pegasus: Pretraining with extracted gap-sentences for abstractive summarization. In International Conference on Machine Learning, pages 11328–11339. PMLR, 2020.
Jan Žižka, František Dařena, and Arnošt Svoboda. Text mining with machine learning:
principles and techniques. CRC Press, 2019.
Annexes
68 |
Nous voulons que tous les êtres humains, ensemble ou pris isolément, jeunes ou vieux, riches ou pauvres, nobles ou roturiers, hommes ou femmes, puissent pleinement s'instruire et devenir des êtres achevés. Nous voulons qu'ils soient instruits parfaitement et formés non seulement sur tel ou tel point, mais également sur tout ce qui permet à l'homme de réaliser intégralement son essence. D'apprendre à connaître la vérité, à ne pas être trompé par des faux semblants. A aimer le bien, à ne pas être séduit par le mal, à faire ce qu'on doit faire et à se garder de ce qu'il faut éviter. A parler sagement de tout, avec tout le monde. Enfin, à toujours traiter les choses, les hommes et Dieu avec prudence et non à la légère. Et à ne jamais s'écarter de son but, le bonheur | Nous voulons que tous les êtres humains, ensemble ou pris isolément, jeunes ou vieux, riches ou pauvres, nobles ou roturiers, hommes ou femmes, puissent pleinement s'instruire et devenir des êtres achevés. Nous voulons qu'ils soient instruits parfaitement et formés non seulement sur tel ou tel point, mais également sur tout ce qui permet à l'homme de réaliser intégralement son essence. D'apprendre à connaître la vérité, à ne pas être trompé par des faux semblants. A aimer le bien, à ne pas être séduit par le mal, à faire ce qu'on doit faire et à se garder de ce qu'il faut éviter. A parler sagement de tout, avec tout le monde. Enfin, à toujours traiter les choses, les hommes et Dieu avec prudence et non à la légère. Et à ne jamais s'écarter de son but, le bonheur |
Après ses études de droit à Londres, Gandhi est retourné dans son pays mais les affaires juridiques n’y tournent pas très bien pour lui.
Ce plan est adopté, ce qui mène à une lutte de sept ans au cours de laquelle des milliers d’Indiens et de Chinois sont emprisonnés (incluant Gandhi lui-même en de nombreuses occasions), fouettés ou même abattus pour avoir fait grève, refusé de s’enregistrer, brûlé leur carte d’enregistrement ou avoir résisté de manière non violente. | TP N°1 D’EDUCATION A LA PAIX Le Mahatma GANDHI KRAME KADURHA David (Matricule : 14167) Tech 1 - Génie Informatique Le 21 Août 2022 0.1 Introduction Le Mahatma Gandhi ! Qui ne connaît pas ce grand homme ? Sa pensée est connue et citée partout au monde. Plus d’un sont les hommes, et pas des moindres, qui se réclament de sa pensée. Il demeure une icône centrale de la non-violence et en est sans doute un parfait pionnier. La force de sa personnalité et des idées qu’il défend réside, non seulement en leur beauté mais surtout en leur pouvoir transformateur. Sa pratique d’une philosophie constamment mise à l’épreuve le distingue des idéalistes purs. Mais sa pensée toujours justifiée par des grands idéaux, le rapproche encore paradoxalement des idéalistes modérés. Son impact sur le monde a largement dépassé sa seule terre natale. 0.2 Brève biographie de Gandhi [1, 2] Mohandas Karamchand Gandhi est un dirigeant politique indien, important guide spirituel et icône de la non-violence. Né à Porbandar (Gujarat) le 2 octobre 1869 et mort assassiné à Delhi le 30 janvier 1948, il est communément connu et appelé en Inde et dans le monde comme Mahatma Gandhi (grande âme). Toutefois, il refusera le titre de Mahatma durant toute sa vie. Comme il a été élevé dans les valeurs hindouistes, il apprend à connaître les autres religions et la tolérance envers elles. D’ailleurs, la Baghavad-Gita est un texte de l’hindouisme qui aura une très grande influence sur lui. Suivant les coutumes de sa caste, il s’est marie à l’âge de 14 ans avec Kasturbai qui restera son épouse jusqu’à sa mort en 1942. Après ses études de droit à Londres, Gandhi est retourné dans son pays mais les affaires juridiques n’y tournent pas très bien pour lui. En 1893, il est employé comme conseiller juridique pour une société indienne en Afrique du Sud. Il y découvre comment les noirs ainsi que les indiens y sont privés de nombreux droits civiques et sont victimes de l’intolérance et du racisme. Il entreprend alors, pendant les vingt années qui suivent, un combat de résistance non violente et de non-coopération face aux autorités d’Afrique du Sud. Influsencé par l’écrivain américain Henry David Thoreau (1817-1862), il développe en 1909 ses théories du combat par la non-violence et la désobéissance civile de masse, la 2 0.3. PREMIERS PAS DANS LA NON VIOLENCE [?, ?] satyagraha, dans un ouvrage intitulé Hind Swaraj. L’Afrique du Sud a été à la foiscomme un terrain de croissance, de mûrissement, mais aussi de mise en pratique préparatoire des théories de non violence qu’il mettait au point. Ayant obtenu des avancées significatives en 1914 de la part du gouvernement sud-africain, Gandhi retourne en Inde, qu’il parcourt pour mieux la connaître. Après la Première Guerre mondiale, Gandhi, vite rejoint par des millions d’Indiens, s’oppose aux Britanniques en organisant la résistance civique et des campagnes de non-coopération (boycott des autorités, des tribunaux et des écoles,...). Gandhi conduisit ensuite aussi la marche du sel, célèbre opposition à la taxe sur le sel, et pendant la seconde guerre mondiale, refusant de soutenir les Britanniques sans la contrepartie d’indépendance immédiate, il lance un appel pour que ceux-ci quittent l’Inde : Quit India. Il s’ensuit la plus radicale révolte pour l’indépendance et de terribles répressions. Il fut emprisonné plusieurs fois en Afrique du Sud et en Inde pour ses activités ; il passa en tout six ans en prison. L’Inde accède finalement à l’indépendance le 15 Août 1947 malgré sa partition en Inde et Pakistan (partition à laquelle Gandhi s’oppose de toutes ses forces mais est obligé de l’accepter pour garantir la paix intérieure). Il ne peut empêcher le déchaînement de violence entre les musulmans et les hindous et meurt assassiné le 30 janvier 1948 par un fanatique hindou. Les combats non violents de Gandhi pour la défense des droits de l’homme eurent une influence importante sur les mouvements de libération et de défense des droits civiques dans le monde entier, notamment pour les noirs en Amérique du Nord avec Martin Luther King. Gandhi est reconnu comme le Père de la Nation en Inde, où son anniversaire est une fête nationale. Cette date a également été déclarée « Journée internationale de la non-violence » par l’Assemblée générale des Nations unies en 2007. 0.3 Premiers pas dans la non violence [1, 3] Lorsque Gandhi débarqua en Afrique du Sud, au mois de mai 1893, il avait uniquement pour mission de gagner un procès, de se procurer un peu d’argent et, peut-être, en fin de 3 compte, de commencer sa carrière : « Je tente ma chance dans l’Afrique du Sud. » Le procès exigeait la présence de Gandhi à Prétoria, capitale du Transvaal. On acheta pour lui à Durban un billet de première classe et il prit le train pour un voyage de nuit. A Maritzbourg, un blanc entra dans le compartiment et, voyant l’intrus à peau brune, se retira pour reparaître un moment plus tard avec deux employés du chemin de fer qui ordonnèrent à Gandhi de déménager dans le fourgon. Gandhi protesta en disant qu’il avait un billet de première. Cela ne fit aucun effet. Il fallait qu’il sortît. Il refusa et resta. Alors on alla chercher un policier qui le jeta dehors avec ses bagages. Gandhi aurait pu rentrer dans le train et trouver une place dans le wagon de troisième. Il préféra rester dans la salle d’attente. Il faisait froid dans ces montagnes. Son pardessus était dans sa valise que retenaient les gens de la gare; par peur d’être de nouveau injurié, il n’alla pas le réclamer. Il resta là assis toute la nuit, grelottant et dépité. Devait-il retourner aux Indes? Cet épisode était le reflet d’une situation bien plus importante. Fallait-il en prendre son parti ou simplement chercher une réparation pour son injure personnelle, terminer le procès et retourner chez lui dans l’Inde? Il s’était heurté au terrible fléau du préjugé de la couleur. Son devoir était de le combattre. Fuir en abandonnant ses compatriotes dans cette mauvaise situation aurait été lâche. Bien des années après, aux Indes, le Dr John R. Mott, un missionnaire chrétien, demanda à Gandhi : « Quelles ont été les expériences les plus décisives de toute votre vie? » En réponse, Gandhi lui raconta ce qui s’était passé cette nuit-là à la gare de Maritzbourg. Au cours de cette nuit glaciale à Maritzbourg le germe, de la protestation sociale était né en Gandhi. Mais il ne fit rien encore. Il poursuivit son travail à Prétoria. Une fois son procès terminé, Gandhi retourna à Durban et se prépara à prendre le bateau pour les Indes. Il avait séjourné dans l’Afrique du Sud douze mois environ. Avant son départ, ses associés donnèrent en son honneur une fête d’adieu. Pendant cette fête quelqu’un lui remit le Natal Mercury du jour, où il découvrit un bref écho concernant une loi proposée par le gouvernement de Natal en vue de priver les Indiens du droit d’élire les membres du corps législatif. Gandhi comprit la nécessité de résister à cette tendance. Ses amis y étaient 4 0.3. PREMIERS PAS DANS LA NON VIOLENCE [?, ?] disposés, mais sans lui, disaient-ils, « ils étaient ignorants, incapables et sans force ». Il consentit à rester un mois de plus. Il resta vingt ans, luttant pour la défense des droits des Indiens. Il remporta la victoire. Au début de la Deuxième Guerre des Boers, en 1899, Gandhi déclare que les Indiens doivent soutenir l’effort de guerre s’ils veulent légitimer leur demande de citoyenneté. Il organise un corps d’ambulanciers volontaires de 300 Indiens libres et de 800 coolies indiens, appelé le Indian Ambulance Corps, une des rares unités médicales qui secouraient les Sud-Africains noirs. Gandhi lui-même est porteur de civière à la bataille de Spion Kop. Il est décoré à cette occasion. Malgré tout, à la fin de la guerre, la situation des Indiens ne s’améliore pas, et continue même à se détériorer. En 1906, le gouvernement du Transvaal vote une nouvelle loi demandant l’enregistrement de toute la population indienne. Lors d’une rencontre de protestation à Johannesbourg le 11 septembre 1906, Gandhi met en pratique pour la première fois sa méthodologie du satyagraha (attachement à la vérité), ou protestation non violente, dont il avait exposé la théorie en 1904. Il appelle ses compagnons indiens à défier la nouvelle loi et à subir les punitions qui en résulteraient au lieu de résister par la violence. Il s’inspire en cela des préceptes, de son ami indien Shrimad Rajchandra, un ascète jaïn avec lequel il correspond jusqu’à la mort de celui-ci, et considéré comme son premier maître spirituel. Ce plan est adopté, ce qui mène à une lutte de sept ans au cours de laquelle des milliers d’Indiens et de Chinois sont emprisonnés (incluant Gandhi lui-même en de nombreuses occasions), fouettés ou même abattus pour avoir fait grève, refusé de s’enregistrer, brûlé leur carte d’enregistrement ou avoir résisté de manière non violente. C’est durant cette période que Gandhi entame une correspondance avec Léon Tolstoï, où ils échangent leurs vues sur la non-violence et la politique globale jusqu’à la mort de l’écrivain russe. La désobéissance civile culmine en 1913 avec une grève des mineurs et la marche des femmes indiennes. Bien que le gouvernement sud-africain réprime les manifestants indiens avec succès, l’opinion publique réagit violemment aux méthodes extrêmement dures employées contre les manifestants asiatiques pacifiques. Finalement le général Jan Christiaan Smuts est forcé de négocier un compromis avec Gandhi. Les mariages non chrétiens redeviennent 5 légaux et une taxe de trois livres qui représentait six mois de salaire, imposée aux Indiens qui voulaient devenir des travailleurs libres (c’est-à-dire les coolies), est abolie. C’étaient ses débuts dans la lutte non violente. L’Afrique du sud a servi de premier plateau d’application des principes qui mûrissaient en lui. 0.4 Approche de la lutte non violente [4, 5] La puissance du Mahatma prenait racine dans l’action. Il ne demandait jamais à quiconque de faire quoi que ce soit qu’il ne faisait pas lui-même. Il ne faisait que ce qu’il croyait devoir faire. Les exemples sont nombreux : la marche du sel, le rouet, le satyagraha, la destruction des vêtement de style européen, la libération des femmes et des intouchables... Il entraînait des millions de personnes dans son action. Il ne prêchait pas, il agissait, il faisait ce qu’il croyait devoir faire et les foules le suivaient par milliers, par million ou par centaines de millions. La pensée de Gandhi n’émerge pas de manière spontanée. Elle se nourrit notamment des ouvrages de Henry David Thoreau, de Léon Tolstoï ou encore de John Ruskin. Gandhi ne peut que se reconnaître dans l’expérience de Thoreau, incarcéré parce qu’il refusait de payer tout impôt à un État esclavagiste et portant la guerre au Mexique. Il reprend à son compte l’idée de désobéissance civile, laquelle résonne avec les moyens de lutte qu’il adopte en Afrique du Sud pendant le combat contre les lois sur l’immigration. Il la transforme aussi. Non sans grandes difficultés, il cherche à en faire une pratique collective. Il désire, en outre, la disjoindre absolument de toute violence, alors que l’écrivain américain, Thoreau, sans être un apôtre de la violence, n’hésitait aucunement à justifier son usage. Sur cette question, c’est l’influence de Tolstoï que l’on perçoit. Ne laissant planer aucun doute à ce propos, Gandhi affirme : « Lorsque je suis allé en Angleterre, j’étais un défenseur de la violence, je croyais en elle, et aucunement en la non-violence. Mais après que j’ai lu Le Royaume de Dieu est en vous de Tolstoï, cette absence de foi en la nonviolence s’est volatilisée. » En 1909, les deux hommes échangent quelques lettres. Dans la dernière de celles-ci, le romancier russe offre une véritable consécration à l’entreprise de 6 0.4. APPROCHE DE LA LUTTE NON VIOLENTE [?, ?] son correspondant : « Votre activité au Transvaal (Afrique du Sud), pays qui semble être aux confins de la Terre, est une réalisation centrale, l’accomplissement le plus important parmi tous ceux qui ont actuellement lieu dans le monde. » Quelque temps plus tard, Gandhi baptisera « ferme Tolstoï » son second projet de vie communautaire. On en arrive à Ruskin. Unto This Last est pour Gandhi une révélation. L’ouvrage le pousse à quitter la ville pour la campagne. En 1904, avec son ami Hermann Kallenbach, il acquiert à cette fin plusieurs hectares de terrain près de Durban et crée la communauté de Phoenix. Il s’agit là de faire l’expérience d’une vie collective où la simplicité règne. Les positions que chacun occupe au sein de la société doivent s’effacer, le travail agricole et artisanal doit acquérir une place centrale. Les locaux d’Indian Opinion sont aussi installés à cet endroit. Au fil des textes, on verra le choix d’un tel mode de vie se joindre à l’argumentaire sur le combat non violent ; il sera présenté comme son aspect constructif. Ces auteurs, Gandhi ne se contente pas de les lire : il étaie ses arguments en les citant abondamment et traduit certaines de leurs œuvres en gujarati. La traduction, chez Gandhi, n’est pas simplement une pratique textuelle, c’est aussi l’une des opérations fondamentales grâce auxquelles les concepts s’affinent et la pensée chemine. Pour qualifier la lutte qu’il invite à mener en Afrique du Sud, il parle d’abord de « résistance passive ». Mais l’expression, selon lui trop étriquée, a des connotations ambiguës : elle semble désigner « l’arme des faibles ». Invoquer, à l’instar de Thoreau, la « désobéissance civile » s’avère plus pertinent. Une telle appellation, néanmoins, malgré le génie de son auteur, ne suffit pas à décrire toute la portée de la révolte en cours. Comme « résistance passive », en outre, elle provient de la langue des colons. Si Gandhi utilise abondamment l’anglais, c’est à son grand dam ! Le respect de sa langue maternelle et de la pensée qui s’y déploie lui commande de ne pas employer de termes qui ne s’y laisseraient traduire. Gandhi organise donc en 1907, prix à la clef, un concours dans lequel il invite à trouver des équivalents à « résistance passive », « désobéissance civile » et leurs dérivés. L’appel est lancé, en gujarati, dans Indian Opinion. Avec sa précision de juriste, Gandhi commente l’ensemble des propositions qui lui sont faites, et n’en retient qu’une : la sienne. Satyagraha [être arrimé à la vérité], ainsi seront condensés en un mot les multiples aspects de la lutte non violente qu’il entend mener. Ironie de l’histoire, celui-là sonnera si juste à ses oreilles 7 que fréquemment, lorsqu’il s’exprimera en anglais, il le restituera tel quel. Il en viendra même à distinguer satyagraha et désobéissance civile, invitant à imaginer le premier comme un arbre et la seconde comme l’une de ses multiples branches. En bref donc, par satyagraha on entend le refus de se soumettre à une loi, un règlement ou aux autorités, tout en menant un combat et une action pacifiques. Le but d’une « action de satyagraha » est de vaincre l’injustice et de se libérer de l’oppresseur. L’idéologie non violente de Gandhi revient à rejeter tout ce qui détruit la personne humaine. Pour ce faire, elle emprunte plusieurs voies : la vérité, la justice, l’amour et le sacrifice de soi. Cette forme de résistance a été instaurée par Gandhi afin de lutter pour la libération de son peuple face à la couronne britannique et de la diaspora indienne, victime d’apartheid, en Afrique du Sud. Gandhi perçoit la lutte armée comme un acte de barbarie car celle-ci utilise la force des armes afin de faire taire l’adversaire ou de lui imposer son point de vue. Cause de souffrances et de nuisances, la violence est l’expression du mal. Elle entraîne une réplique de la part de celui qui la subit, s’engage alors un cycle infernal de violences successives. A l’inverse, la non-violence prônée par le Mahatma Gandhi est l’absence totale de malveillance à l’égard de tout ce qui vit. Par sa stratégie, Gandhi propose une autre façon de résoudre les conflits. Pourtant l’homme accorde aujourd’hui encore une plus grande confiance dans la lutte armée. Peut-on au contraire considérer avec Gandhi que la non-violence est une forme de lutte plus efficace que la lutte armée ? Selon Gandhi, la non-violence est préférable à la lutte armée évidemment car toute violence, de quelque nature qu’elle soit, est contraire à la vérité. 0.5 Retombées sur le plan politique et social [6] L’importance et l’influence de Gandhi sur le monde contemporain ne font aucun doute. Il est parmi les personnes ayant marqué le XXe siècle et cette influence ne s’est pas tarie avec le temps. Il s’agit d’une pensée riche et complexe qui n’a pas encore été totalement épuisée malgré les très nombreux commentaires dont elle n’a cessé de faire l’objet. 8 0.5. RETOMBÉES SUR LE PLAN POLITIQUE ET SOCIAL [?] Si l’on considère Gandhi comme l’homme qui a mené le pays à l’indépendance et voulait proposer un mode original de développement du pays, force est de déplorer un bilan plus que négatif. La condamnation à mort et l’exécution de ses assassins constituaient en elles-mêmes les preuves d’un rejet de ses idées. Au sens strict, l’Inde n’a adopté aucune des options politiques, économiques et sociales propres à la pensée de Gandhi : si l’on s’en tient à ce constat, on peut légitimement parler d’échec. Néanmoins, de son vivant, il a énormément réussi. De l’abolition des lois ségrégationnistes à l’égard des indiens en Afrique du Sud à l’indépendance de son pays, en passant par l’obtention d’une adoption unanime de ses vues, Gandhi a énormément aidé son peuple et l’humanité en général, par l’espoir qu’il fit renaître auprès des opprimés. La pensée de Ganghi est une inépuisable source de réflexion pour des millions de gens et, parmi ces derniers, de très nombreuses personnalités de toute sorte, qu’elles soient activistes, philosophes voire politiques. Parmi ces derniers, une figure vient immédiatement à l’esprit dont l’action et la personnalité furent inlassablement associées à Gandhi. Aux États-Unis, en effet, Martin Luther King est considéré comme une personnalité de premier plan et la pensée gandhienne est très présente dans son approche, justifiée aussi par les évangiles. Il fut impliqué dans le mouvement d’émancipation des noirs américains et y joua un rôle remarquable. On peut également évoquer Nelson Mandela, une autre grande figure de la non violence et de la libération des peuples. Ainsi, l’héritage de Gandhi n’est pas moindre. Une autre grande figure, et pas des moindres, inspiré fortement de la pensée gandienne est léconomiste Ernst Friedrich Schumacher. Selon Schumacher, l’économie doit se plier aux besoins de la nation et le libéralisme n’est pas adapté aux pays en développement. Elle doit aussi tenir compte de l’ensemble des ressources de la planète et c’est ainsi qu’il fut un des premiers à parler de « développement durable », concept qui fait florès aujourd’hui. Gandhi, poursuit-il, proposait trois remèdes à la maladie de l’économie : taille réduite (smallness), simplicité et non-violence. Et il prend pour autre fondement ce principe énoncé par Gandhi lui-même : « La Terre fournit assez pour satisfaire les besoins de chaque homme, mais pas pour l’avidité de chacun ». C’est encore Gandhi qui considérait qu’il fallait privilégier la production pour les masses davantage 9 que la production de masse. Schumacher montre surtout que les principes gandhiens de l’économie fondent les besoins de l’économie moderne pour un développement durable. Il faut, par exemple, recentrer le transport et la distribution sur le local pour éviter des coûts humains et environnementaux excessifs. Comme déjà mentionné, Gandhi a toujours été une source d’inspiration sans précédent pour tout adepte de la non violence et l’écho de sa pensée est toujours présent aujourd’hui. Bien que sa pensée ne s’applique explicitement ni directement par ceux qui se réclament de lui, c’est une icône mondiale centrale dans la lutte non violente. 0.6 Conclusion La pensée de Gandhi est très profonde et ne se limite pas à l’aspect pratique qui l’a accompagnée. En fait, au-delà d’être une pensée en mouvement, une pensée mise directement en pratique par son auteur, la pensée gandhienne est tout d’abord une idéologie forte. Cette pensée tient beaucoup plus compte de la source profonde des principes véhiculées que de leur mise en pratique qui peut être victime des aléas de la vie. Toute la pensée de Gandhi tourne autour de la vérité. Il dit d’ailleurs que, s’il devait choisir entre non-violence et vérité, il choisirait cette dernière en lieu et place de celle-là [5]. C’est en ce sens que, paradoxalement, bien que s’étant réclamé inspiré de l’hindouisme, Gandhi peut être considéré comme un disciple directe de la pensée de Jésus. 10 Bibliographie [1] Wikipedia.org. https://fr.wikipedia.org/wiki/Gandhi, 2022. [2] La toupie.org. https://www.toupie.org/Biographies/Gandhi.htm, 2022. [3] Louis Fischer. La Vie du Mahâtma Gandhi. Paris, 1983. [4] Ridoré Cécile Woodlyne et Vincent Nyrkah Brice Arnaud Hello, Dieumercy Junie Edwina. L’idéologie non violente de gandhi, 2014. [5] Mohandas Karamchand Gandhi, Krishna Kripalani, Guy Vogelweith, Sarvepalli Radhakrishnan, and Sarvepalli Radhakrishnan. La voie de la non-violence. Gallimard, 2004. [6] Robert Deliège. https://books.openedition.org/septentrion/13949, 2022. 11 |
Nous voulons que tous les êtres humains, ensemble ou pris isolément, jeunes ou vieux, riches ou pauvres, nobles ou roturiers, hommes ou femmes, puissent pleinement s'instruire et devenir des êtres achevés. Nous voulons qu'ils soient instruits parfaitement et formés non seulement sur tel ou tel point, mais également sur tout ce qui permet à l'homme de réaliser intégralement son essence. D'apprendre à connaître la vérité, à ne pas être trompé par des faux semblants. A aimer le bien, à ne pas être séduit par le mal, à faire ce qu'on doit faire et à se garder de ce qu'il faut éviter. A parler sagement de tout, avec tout le monde. Enfin, à toujours traiter les choses, les hommes et Dieu avec prudence et non à la légère. Et à ne jamais s'écarter de son but, le bonheur. Le Galilée de l'éducation comme on le surnommait s'est posé une question à la fois très simple et très révolutionnaire. Il s'était demandé en effet : 'Comment faire en sorte que tous les hommes accèdent à tout le savoir disponible ?'Comment offrir à tous un panorama complet de ce que les hommes savent ? C'est de l'ignorance, et de l'ignorance seule que l'homme doit se libérer.C'est de l'ignorance, et de l'ignorance seule que l'homme doit se libérer. | Nous voulons que tous les êtres humains, ensemble ou pris isolément, jeunes ou vieux, riches ou pauvres, nobles ou roturiers, hommes ou femmes, puissent pleinement s'instruire et devenir des êtres achevés. Nous voulons qu'ils soient instruits parfaitement et formés non seulement sur tel ou tel point, mais également sur tout ce qui permet à l'homme de réaliser intégralement son essence. D'apprendre à connaître la vérité, à ne pas être trompé par des faux semblants. A aimer le bien, à ne pas être séduit par le mal, à faire ce qu'on doit faire et à se garder de ce qu'il faut éviter. A parler sagement de tout, avec tout le monde. Enfin, à toujours traiter les choses, les hommes et Dieu avec prudence et non à la légère. Et à ne jamais s'écarter de son but, le bonheur. Le Galilée de l'éducation comme on le surnommait s'est posé une question à la fois très simple et très révolutionnaire. Il s'était demandé en effet : 'Comment faire en sorte que tous les hommes accèdent à tout le savoir disponible ?'Comment offrir à tous un panorama complet de ce que les hommes savent ? C'est de l'ignorance, et de l'ignorance seule que l'homme doit se libérer.C'est de l'ignorance, et de l'ignorance seule que l'homme doit se libérer. |
Dans ce chapitre, nous allons présenter brièvement le traitement automatique du langage naturel, ainsi que les techniques de traitement qui seront utiles pour la réalisation de l’objectif principal de ce travail.
Les stopwords sont, pour une langue donnée, des mots qui permettent de réaliser des phrases correctes mais qui n’apportent pas directement d’information significative sur l’ensemble (du point de vu traitement).
D’ailleurs, concernant ces dernières techniques, les modèles de l’état de l’art les plus adaptés sont les transformers et leur présentation exige une revue chronologique car en effet, pour y arriver, des modèles classiques basés sur des réseaux de neurones récurrents (RNN) ont été utilisés car plus adaptés aux données séquentielles que sont les textes.
On n’entrera pas dans le détail, vu que ce n’est pas exactement le sujet du travail mais, pour entamer la partie qui suit, il nous faut préciser que, comme pour les réseaux de neurones simples, l’entraînement exige d’appliquer une fonction de différentiation sur l’erreur produite par le système.
Et de cela on peut conclure que c’est plus intéressant d’avoir Ft et It qui prennent des valeurs entre 0 et 1 (pour modéliser la sélection) et ct devra dépendre de ces deux éléments, avec aussi l’état précédent de la mémoire à long terme.
Considérons que Ω, dont les termes sont représentés par wij, est la matrice des poids d’attention normalisés par une fonction softmax pour chaque ligne.
Les transformers sont des modèles du type encodeur-décodeur comme on peut le constater sur la figure ci-dessus (bien que certaines implémentations n’en utilisent qu’une partie selon la tâche).
7°) Module linéaire final : Il s’agit d’un réseau de neurones classique pour réaliser la déduction finale, le tout étant passé à la fin à travers une opération softmax qui permet de transformer les résultats en probabilité d’éléments générés (cela permet de choisir le terme le plus vraisemblable à générer comme sortie).
Les transformers constituent un type de modèle qui s’avère être le plus adapté (pour le moment) au résumé automatique du texte et, dans le chapitre suivant, nous commencerons par présenter les diverses spécificités du résumé automatique comme tâche du NLP, pour finir par présenter l’architecture globale du système que nous comptons élaborer.
Ensuite, nous présenterons les diverses approches utilisées pour le résumé automatique, sans oublier d’approfondir notre présentation des modèles de type transformer adaptés à cette tâche, pour finalement mentionner le modèle que nous estimons le plus adapté concernant l’approche basée sur le deep-learning pour la synthèse automatique. | UNIVERSITELIBREDESPAYSDESGRANDSLACS
FACULTE DES SCIENCES ET DES TECHNOLOGIES
APPLIQUEES
DEPARTEMENT DE GENIE ELECTRIQUE ET INFORMATIQUE
B.P 368 GOMA
www.ulpgl.net
CONCEPTION ET REALISATION D’UN
SYSTEME BASE SUR L’INTELLIGENCE
ARTIFICIELLE POUR RESUMER
AUTOMATIQUEMENT LES TEXTES
Par : KRAME KADURHA David
Travail présenté en vue de l’obtention du Diplôme d’ingénieur civil en génie électrique et informatique
Option : Génie informatique
Directeur : Prof BARAKA MUSHAGE Olivier
Encadreur : Ir MUHINDO WAMUHINDO Abdenego
ANNEE ACADEMIQUE 2021−2022
Dédicaces
Remerciements
Résumé
Sigles et abréviations
Table des matières
Dédicaces i
Remerciements ii
Résumé iii
Sigles et abréviations iv
Introduction générale 1
0.1 Contexte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
0.2 Identification et formulation du problème . . . . . . . . . . . . . . . . . . . 1
0.3 Questions de recherche . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
0.4 Hypothèses de travail . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
0.5 Justification du choix du sujet et motivations . . . . . . . . . . . . . . . . . 3
0.6 Objectifs de la recherche . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
0.6.1 Objectif général . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
0.6.2 Objectifs spécifiques . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
0.7 Méthodologie de recherche et délimitation du travail . . . . . . . . . . . . . 5
0.8 Subdivision du travail . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
Généralités sur le NLP 6
Introduction partielle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
Présentation et définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
Nécessité de l’approche par deep learning . . . . . . . . . . . . . . . . . . . 8
Quelques techniques courantes de traitement des textes . . . . . . . . . . . 9
La tokenisation (tokenization) . . . . . . . . . . . . . . . . . . . . . . 9
Les stopwords[44] . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
La racinisation (stemming) . . . . . . . . . . . . . . . . . . . . . . . . 10
La lemmatisation (lemmatization) . . . . . . . . . . . . . . . . . . . . 10
SYNTHESE AUTOMATIQUE DES TEXTES
Reconnaissance d’entités nommées (NER)[44] . . . . . . . . . . . . . 11
L’étiquetage morpho-syntaxique (POS tagging) . . . . . . . . . . . . 11
Approches du NLP . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
Les réseaux de neurones artificiels (ANN) . . . . . . . . . . . . . . . 12
Les réseaux de neurones récurrents (RNN) . . . . . . . . . . . . . . . 13
Mécanismes d’attention . . . . . . . . . . . . . . . . . . . . . . . . . 20
Les transformers . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
Conclusion partielle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
Résumé automatique et conception 29
Introduction partielle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
Présentation et définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
Catégorisation des résumés . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
Selon la fonction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
Selon le nombre de documents source . . . . . . . . . . . . . . . . . 32
Selon le genre des documents . . . . . . . . . . . . . . . . . . . . . . 32
Selon le type de sortie (résumé obtenu) . . . . . . . . . . . . . . . . . 33
Selon le type de résumeur . . . . . . . . . . . . . . . . . . . . . . . . 34
Selon le contexte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
Selon le destinataire du résumé . . . . . . . . . . . . . . . . . . . . . 35
Approches de résumé automatique . . . . . . . . . . . . . . . . . . . . . . . 35
Techniques intuitives de résumé [36] . . . . . . . . . . . . . . . . . . 35
Algorithmes classiques de résumé automatique . . . . . . . . . . . . 38
Modèles Seq2Seq . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
Methodes du Word-Embedding . . . . . . . . . . . . . . . . . . . . . 45
Modèles séquence-à-séquence proprement dits . . . . . . . . . . . . 46
Modèle BART pour la synthèse abstractive . . . . . . . . . . . . . . . 50
Conception de l’architecture globale du système . . . . . . . . . . . . . . . . 51
Spécifications du système . . . . . . . . . . . . . . . . . . . . . . . . 52
Présentation des éléments du système . . . . . . . . . . . . . . . . . 52
vi sur 68
TABLE DES MATIÈRES
Architecture du module de synthèse extractive . . . . . . . . . . . . 54
Architecture du module de synthèse abstractive . . . . . . . . . . . 56
Présentation des interfaces . . . . . . . . . . . . . . . . . . . . . . . . 58
Conclusion partielle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
Conception finale, réalisation et tests 60
Conclusion générale 61
Annexes 68
vii sur 68
Liste des figures
I.1 Réseau de neurones à une couche cachée et sans boucle [47] 13
I.2 Illustration de ce qu’est un RNN [22] 14
I.3 Comparaison entre cellules RNN classique et LSTM [18] 15
I.4 Vue fonctionnelle d’une cellule LSTM [18] 16
I.5 Cellule GRU [18] 19
I.6 Réseaux série-vers-série (en haut à gauche), série-vers-vecteur (en haut à
droite), vecteur-vers-série (en bas à gauche) et encodeur-décodeur (en bas àdroite) [16] 21
I.7 Architecture générique des transformers [50] 23
I.8 Vue éclatée d’un transformer [51] 27
II.1 Diagramme des fréquences des mots et le choix de Luhn [29] 40
II.2 Comparaison simplifiée entre BERT, GPT et BART [25] 50
II.3 Transformations de bruitage expérimentées pour BART [25] 50
II.4 Architecture globale de notre système 52
II.5 Architecture globale du système de synthèse abstractive 57
II.6 Architecture interne du modèle mentionné sur la figure II.5 57
II.7 Ébauche d’interface 58
viii
Introduction générale
0.1 Contexte
A l’ère du numérique, comme depuis l’invention de l’écriture, le texte est l’un des principaux moyens de communication et surtout, de transmission des connaissances.
Des livres aux SMS, en passant par diverses pages web, les données textuelles sont partout. En 2018, il s’agissait d’environs 80% de l’information qui circulait sur le web [23]. L’évolution de l’informatique continue à démontrer la possibilité de simplifier toujours grandement la vie de l’homme en automatisant de plus en plus l’accomplissement des tâches rébarbatives.
Certaines tâches comme celles liées explicitement à l’arithmétique semblent mieux se prêter à cette vague d’automatisation, les données numériques étant par essence celles prises en compte par les plateformes numériques.
Néanmoins, des transformations adéquates permettent de prendre en compte tout type de donnée, et le texte n’est pas exclu. C’est ainsi que, des avancées récentes en traitement automatique du langage naturel ont prouvé que le traitement du texte par l’ordinateur peut être raffiné autant qu’on veut, dans les limites du possible.
Cela est en fait une bonne nouvelle car, il s’avère que des nombreux sujets restent fermés à la majorité des gens suite au manque de temps, au regard de la quantité d’informations à consulter pour espérer avoir ne fusse qu’une lueur d’idée du domaine ou du sujet qu’on veut rapidement explorer.
C’est en ce sens que la mise au point des technologies pouvant faciliter l’exploration des connaissances présentées sous forme textuelle est salvatrice.
0.2 Identification et formulation du problème
Comme présenté dans la section précédente, la voie la plus privilégiée pour transmettre les connaissances est l’écriture. Mais, admettons que souvent, dans un long texte, la
1
SYNTHESE AUTOMATIQUE DES TEXTES
quantité d’information pertinente est moindre par rapport à la longueur du texte entier.
Comment faire donc pour identifier cette partie utile et gagner ainsi en temps ?
Il est souvent inintéressant de passer du temps à lire des textes très longs, surtout quand on veut juste avoir une compréhension suffisante en peu de temps de ce qui est écrit, ou quand le sujet traité ne fait pas partie de notre domaine de prédilection. Il est donc intéressant de mettre au point un système qui pourra assister l’homme dans la tâche de synthèse des connaissances afin de promouvoir par là-même un échange entre disciplines, ce qui est souvent très enrichissant.
0.3 Questions de recherche
Vu le problème que nous venons de présenter, une question se pose :
Est-il possible de mettre au point un système informatique capable de synthétiser les textes avec une performance de niveau humain ?
La précédente question nous amène aussi à nous demander ceci :
Un traitement purement linguistique ne pourrait-il pas nous permettre de générer des synthèses suffisamment bons pour atteindre notre objectif ?
L’inclusion des traitements basés sur l’intelligence artificielle dans les modules de synthèse est-elle obligatoire pour atteindre des bonnes performances ?
Quelle est l’architecture globale la plus adaptée pour réaliser un système de synthèse automatique performant ?
0.4 Hypothèses de travail
A la suite des questions que nous venons de soulever, nous postulons que :
Vu la complexité du langage naturel, un traitement purement linguistique ne nous permettrait pas de mettre au point un système de niveau humain en synthèse des textes;
0.5. JUSTIFICATION DU CHOIX DU SUJET ET MOTIVATIONS
Étant donné que, par définition, le langage naturel est difficile à formaliser complètement, on ne pourrait pas se passer de l’intelligence artificielle pour parvenir à réaliser un système performant;
Une architecture basé essentiellement sur des modèles du type transformer, joint à l’utilisation de quelques règles inspirées de la linguistique permettrait d’avoir un système de synthèse performant.
0.5 Justification du choix du sujet et motivations
Pour synthétiser un texte, il faut l’avoir aumoins lu! Et pourtant, pour lire un texte, il faut du temps, une denrée souvent rare.
Certains textes sont souvent fournis, accompagnés des synthèses qui sont parfois très bonnes, parfois incomplètes et parfois même très polarisées ou tout simplement mauvaises. Toutefois, avoir une synthèse à la demande serait mieux que de ne trouver que des synthèses de certains textes, sans d’ailleurs en avoir le plus souvent besoin. Nombreux sont des textes (livres, articles, pages web et autres documents) dont on voudrait avoir des bonnes synthèses, qu’on ne trouve que très rarement si on ne s’est pas découragé avant. C’est la raison pour laquelle, nous nous sommes fixé comme objectif de répondre à ce besoin précis en mettant au point une application web de synthèse des textes. Beaucoup de chercheurs en linguistique et en traitement automatique du langage naturel principalement se sont penché sur ce sujet [23, 48, 1, 21, 2].
Des solutions ont été proposées mais ne sont pas toujours à la hauteur de nos attentes (mettre au point un système de performance presqu’humaine en synthèse automatique des textes). Les plus prometteuses de ces solutions se limitent à des tailles bien réduites de texte, ce qui est déjà un grand pas mais pas suffisant évidemment. C’est pour cette raison qu’il nous semble pertinent d’étudier cette question en profondeur et de mettre au point un système complet et utilisable en dehors du monde de la recherche.
Socialement, la mise au point de ce système sera d’une très grande importance. Cela dans plusieurs axes dont principalement :
Pour les chercheurs, car il pourra faciliter le survol rapide des connaissances provenant SYNTHESE AUTOMATIQUE DES TEXTES
des filières liées à leurs domaines, sans être obligés de consulter à l’avance un tas de documents issus de ces domaines connexes;
Pour tout le monde alors, le système pourra permettre un gain de temps considérable chaque fois qu’il donnera la possibilité d’avoir accès à une synthèse de bonne qualité à la demande, en très peu de temps.
0.6 Objectifs de la recherche
Objectif général
Cette recherche a pour objectif principal de concevoir et réaliser un système (une application web) qui facilitera la génération automatique des synthèses de niveau humain.
Objectifs spécifiques
Pour arriver à bout de notre projet nous comptons :
Évaluer les failles et limites des techniques de synthèse automatique existantes;
Corriger les failles ou compléter les techniques de synthèse automatique existantes; • Établir des architectures logiques optimales pour obtenir des synthèses de qualité;
Élaborer une interface de programmation d’applications devant faciliter l’accès au service de synthèse automatique;
Mettre au point une base de données pour stocker les synthèses les mieux cotées par les usagers, en prévision d’une amélioration future du système;
Réaliser une interface web de qualité pour permettre l’accès au service par divers utilisateurs.
0.7. MÉTHODOLOGIE DE RECHERCHE ET DÉLIMITATION DU TRAVAIL
Méthodologie de recherche et délimitation du travail
Pour la mise au point du système, nous comptons utiliser les méthodes d’analyse moyennant les techniques expérimentale (pour vérifier l’adéquation du fonctionnement de l’application mise sur pied avec le problème posé), et documentaire (pour une vision approfondie des techniques couramment utilisées et d’éventuelles améliorations nécessaires).
Ce travail se focalisera sur la synthèse des documents du type informationnel (livres historiques, discours, articles de presse, lettres, nouvelles, romans et tout autre type de document ayant une faible densité d’expressions mathématiques) et il s’agira d’une synthèse mono-document.
Subdivision du travail
Excepté l’introduction et la conclusion générales, ce travail sera ainsi constitué :
Au premier chapitre, Généralités sur le traitement automatique du langage naturel, nous passerons en revu toute la théorie nécessaire à la compréhension de notre travail.
Au second chapitre, Présentation du résumé automatique et conception de l’architecture du système, nous y présenterons les aspects du résumé automatique essentiels à notre travail et y concevrons pas à pas le système de synthèse automatique des textes dans tous ses aspects (pas uniquement le côté synthèse).
Au troisième chapitre : Conception finale, réalisation et tests, nous y finaliserons la conception et expliquerons les points importants de l’implémentation en nous basant sur la conception faite, puis nous présenterons les résultats des tests que nous aurons effectué.
Chapitre I
Généralitéssurletraitementautomatique du langage naturel
Introduction partielle
Dans ce chapitre, nous allons présenter brièvement le traitement automatique du langage naturel, ainsi que les techniques de traitement qui seront utiles pour la réalisation de l’objectif principal de ce travail. Nous allons donc y présenter une vue d’ensemble des architectures généralement utilisées, en nous focalisant essentiellement sur l’aspect intelligence artificielle du NLP (Natural Language Processing).
Dans un premier temps, nous y présentons quelques techniques, souvent incontournables lorsqu’on veut réaliser une tâche de traitement du langage. Après cela, nous parcourons divers modèles qui nous permettrons d’aborder le modèle le plus adapté à la tâche de synthèse automatique des textes, qui est l’objectif de ce travail.
Présentation et définitions
Le NLP est une discipline rattachée à l’intelligence artificielle et ayant pour principal objectif, l’étude des possibilités du traitement du langage humain par des machines. La raison pour laquelle la discipline s’inscrit comme faisant partie du domaine d’intelligence artificielle est que le langage est considéré comme étant une aptitude centrale de l’intelligence humaine, étant donné que l’usage d’un langage si complexe est l’un des éléments distinctifs principaux entre humains et autres animaux.
Le NLP inclut l’ensemble d’algorithmes, des tâches et des problèmes prenant en entrée
6
I.2. PRÉSENTATION ET DÉFINITIONS
des textes produits par des humains, pour finalement ressortir des informations pertinentes à propos de ces derniers ou alors du texte modifié de façon approprié selon l’objectif poursuivi. C’est ainsi que des tâches comme la traduction automatique, la génération automatique des textes ou aussi la synthèse automatique qui va nous intéresser dans ce travail, produisent directement du texte en sortie.
Mais, dans tous les cas, la sortie est soit immédiatement utilisable, soit alors elle est prise comme entrée d’un autre système dans la chaîne de traitement du texte.
On peut toutefois se demander la raison pour laquelle on parle de traitement automatique du "langage naturel" (quitte à se demander ce qui distinguerait un langage naturel des autres langages).
Pour établir clairement cette différence, il est nécessaire de donner une définition de ce qu’est un langage formel. Pour caricaturer, un langage formel est celui pour lequel il existe un mécanisme fini, et explicite, permettant d’en faire une analyse, quand bien même il serait constitué d’un nombre infini de mots. Donc, c’est un ensemble de mots analysable par un automate (au sens mathématique du terme) [9].
On peut donc comprendre directement que le mot "naturel" est ici utilisé pour faire une distinction avec les langages formels. C’est donc dans ce sens que toutes les langues parlées peuvent être vues comme des langages naturels. Les langages formels ont une syntaxe précise et sont spécifiquement conçus pour des objectifs bien cernés (penser à tous les langages de programmation par exemple). Ils sont donc très précis tant au point de vu grammatical que sémantique.
Concernant les langues humaines usuellement utilisées, on ne peut pas dire, sans être démenti, qu’elles sont dénuées d’imprécisions. Elles regorgent en générale une grande richesse, ce qui a pour conséquence d’introduire très souvent une grande ambiguïté. Pour s’en convaincre, il suffirait par exemple de considérer la phrase suivante :
Je le vois avec mes jumelles.
Très vite on remarque que cette phrase peut s’interpréter selon le contexte. On ne sait pas, en effet, si le sujet affirme voir quelqu’un avec ses jumelles d’observation, se promenant avec ses enfants jumelles, ou si le sujet voit quelque chose en utilisant ses jumelles en tant qu’instrument.
Ceci n’est qu’un exemple particulier pour illustrer cette dichotomie inhérente à l’emploi de la langue quelle qu’elle soit, mais cela suffit pour qu’on s’aperçoive que le problème est bel et bien réel.
Ce n’est d’ailleurs pas juste au niveau des interprétations qu’on peut identifier ce problème. Il s’observe même quand on considère les règles de grammaire. Certaines règles sont ainsi admises par certains linguistes mais rejetées ou trouvées superflues par d’autres [20].
C’est tout ce qui précède qui rend le langage humain à la fois riche et challengeant quand il s’agit de doter les machines de cette aptitude. D’où la raison d’être d’une discipline à part entière dédiée à la mise au point des règles de traitement du langage naturel, le NLP
[17].
I.3 Nécessité de l’approche par deep learning
Avant l’avènement du deep learning, des techniques traditionnelles du NLP étaient utilisées pour des tâches comme la détection des spams, l’analyse des sentiments et le POS (Part Of Speech tagging). Ces approches utilisaient essentiellement des caractéristiques statistiques des séquences comme, la fréquence des mots et les co-occurences par exemple. Néanmoins, le principal désavantage de ces techniques était qu’elles ne parvenaient pas à capturer une grande partie de la complexité linguistique du langage humain, comme par exemple le contexte.
Ainsi, les développements, récents d’ailleurs, des réseaux de neurone et du deep learning ont donné des nouveaux outils, pour approcher dans une large mesure les performances humaines en terme de traitement de langage. A notre avis, ces techniques sont les plus adaptées car, tout d’abord elles se rapprochent beaucoup plus des méthodes de traitement d’information par le cerveau humain, et ensuite, il serait autrement très couteux, voir impossible, d’élaborer des modèles capables d’embrasser toute la complexité du langage humain.
Le deep learning pour le NLP est axé grosso-modo sur la représentation d’entités textu-
I.4. QUELQUES TECHNIQUES COURANTES DE TRAITEMENT DES TEXTES
elles et le traitement élaboré sur ces représentations, de manière à en tirer des informations pertinentes ou à réaliser des transformations appropriées. Cette représentation constitue d’ailleurs un problème fondamental car c’est d’elle que dépend toute la chaîne de traitement des systèmes de NLP [46].
I.4 Quelquestechniquescourantesdetraitementdestextes
Dans cette partie, nous allons présenter diverses techniques intervenant dans le traitement des données de langage naturel. Ces traitements seront présentés de manière à dégager un pattern presque récurrent en terme de structure de traitement pour divers systèmes de NLP. Pour cela, nous allons d’abord présenter certaines manipulations réalisées sur les données en guise de pré-traitement. Puis, nous évoquerons deux techniques utiles aux tâches relevant du NLU (Natural Language Understanding).
I.4.1 La tokenisation (tokenization)
Manipuler des longues chaînes de caractères ne serait pas envisageable. Mais en informatique on est habitué à traiter des structures en terme de listes, de tableaux, de vecteurs,... Le tout étant représenté numériquement. C’est pour cela que l’opération consistant à réduire un corpus de texte en ses tokens est centrale.
Dans notre contexte, la tokenisation est une opération qui consiste à décomposer un texte
(une suite de phrases) en ses phrases constitutives ou une phrase en ses mots constitutifs. Cela est une première étape pour diminuer la difficulté inhérente au traitement des textes. En considérant la décomposition en mots, pour diminuer au maximum les difficultés de traitement et l’ambiguïté, on ajoute à la tokenisation d’autres traitements qui sont en général : la désaccentuation, le passage aux minuscules, la suppression des stopwords, la racinisation et la lemmatisation appliqués aux tokens obtenus [22].
I.4.2 Les stopwords[44]
Les stopwords sont, pour une langue donnée, des mots qui permettent de réaliser des phrases correctes mais qui n’apportent pas directement d’information significative sur l’ensemble (du point de vu traitement). Il s’agit par exemple en français de mots comme de, la, le,... ce qui correspond en gros aux prépositions, aux articles, aux conjonctions,... Il faut néanmoins préciser qu’on peut très bien décider de ne pas supprimer certains stopwords.
I.4.3 La racinisation (stemming)
La racinisation ou stemming en anglais consiste à découper le token de manière à n’en conserver qu’une partie qui semble rendre mieux compte de ce dont dérive ledit token. Seulement, ceci est fait sans se fier à ce que le résultat obtenu en tant que racine fasse partie du dictionnaire de la langue considérée [44, 22].
Cela permet juste de maximiser la probabilité de confondre des mots semblables qui sont présentés différemment dans diverses phrases. C’est à des fins de comparaison de phrases et de réduction d’ambiguïté. Pour illustration, on voudrait par exemple que si on retrouve les éléments "manger", "mange", "mangeable", "mangeons" dans un corpus, qu’ils soient transformés en un seul terme "mange". Cela se fait en découpant tous les mots qui ajoutent
d’autres affixes au terme. C’est cela en bref le stemming et, contrairement à ce que le nom suggère, il ne s’agit pas exactement de trouver la racine des mots (les mots dont ils dérivent). L’opération consiste essentiellement à réaliser un découpage des mots de manière à en supprimer les affixes.
I.4.4 La lemmatisation (lemmatization)
La lemmatisation quant à elle est une opération plus soignée mais plus coûteuse en terme d’implémentation [44, 22]. Elle réalise en fait ce qui n’est pas réalisé par le stemming en ce sens que lemmatiser un token consiste à la transformer en sa racine, et cette dernière doit être présente dans le dictionnaire. Par exemple, pour un mot au pluriel, il s’agira de le remplacer par son singulier, un verbe conjugué, par son infinitif,... Pour illustration, la
I.4. QUELQUES TECHNIQUES COURANTES DE TRAITEMENT DES TEXTES
lemmatisation consisterait à transformer par exemple "va", "allions", "irons" et "allé" par "aller" et "une" et "des" par "un". Cette tâche est grandement facilitée par des techniques de deep learning.
L’obtention des tokens peut également conduire à des tâches plus élaborées comme la détection des entités nommées et l’étiquetage morpho-syntaxique. Il s’agit des tâches très importantes que nous devons nécessairement mentionner.
I.4.5 Reconnaissance d’entités nommées (NER)[44]
La détection des entités nommées (Named Entity Recognition ou NER) consiste à repérer tout ce qui correspond à des noms de personnes, des noms d’organisations ou d’entreprises, des noms de lieux, des quantités, des distances, des valeurs, des dates ou tout autre élément qui constitue une nomination d’une entité existante précise dans un texte donné. Cette tâche est visiblement très importante dans la phase d’interprétation des données textuelles et il s’agit d’un simple problème de classification.
I.4.6 L’étiquetage morpho-syntaxique (POS tagging)
Le Part-Of-Speech tagging est une tâche consistant en gros, à associer aux éléments des textes, des informations grammaticales. En général, il s’agit d’associer aux termes des textes, leur nature grammaticale. Cela consisterait à dire que tel élément est un nom, tel autre un verbe,...[44, 22]
Cette tâche n’est pas une fin en soi. En effet, c’est une première étape dans l’analyse structurelle des textes, permettant de déduire diverses dépendances du point de vu linguistique. Elle est fortement facilitée par des approches basées sur le deep learning comme c’est le cas aussi pour la reconnaissance d’entités nommées.
Nous allons passer sous silence certains autres concepts du NLP comme le sacs de mots et le word embeddings dont nous parlerons dans la partie qui va suivre et qui présentera le résumé automatique, en tant que tâche du NLP.
I.5 Approches du NLP
Comme cela a été maintes fois mentionné, deux approches majeures sont d’usage pour traiter automatiquement les données de langage naturel. Il s’agit de l’approche numérique et de l’approche symbolique ou linguistique. Mais les deux approches sont dans la majorité des cas complétées par certaines heuristiques [31].
En ce qui nous concerne, l’approche sera essentiellement numérique avec un penchant prononcé pour les techniques du deep learning. D’ailleurs, concernant ces dernières techniques, les modèles de l’état de l’art les plus adaptés sont les transformers et leur présentation exige une revue chronologique car en effet, pour y arriver, des modèles classiques basés sur des réseaux de neurones récurrents (RNN) ont été utilisés car plus adaptés aux données séquentielles que sont les textes. Ensuite, le constat de leur mémoire limitée a fait à ce qu’on les modifie pour obtenir des unités à mémoire plus large dont les LSTM(Long Short-Term Memory) et les GRU(Gated Recurrent Unit). Furent ensuite introduits les mécanismes d’attention qui améliorèrent les techniques, aboutissant finalement aux modèles dits transformers, plus adaptés à des tâches de NLP élaborées.
I.5.1 Les réseaux de neurones artificiels (ANN)
Les réseaux de neurones artificiels (Artificial Neural Network ou ANN) sont un ensemble de neurones (artificiels) assemblés pour résoudre des tâches considérées comme requérant une certaine intelligence. Le neurone artificiel est un algorithme élaboré en s’inspirant du modèle théorique simplifié d’un neurone naturel. Il s’agit essentiellement d’une fonction d’agrégation ayant pour rôle de réaliser une somme pondérée des entrées qui lui sont présentées et d’une fonction d’activation qui formate la sortie de la fonction d’agrégation selon les valeurs attendues en sortie [12].
Les neurones sont généralement assemblés par couche comme présenté sur la figure qui suit :
Figure I.1: Réseau de neurones à une couche cachée et sans boucle [47]
Ce qui vient d’être présenté est suffisant pour avoir une idée globale de ce qu’est réellement un réseau de neurones artificiel. Néanmoins, nous pousserons plus loin pour toucher le plus vite possible aux modèles qui nous intéressent dans ce travail.
I.5.2 Les réseaux de neurones récurrents (RNN)
Un RNN(Recurrent Neural Network) est un type de réseaux de neurones conçu en principe pour traiter les données séquentielles, comme les données textuelles,...
La principale différence structurelle entre les ANN simples et les RNN est l’existence des connexions de récurrence dans ces derniers. Il s’agit des boucles permettant la prise en compte des sorties passées dans le traitement final des données [16].
Pour l’illustrer, rien de mieux qu’une image représentant la structure fonctionnelle des réseaux de neurones récurrents :
Figure I.2: Illustration de ce qu’est un RNN [22]
Où xi, hi et A représentent respectivement les entrées (à chaque pas temporel i), les états internes qui en résultent et le module récurent utilisé.
Pour une meilleure compréhension, une présentation formelle serait plus commode : Soient Wx la matrice des poids associée au vecteur d’entrée x, Wy une matrice associée au vecteur de sortie y et Wh celle associée au vecteur représentant les états cachés du réseau, avec bh et by respectivement les vecteurs des biais des neurones pour l’état caché et pour la sortie. Si on nomme aussi par yt la sortie du réseau à un instant donné t, on aura [15] :
ht
yt
= fact (Wxxt +Whht−1 +bh)
= gact Wyht +by
(I.1)
On voit très bien que la sortie du système dépend non seulement de l’entrée, mais aussi de l’état du système (h).
Les fonctions d’activation fact et gact qui sont mentionnées dans les équations I.1 représentent respectivement la tangente hyperbolique tanh et la fonction dite sof tmax [15].
L’entraînement des réseaux de neurones récurrents se fait de la même façon que pour les réseaux de neurones simples (avec uniquement une différence due au fait que pour le RNN on prend en compte le temps). On n’entrera pas dans le détail, vu que ce n’est pas exactement le sujet du travail mais, pour entamer la partie qui suit, il nous faut préciser que, comme pour les réseaux de neurones simples, l’entraînement exige d’appliquer une fonction de différentiation sur l’erreur produite par le système. Il s’agit de la fonction gradient. Mais, comme ici le gradient tient compte des grandeurs précédentes dans le temps, il y a un certain nombre de termes multiplicatifs qui peuvent amener le modèle à ne jamais converger ou au contraire, à la saturation. C’est le problème classique d’évanouissement (disparition) des gradients ou d’explosion des gradients [15].
En réponse au problème de disparition des gradients, les cellules LSTM (Long Short-Term Memory) sont utilisées en lieu et place des cellules RNN normales.
Les cellules LSTM
Les cellules LSTM (pour Long Short-Term Memory) sont utilisées en lieu et place des cellules RNN classiques (dites vanilla) pour permettre au réseau de traiter des séquences de plus en plus longues sans perte rapide d’information [16]. Pour cela, des éléments de contrôle de la mémoire de la cellule sont ajoutés. Pour illustrer nos propos, voici une image qui nous permettra de différencier une cellule RNN classique d’une cellule LSTM :
Figure I.3: Comparaison entre cellules RNN classique et LSTM [18]
Présentée comme cela, la cellule LSTM semble superflue mais si on présentait les équations associées à un réseau fait de ces cellules, on se rendra compte que c’est plutôt intuitif. Pour aborder les équations associées, considérons l’image suivante :
Figure I.4: Vue fonctionnelle d’une cellule LSTM [18]
Une cellule LSTM se comprend en la considérant comme constituée d’un ensemble de portes avec des fonctions bien particulières. Il s’agit d’une porte d’entrée, une porte d’oubli et une porte de sortie.
Il est évident que, pour chacune de ces portes que nous nommerons, à un instant t donné par It, Ft et Ot, le système doit apprendre ses paramètres en fonction de l’entrée et de l’état interne. Mais on doit aussi remarquer que, l’état est défini par deux paramètres au lieu d’un seul comme pour les RNN simples. Il s’agit, à un instant t donné, de ht (considéré comme état à court terme) et de ct (qui est un état à long terme mais dont le contenu est contrôlé, au vu de l’architecture de la cellule).
De ce que nous venons de dire, nous pouvons conclure que Ft, It et Ot sont des fonctions de Xt et de ht−1 aux poids près. On sait aussi que, si on veut une mémoire à long terme contrôlée, la valeur finale de ct doit être mise à jour en repérant ce qui doit être oublié parmi les éléments qui étaient précédemment dans la mémoire, pour y ajouter ensuite ce qui est sélectionné comme pertinent à l’entrée. Cela revient à utiliser Ft et It comme des portes de contrôle (ou de sélection). Et de cela on peut conclure que c’est plus intéressant d’avoir Ft et It qui prennent des valeurs entre 0 et 1 (pour modéliser la sélection) et ct devra dépendre de ces deux éléments, avec aussi l’état précédent de la mémoire à long terme.
Il est aussi vraisemblable que, l’état à court terme doit provenir de la mémoire à long terme (ça correspondra à une sélection de ce qui doit être pris en compte directement dans la mémoire à long terme). Cet état ht doit par conséquent dépendre de ct (il faut néanmoins noter qu’une autre approche serait possible ici, mais celle-ci est déjà pertinente). Finalement, on sait que la sortie finale doit nécessairement dépendre de l’état interne de la cellule. Il va ici s’agir de ht vu que la cellule est développée par analogie avec le processus de mémorisation des systèmes naturels (mémoire à court terme correspondant à la mémoire de travail).
De ce qu’on vient de dire on peut tirer que, fondamentalement on doit avoir :
F
t
I t
O
t
c t
h t
y t
= F (Xt,ht−1) = G(Xt,ht−1) = J (Xt,ht−1)
= K(ct−1,Xt,ht−1)
= L(ct)
= M(ht)
(I.2)
Avec F ,G,J ,K,L,M des fonctions dépendant des coefficients considérés (poids et/ou éléments de sélection qui sont les diverses portes définies).
Une implémentation classique de ce raisonnement se présente comme suit [16, 15] :
F
t
I t
O
t
c t
h t
y t
= σ Wf xXt +Wf hht−1 +bf
= σ WixXt +Wf iht−1 +bi
= σ (WoxXt +Wohht−1 +bo)
= Ft ◦ct−1 +It ◦tanh(WcxXt +Wchht−1 +bc)
= Ot ◦tanh(ct)
= Wyhht +by
(I.3)
Il faut remarquer qu’on a utilisé la fonction sigmoïde σ pour restreindre les valeurs des sélecteurs (portes) entre 0 et 1, puis on a utilisé le produit de Hadamard (produit terme à terme des matrices) pour réaliser effectivement la sélection grâce aux portes, en diminuant les termes dont les valeurs correspondantes des portes sont proches de 0 et en essayant de conserver ceux dont les valeurs correspondantes des portes sont proches de 1.
Cette implémentation peut être modifiée, surtout en ce qui concerne les fonctions d’activation utilisées (σ et tanh), et en particulier la fonction d’activation de finalisation tanh ici, mais c’est l’une des plus optimales.
Le seul problème qui demeure est que le nombre de termes à apprendre est très grand. Cela a fait à ce qu’on puisse essayer de le diminuer en implémentant le GRU (Gated Recurrent Unit) poussant un peu plus loin l’abstraction des portes pour diminuer le nombre de paramètres.
Les cellules GRU
Les cellules GRU (Gated Recurrent Unit) sont une autre implémentation des cellules des réseaux de neurones récurrents comme les LSTM à la différence près que, bien que partant de la même idée fondamentale évoquée précédemment, les GRU apparaissent comme une simplification des LSTM.
Elles possèdent néanmoins des performances comparables en ce qui concerne la prédiction des séries temporelles,... Les simplifications sont réalisées au niveau des états cachés et des portes. On conserve un seul état caché h (quitte à le contrôler à l’interne pour implémenter la mémorisation à long terme et à court terme). Et pour les portes, on fusionne les portes de sélection des entrées avec celle des éléments à oublier (donc les portes I et F) pour former une porte dite de mise à jour (porte qui sera appelée update ou U). La porte de sélection des éléments de sortie quant à elle, est transformée en porte de réinitialisation.
Ces deux portes (de mise à jour et de réinitialisation) sont en fait implémentées de façon identique que celles des cellules LSTM. La particularité des GRU se situe principalement au niveau de la gestion de la mémoire (l’implémentation du processus de mémorisation) car, ayant supprimé la distinction long-terme/court-terme, il fallait bien trouver un mécanisme devant permettre de bien gérer les deux aspects de la mémoire avec un seul état interne conservé.
C’est ainsi que, la porte de mise à jour (porte U) est introduite dans le calcul de l’état h pour assurer la sélection du type de mise à jour à effectuer. Il s’agit de faire en sorte que, selon l’état interne et l’entrée, tout l’état interne précédent soit considéré mais que certains éléments soient complètement modifiés, selon le besoin, et d’autres presque conservés.
Ainsi donc, h devient une combinaison d’éléments provenant de l’état interne précédent avec ceux provenant des nouveaux calculs effectués par la cellule (en fonction de l’entrée et de l’état interne précédent). Le comportement est alors le suivant :
Quand le vecteur de mise à jour a un terme proche de 1, cet état interne est presque conservé. Par conséquent, sa mise à jour est presque ignorée. Quand c’est plutôt 0, l’état interne précédent est presque ignorée et une mise à jour complète de cet état est effectuée.
La formulation mathématique permet de mieux en saisir le fonctionnement [16, 15] :
U
t
R
t
h t
y t
= σ (WuxXt +Wuhht−1 +bu)
= σ (WrxXt +Wriht−1 +br)
= Ut ◦ht−1 +(1−Ut)◦tanh(WhxXt +Whr (Rtht−1)+bc)
= Wyhht +by
(I.4)
Et pour illustration, on peut considérer l’image suivante :
Figure I.5: Cellule GRU [18]
Il faut noter que sur cette image (figure I.5), l’implémentation de la mise à jour est l’inverse de celle que nous avons décrit par les équations I.4. C’est-à-dire que les termes Ut et (1−Ut) sont permutés. Mais aussi, ici Zt représente Ut.
Ces modèles fonctionnent très bien et certaines implémentations permettent d’améliorer encore leurs performances. Ils sont néanmoins lents à entraîner, surtout à cause de l’aspect temporel. Parmi les techniques d’amélioration des performances, une peut être considérée car elle a un rapport direct avec notre travail. Il s’agit des mécanismes d’attention [3].
I.5.3 Mécanismes d’attention
Les mécanismes d’attention sont en bref des techniques permettant de lutter contre la perte de mémoire qu’on constate par exemple dans les cellules récurrentes ci-haut décrites, en se focalisant sur des éléments les plus importants à chaque traitement. Le travail consiste donc à repérer, pour chaque entrée, les éléments sur lesquels se focaliser.
C’est là qu’interviennent donc ces mécanismes.
L’une des implémentations les plus commodes est l’attention globale [30].
Pour l’expliquer, nous allons considérer une architecture jusque là passée sous silence, mais qui permet aux modèles introduits là haut de s’utiliser efficacement pour les tâches courantes du NLP en particulier. Il s’agit des modèles dits encodeur-décodeur.
En effet, lorsqu’on a un modèle à séquence fonctionnel, les objectifs peuvent être multiples. On peut vouloir :
1°) fournir une série d’éléments en entrée et ressortir une autre série (utile pour la prédiction de la valeur des actions par exemple,... );
2°) fournir un série en entrée mais faire ressortir un seul élément ou vecteur (utile pour la classification des textes, l’analyse des sentiments,...);
3°) fournir un vecteur plusieurs fois en entrée et produire une série (pour la génération des légendes pour des images par exemple,...);
4°) on peut aussi avoir un réseau série-vers-vecteur, appelé encodeur, suivi d’un réseau vecteur-vers-série, appelé décodeur (très utile pour la traduction et la synthèse automatique par exemple,...). Il s’agit du modèle encodeur-décodeur.
Une illustration par image sera suffisante :
Figure I.6: Réseaux série-vers-série (en haut à gauche), série-vers-vecteur (en haut à
droite), vecteur-vers-série (en bas à gauche) et encodeur-décodeur (en bas à droite) [16]
.
L’élément (le vecteur d’état) passé entre l’encodeur et le décodeur est dit vecteur de contexte. Il représente en quelques sortes un condensé des informations passés à l’entrée de l’encodeur. Toutefois, plus la séquence d’entrée est longue, plus le risque que la mémoire de certaines séquences puisse s’étioler devient grand. Ainsi, si par exemple on est entrain de vouloir traduire une longue phrase, on peut finir par transmettre un vecteur de contexte qui a perdu toute information sur les premiers éléments de la séquence passée en entrée. C’est pour cela qu’au lieu de passer un vecteur de contexte général, les mécanismes d’attention permettraient ici de ne se focaliser que sur certaines informations lors du traitement d’un élément particulier de la séquence (en ayant évidemment passé tous les états internes passés au décodeur). Pour le réaliser concrètement, le mécanisme d’attention global consiste à formater le vecteur de contexte en fonction des éléments de l’encodeur à prendre en compte lors du traitement par le décodeur.
Considérons que Ω, dont les termes sont représentés par wij, est la matrice des poids d’attention normalisés par une fonction softmax pour chaque ligne. Et que Π, dont les termes sont représentés par αij, est la matrice des poids d’attention générée par le mécanismes avant normalisation.Si les éléments ci représentent à chaque fois le vecteur contexte final à l’étape i de décodage et les hj sont les vecteurs d’état interne de l’encodeur, l’attention globale revient à réaliser la manipulation suivante, pour formater le vecteur de contexte à prendre en compte pour l’élément en cours de traitement [30] :
wij = sof tmax(αij) = Pekαeijαik (I.5)
ci = Pj wijhj
La dernière relation du système I.5 revient à réaliser une somme pondérée des vecteurs d’état internes passés de l’encodeur, selon l’importance de chaque état pour le traitement en cours. De ces équations il faut aussi remarquer que la notation des sommations n’est pas rigoureuse. Cela est volontaire car c’est intuitif (on réalise des sommations sur tous les éléments).
Plusieurs techniques arrivant à réaliser l’attention existent. En général, comme on peut d’ailleurs le déduire des relations de l’attention globale, ces mécanismes étaient utilisés dans le cadre des réseaux récurrents. Une question s’est toutefois naturellement posée : ne pourrait-on pas se passer des RNN pour mettre au point des réseaux complètement basés sur l’attention ?. La réponse est oui, avec des ajustements adéquats pour résoudre les faiblesses des modèles classiques dans le traitement des données séquentielles. C’est cela qui a conduit aux modèles dits transformers [50].
I.5.4 Les transformers
Il s’agit des modèles dont l’architecture générique se présente comme suit :
Figure I.7: Architecture générique des transformers [50]
Les transformers sont des modèles du type encodeur-décodeur comme on peut le constater sur la figure ci-dessus (bien que certaines implémentations n’en utilisent qu’une partie selon la tâche). Ils sont essentiellement basé sur les mécanismes d’attention, se passant de la récurrence [16, 15].
Nous donnerons une explication succincte de chacun des modules présents dans l’image I.7. En effet, présentons les modules selon l’ordre dans lequel les données traversent le modèle :
1°) Moduled’embedding : Nous savons que les données textuelles doivent être présentées au modèle sous forme numérique. Elles doivent donc être transformées avant de les passer aux parties suivantes. Néanmoins, vu que la représentation des entrées a
un impact significatif sur les performances d’un modèle, cette représentation doit être bien choisie. Un choix intuitif, et qui s’avère être performant, est de tout faire pour que si deux termes ont des sens proches, ils aient aussi des représentations vectorielles proches. Cela est réalisé par différentes techniques que nous présenterons dans le chapitre suivant, mais c’est là le rôle de la couche d’enchâssement (embedding).
2°) L’encodage positionnel (positionnal encoding) : Ce module ajoute l’information sur la position relative de chacun des éléments placés en entrée par rapport aux autres. Cela pallie au problème de perte d’information sur la position des mots quand on utilise un réseau non séquentiel comme les réseaux récurrents. Donc, la position de chaque terme de la séquence placée en entrée est encodée dans un vecteur puis ajoutée à l’encodage global du terme. L’un des encodages les plus utilisés est celui basé sur les fonctions trigonométriques tel qu’introduit dans [50].
3°) Module d’auto-attention : La couche d’attention, présentée en première position dans la boîte de l’encodeur, est en fait une couche dite de self-attention car elle opère sur la même séquence d’entrée. L’opération est réalisée pour permettre au modèle d’avoir une représentation de l’importance des termes dans la séquence d’entrée, les uns par rapport aux autres.
Pour illustration, considérons la phrase suivante : Walter est malade, il préfère se reposer.
Dans cette phrase, l’un des constats qu’on peut faire est que, le nom "Walter" est beaucoup plus lié au pronom "il" qu’au verbe "préférer". C’est à l’établissement des tels liens dans les représentations que sert le module d’auto-attention ici présenté. Il est important que ce lien soit implicitement présent dans les représentations, pour que le traitement soit efficace comme on l’a mentionné lors de la présentation des mécanismes d’attention. Donc cette couche est en fait un prolongement de celle d’embedding. Ici, le mécanisme d’attention utilisé est différent de celui qui a été présenté là-haut (attention globale). Il s’agit ici d’un mécanisme plutôt basé sur le produit scalaire mis à l’échelle (scaled dot-product). En effet, très brièvement, l’idée du scaled dot-product attention consiste à opérer une recherche des termes sur lesquels focaliser l’attention de la même façon qu’on réalise la recherche de la signification d’un mot dans un dictionnaire. Supposons qu’on veuille avoir la signification d’un mot dont on ne connaît pas l’orthographe exacte. Pour retrouver ce dernier dans un dictionnaire, il suffit de rechercher le mot qui ressemble le plus à l’orthographe que nous estimons être la plus vraisemblable. Mathématiquement, cette recherche de similitude correspond à un produit scalaire.
Similairement, le scaled dot-product consiste à générer trois éléments qui sont la clé ou key k, la valeur ou value v et la requête ou query q. La requête correspond au mot
qu’on cherche (orthographié selon ce que nous pensons), la clé correspond au mot présent dans le dictionnaire et la valeur correspond à la signification associée. Si on supposait qu’il existe plusieurs termes du dictionnaire qui s’orthographient presque de la même façon que le mot qu’on cherche, on devra passer par une mesure de similarité avant de se décider sur le sens le plus probable. Cela correspond à réaliser le produit de tous les k par les q présents, puis à normaliser l’ensemble des résultats de manière à ce qu’ils représentent des mesures de probabilité, et finir par choisir le sens v le plus probable.
Pour aller plus vite, on implémente ce processus en considérant tous les k, q et v au même moment de manière à réaliser le calcul une fois pour toutes. Cela revient à regrouper tous les k, q et v dans des matrices K, Q et V . Ce qui donne la relation qui définit l’attention par produit scalaire mis à l’échelle [50] :
Q ·KT
Attention(Q,K,V ) = sof tmax p ·V (I.6) dk
Dans cette relation, expression I.6, le terme pdk permet de mettre à l’échelle le résultat du produit scalaire de Q par K, c’est-à-dire Q·KT . Il faut noter que dk est la dimension d’une clé, et que cette normalisation permet d’améliorer les performances du modèle mais elle n’est pas la seule envisageable.
Il est aussi important de remarquer que la couche d’attention utilise trois termes pour arriver à bout du problème. Ces trois termes sont obtenus par une transformation linéaire dont les poids sont appris à travers un réseau de neurones simple.
Il faut aussi noter que l’on utilise parallèlement plusieurs modules d’attention pour capture toutes les caractéristiques des séquences (on parle de multi-head attention). Pour une plus ample illustration, voir la figure I.8.
4°) Le module feed-forward : Il s’agit en fait d’un réseau de neurones de propagation avant classique (réseau à couches ajoutées de façon séquentielle). Il permet de réaliser le traitement qui fait suite à l’attention.
5°) Couche d’attention encodeur-décodeur : Il s’agit de la couche qui reçoit les données en provenance de l’encodeur. Il s’agit ici d’une couche d’attention et non d’autoattention comme c’était le cas pour la première couche de l’encodeur. En effet, contrairement à la couche de self-attention, pour laquelle tous les trois paramètres sont calculés à partir de la même séquence, la couche d’attention ici prend les clés K et valeurs V provenant de l’encodeur mais une requête Q provenant du décodeur.
Une autre couche feed-forward suit celle-ci et a le même rôle que celle de l’encodeur.
6°) Module d’attention masquée : Il s’agit de la première couche du décodeur. C’est aussi un module de self-attention auquel on ajoute le masquage. Ce module est dit masqué suite au fait que, comme le décodeur est un module de génération, on ne regarde que les termes précédemment générés, en masquant les termes qui seront probablement générés aux pas d’après. Cela est réalisé en rendant juste leurs probabilités nulles.
7°) Module linéaire final : Il s’agit d’un réseau de neurones classique pour réaliser la déduction finale, le tout étant passé à la fin à travers une opération softmax qui permet de transformer les résultats en probabilité d’éléments générés (cela permet de choisir le terme le plus vraisemblable à générer comme sortie).
Cette explication simplifiée se comprend mieux si on y joint la vue éclatée suivante :
I.6. CONCLUSION PARTIELLE
Figure I.8: Vue éclatée d’un transformer [51]
Les transformers, ici succinctement présentés, sont un modèle très adapté aux tâches de traitement automatique du langage naturel. C’est un modèle incontournable vu aussi que ses traitements peuvent être facilement parallélisés. Cela est rendu possible par le fait que l’architecture des transformers est parallèle par essence.
I.6 Conclusion partielle
Nous venons de réaliser une vue d’ensemble du domaine de traitement automatique du langage naturel, ainsi que diverses techniques couramment utilisées. Pour cela, nous avons tout d’abord justifié la préséance des modèles basés sur le deep learning pour diverses tâches du NLP.
Ensuite, nous avons évoqué les technique de pré-traitement des textes, souvent incontournables, comme la réduction des séquences en leurs tokens constitutifs, la suppression des mots fréquents mais n’apportant pas assez d’informations et la réduction des mots en leurs racines respectives. Nous y avons aussi joint quelques techniques utiles à la compréhension du langage humain comme le POS tagging et la reconnaissance d’entités nommées. Ce qui précède nous a finalement conduit à présenter les modèles courants du NLP basés sur les RNNs et, nous avons terminé par la présentation de l’architecture transformer, modèle que nous utiliserons pour ce travail (les précisions sur les modèles particuliers seront données au chapitre suivant).
Les transformers constituent un type de modèle qui s’avère être le plus adapté (pour le moment) au résumé automatique du texte et, dans le chapitre suivant, nous commencerons par présenter les diverses spécificités du résumé automatique comme tâche du NLP, pour finir par présenter l’architecture globale du système que nous comptons élaborer.
Chapitre II
Présentation du résumé automatique et conception du système
II.1 Introduction partielle
Le résumé automatique étant le sujet principal de ce mémoire, dans cette partie nous le présentons alors en détail en tant que discipline et tâche du NLP. Nous allons ici présenter les théories sur la synthèse automatique des textes, en classifiant les diverses méthodes utilisées pour pouvoir situer notre système dans l’ensemble des travaux jusque-là menés sur ce sujet.
Ensuite, nous présenterons les diverses approches utilisées pour le résumé automatique, sans oublier d’approfondir notre présentation des modèles de type transformer adaptés à cette tâche, pour finalement mentionner le modèle que nous estimons le plus adapté concernant l’approche basée sur le deep-learning pour la synthèse automatique. Enfin, nous allons réaliser une conception rapide mais suffisante de l’architecture globale de notre système, tout en précisant le rôle et le fonctionnement de chaque partie.
II.2 Présentation et définitions
Selon Le Petit Robert, résumer c’est reprendre en plus court un discours, le présenter brièvement en conservant l’essentiel. En d’autres termes, c’est l’abréger, l’écourter, le réduire. De même, en tant qu’exercice intellectuel, le résumé, consiste à réduire un texte tout en lui restant fidèle. Il exige donc de restituer les idées en un nombre déterminé de mots, en évitant au mieux de recopier le texte à résumer. Il faut alors composer un texte
29
plus court qui contienne l’essentiel du message initial.
De cela on tire que le résumé devient automatique s’il est généré par un logiciel ou un système informatique.
Cette définition est en fait correcte bien qu’elle ne soit assez précise pour notre contexte. Il nous faut une définition assez générale et précise, embrassant au mieux l’aspect automatique, ou mieux, l’aspect informatique, qui nous intéresse dans ce mémoire. Une définition assez valable est celle de TORRES-MORENO Juan-Manuel qui dit qu’un résumé automatique est un texte généré par un logiciel, cohérent et contenant une partie importante des informations pertinentes de la source, et dont le taux de compression est inférieur au tiers de la taille du(des) document(s) source(s) [48].
L’introduction du taux de compression dans la définition n’est pas anodine car, on s’est très vite rendu compte que la performance d’un système de résumé automatique dépendait fortement du taux de compression. En effet, les études de [26] montrent que les meilleures performances des systèmes de résumé automatique sont généralement atteintes pour des taux de compression compris entre 15 et 30% [48].
Nous allons adopter, dans ce travail, la définition de TORRES-MORENO Juan-Manuel ci-haut présentée.
Toutefois, on ne doit pas manquer de signaler que la génération automatique des résumés est un problème complexe en soi, tout comme l’évaluation des résultats. Le résumé est en effet une tâche cognitive requérant la compréhension du texte considéré et, les humains n’étant pas toujours bons dans les tâches de synthèse, le manque d’étalon explique qu’il y ait également une difficulté d’automatisation du processus.
II.3 Catégorisation des résumés
Les résumés peuvent être classifiés selon différents critères tels que leur fonction, le nombre de documents source, le genre de document, le type de résumé, le type de résumeur, le contexte,...
II.3. CATÉGORISATION DES RÉSUMÉS
Parcourons de manière succincte ces différents critères de classification [36, 31, 32, 38, 37, 48] :
II.3.1 Selon la fonction
Selon leur fonction, on classifie les résumés en deux groupes qui sont le résumé indicatif et le résumé informatif.
Résumé indicatif
Tel une table des matières, un résumé indicatif renseigne le lecteur sur les thèmes abordés dans un document. Il liste donc les sujets les plus importants évoqués par le texte. Certains systèmes de résumé guidé génèrent un résumé indicatif du texte comme étape initiale, l’utilisateur choisit alors parmi les sujets proposés par le résumé ceux qui l’intéressent et le système produit enfin un résumé informatif du texte guidé par la requête de l’utilisateur. La requête dans ce cas est l’ensemble des sujets sélectionnés à partir du résumé indicatif.
Résumé informatif
Il s’agit d’un modèle rétréci du texte d’origine, relatant le plus largement possible les informations contenues dans celui-ci. Ce type de résumé répond souvent à une attente en résumant de plus le contenu. La problématique ici est donc double : comprendre ce qui n’est pas information dans un texte et connaître le besoin de l’utilisateur final. Néanmoins, si on n’a pas de requête spécifique de la part de l’utilisateur, le résumé informatif est réalisé en veillant à ce que l’ensemble des principaux sujets du texte d’origine soit rapporté. Ainsi, les sujets principaux qui sont rappelés dans le résumé sont répartis de manière fidèle par rapport à l’organisation initiale afin de donner un juste aperçu du texte source.
II.3.2 Selon le nombre de documents source
Selon le nombre de documents source on a les résumés mono-document et multidocument.
Résumé mono-document
Il consiste à résumer un document isolé. Le corpus de documents source est donc ici constitué d’un seul et unique document.
Résumé multi-document
Il s’agit d’un résumé de plusieurs documents (un groupe de documents), très souvent liés thématiquement, en faisant attention à ne pas insérer des informations déjà évoquées.
II.3.3 Selon le genre des documents
Résumé des documents journalistiques
Il s’agit de résumer les documents du type article de presse (sachant qu’ils ont une structure particulière). En effet, on sait par exemple que dans le domaine journalistique, les informations les plus importantes sont souvent mentionnées au début du texte.[36]
Résumé des documents spécialisés
Il s’agit de résumer des documents en provenance d’un domaine précis (géologie, médecine, mathématique,...), fortement spécialisé.
Résumé des documents littéraires
C’est le résumé de documents du type narratif, des textes littéraires, des textes argumentatifs, ...
II.3. CATÉGORISATION DES RÉSUMÉS
Résumé des documents encyclopédiques
Ici il s’agit de résumer des documents de type encyclopédique (en général multithématiques de toute évidence) à l’exemple de Wikipédia...
II.3.4 Selon le type de sortie (résumé obtenu)
Cette classification est très importante et très utilisée. Il s’agit des :
Résumés extractifs (extractive summarization)
Le résumé extrait est formé de segments de texte extraits du(des) document(s) source(s). Ces segments peuvent être des phrases, des propositions ou n’importe quelle unité textuelle présent dans le(s) document(s) à résumer. Le problème consiste donc à repérer les segments de texte qui semblent être les plus pertinents pour faire partie du résumé final. Les éléments obtenus à la fin sont donc explicitement présents dans le(s) document(s) source(s).
Résumés abstractifs (abstractive summarization)
Les méthodes de résumé abstractives imitent, jusqu’à un certain degré, le processus naturel accompli par l’homme pour résumer un document. Par conséquent, elles produisent des résumés plus similaires aux résumés manuels (humains). Ce processus peut être décrit par deux étapes majeures : la compréhension du texte source et la génération du résumé. La première étape vise à analyser sémantiquement le contenu du texte et à identifier les parties à exprimer dans le résumé. C’est en quelques sortes une tâche d’extraction d’information liée au domaine abordé ou de regroupement des phrases du texte source. Vient ensuite la génération du texte.
Bref, on produit un résumé rapportant le contenu du(des) texte(s) source(s) en utilisant un vocabulaire différent et plus concis.
Il existe aussi des résumés dits semi-extractifs, et même aussi des résumés dits par compression [48] mais nous estimons inutile de les décrire ici étant donné que la distinction abstractif-extractif suffit pour notre contexte.
II.3.5 Selon le type de résumeur
Le résumeur est le système qui réalise le résumé. Il peut s’agir d’une entité naturelle (un humain) ou artificielle (un logiciel). On a donc essentiellement les deux cas suivants :
Résumé humain (manuel)
Il s’agit d’un résumé réalisé par un humain. Il peut être fait par l’auteur même du document (on parle souvent de résumé d’auteur), par un expert du domaine traité (on parle souvent de résumé d’expert) ou par un professionnel de résumé (on parle de résumé professionnel).
Résumé automatique
Il s’agit, comme on l’a maintes fois mentionné, d’un résumé fait par un système informatique.
II.3.6 Selon le contexte
Résumé générique
Ici on résume le document sans prendre en compte les besoins d’information de l’utilisateur. On produit juste un résumé complet et le plus mieux fait possible.
Résumé guidé
Pour ces types de résumé, l’utilisateur commande la génération du résumé en précisant les types d’information dont il a besoin.
Résumé mis à jour
Il s’agit d’un résumé de type dynamique par essence. Ici, un ensemble de documents sources est résumé en veillant minutieusement à ce que le document dont le résumé est ajouté à la suite d’un précédent résumé ne puisse pas créer une répétition d’information.
Il y a donc un contrôle de nouveauté.
II.3.7 Selon le destinataire du résumé
On peut aussi classifier un résumé selon le public auquel il est destiné.
Résumé sans profil
Il s’agit d’un résumé qui ne tient pas compte d’un quelconque profil utilisateur. Le résumé est donc généré sans tenir compte de la personnalité des utilisateurs.
Résumé avec profil
Il s’agit d’un résumé dont l’un des éléments guides (requête) est le profil des individus auxquels le résumé est destiné.
En ce qui concerne notre système, nous implémenterons à la fois un résumeur abstractif et un résumeur extractif et ce sera mono-document. En plus de cela, le résumé ne sera pas guidé, il s’agira de produire des résumés génériques, pour des documents de type littéraire (documents du type narratif, des textes littéraires, des textes argumentatifs,...).
II.4 Approches de résumé automatique
Nous allons présenter ici diverses approches algorithmiques pour résumer les documents textuels. Les approches seront abordées en supposant que les résumés sont principalement classés en abstractif et extractif.
II.4.1 Techniques intuitives de résumé [36]
Avec des critères centrés sur le contenu des textes, il existe un grand nombre d’algorithmes assez triviaux de résumé, qui sont basés entre autres sur : • La fréquence d’occurrence des mots et
• L’annotation en rôle sémantique.
Ces critères mettent l’accent sur le contenu du texte et le message qu’il communique.
Fréquence d’occurrence des mots
L’idée majeure des techniques qui utilisent ce critère consiste à considérer que les mots les plus fréquents sont les plus liés au sujet principal du texte à résumer. Cette approche assez simpliste mais fonctionnelle fut introduite en 1958 par Luhn [29], une première tentative de résumé automatique.
On affecte des scores aux phrases présentes dans le texte, en additionnant chaque fois les poids des mots les constituant (on attribue ce poids en fonction de la fréquence d’apparition du mot considéré dans le texte entier). Et, à la fin, le résumé est constitué avec les phrases extraites du texte source, et dont le score dépasse un certain seuil dépendant de la taille maximale imposée pour le résumé. Le tout est finalement réarrangé selon l’ordre d’apparition (des phrases sélectionnées) dans le texte d’origine.
L’annotation en rôle sémantique
Ici, l’idée est simple. En utilisant des techniques de repérage d’entités nommées (voir le chapitre précédent), on identifie les entités présentes dans le document. Après cela, l’entité la plus fréquente est identifiée et considérée comme entité principale. Par la suite, les phrases contenant cette entité sont sélectionnées. Enfin, seules les phrases où l’entité principale possède un rôle sémantique fondamental (non auxiliaire) sont gardées pour le résumé.
L’un des moyens les plus simples pour repérer les entités nommées est de passer par l’apprentissage profond comme on l’a précédemment mentionné.
Il existe tout de même des techniques qui ne se fient qu’à la forme et à la structure du texte, sans en considérer le contenu. L’intuition derrière cette approche est basée sur le constat que dans un texte, les éléments ne sont pas présentés de façon arbitraire. De manière usuelle, les techniques utilisées se basent sur :
La position des phrases;
La similarité avec le titre
La longueur des phrases ou sinon,
Les mots indices (cue word)
La position des phrases
Cette approche est à appliquer en fonction de la nature du document et de son genre. Pour certains types de documents (documents journalistiques par exemple), les phrases se trouvant au début sont généralement plus informatives et décrivent le sujet principal du document. De plus, les phrases situées au début de chaque paragraphe tendent à apporter plus d’informations pertinentes. Le résumé des articles scientifiques par contre, peut essentiellement se former en se basant sur les contenus des parties résumé et introduction (sous l’hypothèse que ces dernières parties sont bien faites). En revanche, dans le cas des revues intégratives (critique et comparaison des études), les phrases les mieux notées sont celles des parties résultats et discussion et conclusion.
Ces exemples suffisent pour illustrer dans quelle mesure cette approche peut s’appliquer.
La similarité avec le titre
Cette approche part du principe selon lequel un bon titre doit informer de manière brève du contenu principal du texte qu’il encadre. Cela permet alors de fixer comme mesure de pertinence des phrases, leur similarité avec les titres. Toute la problématique se réduit donc à la construction d’algorithmes capables de capturer efficacement la similarité.
La longueur des phrases
L’approche consistant à se baser sur la longueur des phrases est assez naïve mais fonctionnelle.
En effet, la longueur moyenne d’une phrase dans un texte dépend de son genre. Généralement, les phrases très courtes sont considérées comme peu informatives alors que les phrases très longues sont présumées favoriser la redondance. Cette caractéristique est exploitée en fixant un intervalle de longueur (entre 15 et 30 mots). Une phrase ayant une longueur en dehors de cet intervalle est pénalisée [45].
Les mots indices
Ici, on considère une liste de mots, constituée manuellement, et qui a comme rôle de permettre de se décider si une phrase doit être prise dans le résumé ou rejetée, selon qu’elle contient ou non un(des) mot(s) de la liste qualifié(s) inhibiteur(s) ou valorisant(s). Comme exemple des mots ou groupes de mots inhibiteurs on trouve : par exemple, accessoirement, ... Et pour les mots valorisants on peut citer : notez bien, ...
Nous devons quand même préciser encore une fois que tout dépend de celui qui écrit la liste.
Les méthodes que nous venons de présenter sont assez intuitives mais constituent la base des processus de synthèse. En effet, synthétiser un texte revient au fond à implémenter un certain nombre de règles, dont font parties évidemment celles que nous venons de mentionner. Néanmoins, ce que nous venons de présenter est décrit en se basant sur le concept de résumé extractif. Nous devons toutefois signaler que les résumés abstractifs se basent au fond sur les mêmes principes, soit en partant des résumés extractifs pour ensuite réaliser des paraphrases, insérer des connecteurs appropriés et éliminer les références anaphoriques dans les résumés, soit en implémentant indirectement toutes ces techniques à travers un modèle d’apprentissage automatique ou un modèle basé sur les graphes capables de capturer d’un seul coup tous ces aspects (ou une grande partie d’entre-eux). Les techniques intuitives ci-haut présentées ne sont pas les seules. Il en existe également d’autres, basées essentiellement sur les théories linguistiques. Entre autres les méthodes d’analyse du discours (par exemple la RST [31] ou Rhetorical Structure Theory)...
II.4.2 Algorithmes classiques de résumé automatique
Comme nous venons de l’introduire dans la section précédente, le résumé automatique est abordé essentiellement selon deux approches qui sont [31] :
1°) Les approches numériques, fondées sur les techniques à base des scores (poids), et
2°) Les approches symboliques fondées sur les techniques purement linguistiques, basées en premier sur une étude sémantique.
Il faut noter qu’on peut considérer aussi des approches basées sur la théorie des graphes comme intégrant les idées de ces deux approches de façon implicite, tout comme celles basées sur l’apprentissage automatique. Mais, dans tous les cas, une vue sur quelques heuristiques (méthodes basées sur le bon sens) est toujours à considérer (surtout en amont, puis en aval du processus de synthèse).
Ici, nous allons présenter les approches essentiellement numériques (on va y inclure celles basées sur l’apprentissage automatique et celles basées sur la théorie des graphes).
Algorithme de Luhn [29]
Il s’agit d’une méthode heuristique pour la synthèse des documents. C’est la plus ancienne méthode de résumé automatique (au sens moderne du terme).
Cette approche n’est pas considérée comme très bien formalisée. Elle exécute implicitement l’approche du TfIdf que nous allons décrire dans la sous-section qui suit celle-ci (sous-section II.4.2).
La sélection (des mots ici) se fait en considérant les hypothèses qui suivent :
la synthèse consiste à supprimer certains mots pour n’en conserver que les plus importants;
les mots se trouvant au début sont probablement importants;
les autres mots utiles respectent une certaine distribution. La figure II.1 montre, selon Luhn, comment choisir ces mots importants (partie hachurée de la courbe).
Figure II.1: Diagramme des fréquences des mots et le choix de Luhn [29]
Cette approche, comme on l’a mentionné au début, est assez moins précise et empirique, mais elle sous-entend les idées fondamentales appliquées plus tard.
Algorithme TF-IDF
Le tf-idf (time-frequency inverse document frequency est une approche essentiellement utilisée pour le résumé extractif. Il s’agit d’une correction de l’approche naïve consistant à poser que plus un mot est répété dans un corpus de texte, plus il y est important.
Soit donc un corpus constitué de D documents et Nj le nombre total de mots (termes) présents dans un document j donné du corpus. Nommons Freq(i,j) le nombre de fois qu’un terme i apparaît dans le document j.
On définit classiquement la fréquence d’apparition par :
Freq(i,j)
T F(i,j) = (II.1)
Nj
L’approche qui se base naïvement sur la fréquence d’apparition des mots dans les textes pour juger de leur importance relative, accorde à chaque mot un poids égal à T F(i,j). La grande faiblesse de cette approche est d’inclure ainsi des termes sans grande pertinence informationnelle comme des prépositions, des articles,... très présents au sein des documents.
Pour corriger cette faiblesse, on pose l’hypothèse que les termes importants apparaissent plusieurs fois dans un document (ou juste dans peu de documents du corpus) et non pas dans plusieurs documents. Puisque dans ce second cas, il est souvent question des éléments communs du langage, sans grande utilité informationnelle. Ceci constitue en fait la loi de Zipt [55] et c’est le fondement de l’approche du tf-idf.
A cet effet, on définit DFi comme étant le nombre de documents dans le corpus, qui contiennent le terme numéro i. Cela permet d’affecter alors le poids selon la formule [5] :
D !
T FIDF(i,j) = log(1+T F(i,j))·log (II.2)
DFi
Dans l’expression, II.2, en supposant que N est le dictionnaire des termes présents dans l’ensemble des documents, il faut noter que : i ∈ {1,...,N} et j ∈ {1,...,D}.
D’où finalement, le poids d’un terme i dans un document j est donné par :
wij = T FIDF(i,j) (II.3)
Pour notre cas, l’application de cette approche consiste à décomposer un long texte en ses phrases et de considérer que chacune de ces phrases est un document et que le texte entier constitue le corpus.
Plusieurs définitions des éléments T F(ij) et IDFi formant l’expression II.2 sont toutefois possibles selon les besoins en terme de performance.
Mais, dans l’ensemble, l’idée de base demeure la même car il ne s’agit en général que de changement des types de normalisation [55].
L’application de cette méthode pour le résumé consiste finalement à calculer le poids de chaque phrase en additionnant les poids des termes la constituant, puis à normaliser le résultat en fonction de la taille de la phrase considérée. Après tout, on définit un seuil qui permet de soutirer les phrases selon leur pertinence ainsi évaluée (en considérant évidemment plus pertinente une phrase dont le résultat de la sommation des poids est élevé).
Algorithme TextRank
TextRank est un algorithme de résumé extractif, basé sur la théorie des graphes et qui s’inspire de l’algorithme PageRank de Google [8, 4].
A la base, on considère un ensemble de N phrases donné, et on calcule les coefficients de liaison de chaque phrase aux N −1 autres. A la fin, on peut obtenir une matrice M de taille N ×N dont chaque terme Mij représente le degré de liaison entre la phrase numéro i et la numéro j. Il s’agit en fait d’une matrice d’adjacence dans laquelle on pose au préalable que Mii = 0, pour tout i (c’est la même idée pour l’algorithme PageRank étant donné qu’il est logique de considérer qu’une page ne peut s’auto-référencer).
Soit donc i ∈ {1,...,N}. Appelons P hri la phrase numéro i du corpus. Cela veut dire qu’on peut écrire :
Liaison P hri ↭ P hrj = Mij = Mji (II.4)
Les valeurs de Mij sont calculées au choix, selon le programmeur. Ce dernier implémente en effet une mesure de similarité selon sa définition de la liaison entre phrases et les besoins en performance.
C’est ainsi qu’on peut utiliser par exemple une mesure de similarité classique nommée similarité cosinus en la basant par exemple sur T FIDF [19].
Pour représenter les mots à comparer, on utilise les méthodes classiques de vectorisation des mots (word embedding). Nous esquisserons ces méthodes dans les sections qui vont suivre, parlant du word embedding ( II.5 ).
Le rang des phrases sont alors calculés de manière itérative en s’inspirant de la formule [33] :
N
Xh i
T extRank(P hri) = (1−K)+K · T extRank(P hrj) ·Mij (II.5)
j=1 j,i
Dans cette formule, K est une constante comprise entre 0 et 1.
Initialement, on prend en général une valeur identique de T extRank(P hri) pour toutes les phrases (souvent T extRank(P hri) = 1), mais la valeur initiale prise n’affecte pas les valeurs finales, juste le temps de convergence [33].
La formule II.5 n’est pas arbitraire, elle est d’ailleurs triviale si on s’inspire de l’algorithme de PagePank la plus simple. Pour cet algorithme (PageRank), on avait pris à l’origine K = 0.85 [8].
Justification de la formule Le principe de PageRank consiste à se dire que, si une page
P agi contient Ni références vers d’autres pages, la probabilité qu’on aille vers l’une de ces pages référencées est de N1i (avec l’hypothèse que les références ne sont pas répétées et que la distribution de leur importance est uniforme). On sait tout de même que plus une page est référencée, plus on doit lui donner de l’importance.
Si alors on pose que l’importance de la page P agi est connue, le calcul de l’importance d’une page P agj vers laquelle elle pointe se calculera logiquement par :
X 1
Importance(P agj) = Importance(P agi)· (II.6) i Ni
Avec i appartenant à l’ensemble des pages qui mentionnent la page P agj en leur sein.
Malheureusement, pour les phrases non référencées (pages dites isolées), on trouve une importance nulle. Pour lutter contre cela, la formule II.6 est un peu modifiée en y introduisant adéquatement une constante non nulle K.
Ce qui donne l’expression [8] :
X 1
Importance(P agj) = (1−K)+K · Importance(P agi)· (II.7) i Ni
On voit alors qu’il s’agit belle et bien de la formule utilisée pour TextRank (formule II.5).
Après initialisation des rangs de chaque phrase du texte ( les T extRank(P hri)) et après calcul de la matrice d’adjacence M. On applique la formule II.5 itérativement et à la convergence, on choisit les phrases qui vont former le résumé selon leur importance ( valeurs des T extRank(P hri) pour toute valeur de i).
A la fin, les phrases sélectionnées sont réarrangées pour former un résumé extrait plus ou moins cohérent.
Il existe également un algorithme nommé LexRank [14] qui est assez similaire à TextRank ici décrit, à la différence près que :
Il prend essentiellement en compte les métriques de similarité robustes;
Il considère la position et la longueur des phrases dans le calcul de leur pertinence; - Il est optimisé pour le résumé multi-document.
Plusieurs autres algorithmes populaires existent, par exemple les algorithmes LSA (Latent Semantic Analysis ou Analyse Sémantique Latente) et LDA (Latent Dirichlet Allocation ou Allocation Latente de Dirichlet) [5].
Le premier, la LSA, est un algorithme statistique, basé sur l’algorithme SVD (Singular Value Decomposition ou décomposition en valeurs singulières). Seulement, cette technique est très gourmande en ressources suite à la complexité de l’algorithme qui implémente le SVD. Le second, la LDA, basé sur la détection des thématiques, peut aussi être utilisé.
Toutefois, il faut remarquer que les algorithmes ici présentés sont essentiellement adaptés à la synthèse extractive. Même si, ces traitements peuvent être mélangés avec les techniques de résolution d’anaphores et les paraphrases pour obtenir des synthèses qui tendent vers la synthèse abstractive, nous devons souligner que les techniques jusque là les plus performantes pour la synthèse abstractive sont essentiellement basées sur le deep learning [36]. Le deep learning peut également être utilisé pour la synthèse extractive, permettant ainsi la génération des synthèses extraites plus cohérentes (avec résolution d’anaphores). Ainsi donc, nous abordons les méthodes de deep learning utilisées pour cet effet dans les parties qui suivent.
II.5 Modèles Seq2Seq
II.5.1 Methodes du Word-Embedding
Tout traitement commence par une représentation numérique des termes (des mots ici) pour qu’ils soient assimilables par le modèle. Une approche naïve consisterait à regrouper tous les mots de notre vocabulaire dans une liste (un dictionnaire) et de les représenter chacun par un nombre unique (un identifiant). Une autre approche, plus classique, consiste à représenter chaque mot par un vecteur de dimension égale à la taille du dictionnaire et dont tous les termes sont nuls, sauf à la position, dans le dictionnaire, du mot qu’on est entrain de vouloir représenter (on parle du one-hot encoding).
Ces représentations, et toutes celles qui s’y apparentent, ont la grande faiblesse d’être peu informatives (au point de vu sémantique). Étant artificiellement construites, sans tenir compte du sens des mots, ni de leur contexte, ces méthodes de représentation rendent la tâche de découverte des caractéristiques par les systèmes de machine learning encore plus difficile. D’ailleurs, l’une des faiblesses de la seconde méthode décrite (le one-hot encoding) est que les vecteurs sont creux (une majorité de valeurs nulles) et de dimension inutilement très grande. On pourrait directement songer à une représentation plus judicieuse pour éviter ces deux soucis, et qui consisterait à réaliser une représentation binaire des termes mais, le problème de la sémantique sera toujours là.
On recourt donc à des méthodes de représentation plus élaborées, partant du principe selon lequel le contexte d’un mot suffit pour en appréhender le sens. Ainsi, tout mot est représenté en réalisant une statistique (implicitement bien sûr) sur les divers mots qui l’accompagnent souvent, de telle sorte que les mots aux sens proches aient aussi des vecteurs très proches. Bref, on en arrive à réaliser la proposition : "Similarité sémantique implique similarité de représentation". Ce sont les méthodes classiques du word embedding (ou plongement lexical). Il s’agit par exemple des méthodes comme le Word2Vec [34, 35], Glove [39], fastText [6]...
II.5.2 Modèles séquence-à-séquence proprement dits
S’agissant des modèles séquence-à-séquence (Seq2Seq), ils ont été présentés dans la section I.5.3 (voir particulièrement la figure I.6). Il s’agit bel et bien des modèles adaptés aux tâches de synthèse, vu qu’en entrée on reçoit une séquence pour ressortir une autre séquence en sortie.
Comme nous l’avons déjà bien mentionné au précédent chapitre, nous n’allons parler que des modèles Seq2Seq de type transformer car actuellement, ils sont les plus adaptés à la tâche que nous voulons réaliser (celle de synthèse automatique). Les transformers (voir la figure I.7) sont un modèle très avantageux car en fait, au-delà de leurs performances et autres avantages, ils facilitent encore plus la recherche en NLP en rendant effectif le transfer learning (apprentissage par transfert) dans ce domaine.
L’entraînement des transformers est semi-supervisé. Il se fait en deux crans (nous les décrirons dans le cadre du NLP) :
1°) Pré-entraînement : il s’agit d’un apprentissage non supervisé, qui consiste à donner au modèle une masse colossale de données textuelles, non étiquetées, pour qu’il développe une compréhension statistique du langage qu’on veut qu’il puisse assimiler.
Au final, on obtient un modèle pré-entraîné.
2°) Affinage de l’apprentissage (fine-tuning) : Ça consiste à finaliser l’apprentissage du modèle pré-entraîné de manière supervisée pour qu’il soit en mesure de réaliser une tâche donnée du NLP (il s’agit du transfer learning en fait). Cette spécialisation, requiert une très faible quantité de données car le modèle aura déjà une représentation assez bonne de la langue. Cela pallie à la fois au problème de manque des données labellisées en NLP et de la consommation en terme de ressource énergétique des gros modèles lors de leur entraînement.
Les méthodes de pré-entraînement sont très déterminantes pour les performances finales du modèle. Ce premier entraînement du modèle a pour rôle de l’amener à construire un modèle de langage [25].
Il existe ainsi plusieurs objectifs de de pré-entraînement (pour construire le modèle de langue). On peut par exemple entraîner le modèle à :
Prédire le mot suivant : donc, lors de cet entraînement non supervisé, on fournit chaque fois au modèle une séquence de mots en lui demandant de prédire le suivant. Il s’agit d’un objectif d’entraînement dit NSP (Next Sentence Prediction) visant à transformer implicitement le transformer en un modèle de langue [11];
Deviner le mot caché (masqué) : on fournit au modèle du texte dont certaines parties (mots ou suite de mots) sont cachées. L’objectif assigné au modèle est alors de retrouver les mots masqués. On parle du MMLMasked Language Modelling [11].
Ainsi, au fur et à mesure, les paramètres du modèle s’affinent, le transformant en un modèle de langue performant. Mais, à part les deux que nous venons de mentionner, il existe d’autres objectifs de pré-entraînement [25, 54] selon les variantes de transformers et les objectifs finaux de spécialisation du modèle.
Bien que la forme classique des transformers est bel et bien celle de la figure I.7, il existe 3 types d’implémentation selon les types de tâche visées en dernier lieu :
1°) Modèles à encodeur seul : on supprime la partie décodeur. Ces modèles sont très bons pour les tâches de compréhension du langage comme la classification par exemple.
2°) Modèles à décodeur seul : on supprime alors la partie décodeur du modèle. Ils sont bons pour les tâches de génération de texte.
3°) Modèles encodeur-décodeur : ou encore modèles seq2seq proprement-dits. Ils sont bons pour les tâches demandant à la fois la compréhension et la génération des textes.
Pour illustrer ce fait, on va considérer donc 3 types de transformers [49, 52] :
1°) Like-BERT : semblables au transformer dénommé BERT Bidirectional Encoder Representations from Transformers. Ce sont des modèles du type encodeur seul. Ils sont également bidirectionnels. Donc, les phrases sont lues dans les deux sens pour mieux saisir tout le contexte.
2°) Like-GPT : donc semblables au transformer dénommé GPT (Generative Pre-trained Transformer) qui n’ont que la partie décodeur et sont dits auto-regressifs car, seules les parties précédant le mot en cours de traitement sont connues du modèle et il y a chaque fois réinjection des sorties à l’entrée.
3° Like-BART/T5 : semblables à BART (Bidirectional and Auto-Regressive Transformers) ou à T5 (Text-To-Text Transfer Transformer). C’est donc ceux du type encodeur-décodeur.
Modèles encodeurs (encoder-model) : Comme on l’a dit, pour ces modèles, on n’implé-
mente que la partie encodeur du transformer d’origine (celui de Vaswani et al. [50]). En plus de cela, ces modèles ont une couche d’attention bidirectionnelle et sont généralement appelés auto-encodeurs (auto-encoding model). Ces modèles sont principalement bons pour les tâches de NLU (Natural Language Understanding) comme la classification, le NER (Name Entity Recognition), l’extractive question-answering,...
Dans ce groupe, les modèles les plus connus sont :
ALBERT [24],
BERT [11],
DistilBERT [43],
RoBERTA [28],
Etc.
Modèles décodeurs (decoder-models): Utilisent seulement la partie décodeur, sont auto-
regressifs et par conséquent les têtes de self-attention n’accèdent qu’aux mots précédant l’étape à laquelle elles sont (pas de regard dans le futur) comme on l’a déjà un peu mentionné. Ces modèles sont particulièrement bons pour les tâches liées fortement au NLG (Natural Language Generation).
Dans ce groupe, les modèles les plus connus sont :
Les GPT (1, 2 et 3) [41],
TransformerXL [10],
Etc.
Modèles encodeur-décodeur (sequence-to-sequence models): Ces modèles utilisent l’in-
tégralité de l’architecture des transformers et sont ainsi bons pour les tâches demandant à la fois du NLU et du NLG comme la synthèse automatique abstractive, le generative question-answering et la traduction automatique.
Ici nous pouvons particulièrement mentionner les modèles comme :
BART [25],
mBART [27],
BARThez [13],
T5 [42],
mT5 [53], • PEGASUS [54],
Etc.
II.5.3 Modèle BART pour la synthèse abstractive
Le modèle BART est comme une combinaison de BERT [11] et de GPT-2 [40, 41] en terme
d’architecture et d’objectif de pré-entraînement, avec quelques optimisations supplémentaires [25]. Pour illustration, voici une image de comparaison :
Figure II.2: Comparaison simplifiée entre BERT, GPT et BART [25]
L’image II.2 étant claire, nous pouvons illustrer les diverses corruptions que peuvent subir les données pour le pré-entraînement. L’image ci-dessous l’illustre :
Figure II.3: Transformations de bruitage expérimentées pour BART [25]
Le modèle BART est bien adapté à la tâche de synthèse abstractive. C’est celui que nous
allons privilégier (les modèles dérivés de BART principalement) pour réaliser cette tâche dans notre système.
Justification du choix de BART
Le choix de BART est dû au fait que c’est le modèle que nous avons trouvé réalisant un bon compromis poids-performances. Aussi, après quelques tests, ses résultats nous ont paru être plus intéressants. En outre, l’objectif d’entraînement utilisé pour BART nous paraît assez général pour construire un modèle de langage performant. Nous justifierons plus précisément ce choix dans le chapitre qui suit, en présentant également quelques résultats des tests.
II.6 Conception de l’architecture globale du système
Il existe un large éventail des méthodes de développement des systèmes informatiques mais, en règle générale, toutes suivent les étapes suivantes [7] :
1°) Spécifications : on définit avec précision ce que fera le système (à quoi est-il destiné?);
2°) Conception et mise en oeuvre : on conçoit et on réalise le système;
3°) Validation : on teste le système pour voir s’il correspond aux objectifs précisés dans les spécifications;
4°) Évolution : ça correspond à tout ce qui vient après la livraison du produit (versionning, maintenances,...).
Ici, on ne va pas utiliser une méthode de conception particulière. Pour pouvoir tout de même y aller méthodiquement, nous nous inspirerons de ces étapes classiquement suivies lors de la conception des systèmes informatiques.
Dans ce second chapitre, nous ne présenterons que les spécifications du système ainsi qu’une ébauche de conception avec une présentation de l’architecture globale. La suite sera traitée dans le chapitre suivant.
II.6.1 Spécifications du système
Le système devra pouvoir permettre de réaliser ce qui suit :
Synthétiser les textes qui lui sont fournis en entrée (saisis directement ou importés dans fichiers .pdf non scannés, des fichiers .docx et .txt);
Servir les synthèses directement ou à travers un fichier .pdf à télécharger;
Obtenir des synthèses produites par plusieurs algorithmes et les évaluer;
Stocker les couples document-synthèse;
Faciliter le parcours des documents en soulignant les parties saillantes;
Permettre l’affinage d’un modèle de synthèse automatique (ici nous réaliserons le fine-tuning du modèle mBART ou du modèle mT5 selon celui qui se prêtera mieux à cet affinage).
C’est cela le minimum de besoins que le système devra être capable de combler.
II.6.2 Présentation des éléments du système
L’architecture globale de notre système est un trois-tiers classique. Elle se présente comme sur la figure II.4 :
Figure II.4: Architecture globale de notre système
La figure II.4 presente l’architéture du système qui est d’une architecture 3 − tiers classique. Il y a toutefois une partie qui n’est pas ici représentée car nous voulons nous donner une grande liberté de conception à son sujet. Il s’agit en fait de l’interface d’accès à l’API (Application Programming Interface), qui permettra aux développeurs de s’authentifier et générer éventuellement un token à utiliser pour implémenter leur propres interfaces devant permettre d’utiliser les services de cette API. Il s’agit donc d’une API privée.
Cette interface permettra aussi de voir toute la documentation de l’API (pour les développeurs) pour mieux utiliser ses services.
Quant au bloc interface que nous venons de présenter sur la figure II.4, c’est en nous mettant à la place d’un développeur lambda qui exploite les services de l’API.
Notre API quant à elle, est une API REST (REpresentationnal State Transfer qui aura 4 end-points principaux dédiés à la synthèse automatique (selon les besoins d’implémentation, on pourra en insérer d’autres mais qui ne concernerons probablement pas la synthèse).
Module de synthèse extraite : ce module réalisera une synthèse en combinant divers résultats d’algorithmes de synthèse extraite. Nous prévoyons, dans un premier temps, ne l’utiliser que pour des petits documents (la taille optimale sera déterminée avec les expérimentations au chapitre suivant).
Module de synthèse abstraite : ce module donnera une synthèse abstraite en utilisant l’un des transformers affinés pour la synthèse ou bien par le module qui sera en train de s’auto-améliorer au cours de l’utilisation du système (on l’a nommé expérimental, voir la figure II.7). Comme les transformers réalisent des synthèses de documents de taille généralement limitée à environ une page, nous mettrons au point, dans cette partie, une pipeline qui nous permettra d’augmenter le nombre de pages (nous pensons à 100 pages mais les expérimentations nous permettrons de choisir une taille optimale, tenant compte surtout de la rapidité).
Module de synthèse extrait simplifié : Il s’agira d’un module qui permettra la réalisation de la synthèse mais en utilisant l’un des algorithmes de synthèse extraite implémentés (soit de manière aléatoire, soit par choix de l’utilisateur).
Module expérimental : Il s’agira d’un module de synthèse abstraite qui sera essentiellement utilisé pour la synthèse des petits documents (quelques pages). Pour ce module, nous comptons mettre au point une routine d’entraînement à partir des synthèses collectées par le système, pour améliorer au fur et à mesure les performances de ce module. Nous comptons réaliser l’entraînement par transfer learning avec les transformers mT5[53] ou mBART [27] comme base. N’ayant pas encore testé cette partie, nous serons fixé sur la méthode à utiliser ainsi que le modèle de base à choisir au chapitre suivant, après les expérimentations.
On peut aussi remarquer qu’il y a un module pre-processing dans la partie interfaces. C’est par suite du fait que, pour des raisons de performance, on devra envoyer à l’API le fichier sous un format particulier. Il faudra réaliser l’acquisition des données dans divers formats (pdf,docx,...) mais les données acquises seront envoyées dans un format plus léger à l’API (du JSON pour notre cas).
La base des données, que nous avons mentionné dans la figure II.4, a un double rôle :
1°) Le stockage des données de l’utilisateur (il s’agira en fait des identifiants des interfaces qui utiliseront l’API);
2°) Le stockage des paires document-synthèse, ainsi que l’appréciation de l’utilisateur (évaluation par les utilisateurs).
II.6.3 Architecture du module de synthèse extractive
Le module de synthèse extractive se présente comme suit :
Comme nous pouvons le voir, un traitement sera fait pour adapter les données reçues à ce qui peut être traité par le système. Ce traitement consistera à ne retenir que des symboles alphanumériques, à réaliser la tokenisation des textes (chaque token sera une phrase pour cette partie) et à affecter un identifiant unique à chaque phrase.
Après cela, les données seront invariablement passées aux algorithmes de synthèse extractive, qui générerons chacun un groupe de poids des phrases. Après cela, le module de pondération et sélection réalisera successivement ce qui suit :
Acquisition des sorties de chaque algorithme de synthèse extractive (il s’agira des dictionnaires dont les clés seront les identifiant uniques des phrases et les valeurs seront les poids affectés par l’algorithme). A chaque algorithme, on donnera un poids qu’on nommera WNomdel′algo compris entre 0 et 1, selon la confiance qu’on lui porte (la somme des poids sera égale à 1 et par défaut, tous les algorithmes pourront avoir le même poids) ;
Élimination des phrases de poids faible (avec comme seuil, la taille maximale de résumé précisée par l’utilisateur);
Réarrangement de chaque dictionnaire obtenu après expulsion des phrases non significatives (les éléments seront arrangés par ordre décroissant des poids pour chaque sortie);
Donner des propabilités aux espaces des poids de chaque dictionnaire par application d’un softmax sur chacun d’eux. Ce qui donnera, pour chaque phrase de chaque dictionnaire, un nouveau poids ωphri, avec i le numéro du dictionnaire et phr le numéro de la phrase considérée dans ce dictionnaire ;
Listage complet des éléments (leurs identifiants) de tous les dictionnaires.
Pour chaque élément de la liste globale ainsi établie, appliquer la formule suivante pour obtenir un nouveau poids :
X
W = Wi ·ωphri (II.8) j
i∈D
Avec Wj le nouveau poids affecté à la phrase ayant un identifiant global j (l’identifiant là d’origine) et D la liste des dictionnaires (les sorties de chaque algorithme);
Arranger toutes les phrases par ordre décroissant dans une unique liste et sélectionner les plus haut dans la liste jusqu’à atteindre le seuil fixé (nombre de mots fixé pour la synthèse).
Constituer une liste avec les éléments sélectionnés.
Réarranger les phrases de la liste selon leur ordre de succession dans le texte d’origine.
Constituer la synthèse extraite.
Ce qui précède constitue en fait l’algorithme que nous allons implémenter pour le module de pondération et sélection.
II.6.4 Architecture du module de synthèse abstractive
Le module de synthèse abstraite n’est pas unique. Nous implémenterons plusieurs modèles (BART, BARThez, PEGASUS, mBART ou mT5 entraîné avec nos données, ainsi que tous ceux qui nous paraîtrons utiles durant les essais); Chaque module de synthèse se présentera néanmoins comme suit :
Figure II.5: Architecture globale du système de synthèse abstractive
Comme nous pouvons le remarquer, il y a toujours un module de mise en forme initial (pre-processing) qui nous permettra en gros de supprimer tous les caractères que nous ne pourrons pas gérer. Vient ensuite le module de tokenisation (le tokenizer ou tokeniseur) [49] qui consistera ici à diviser tout le texte en ses mots constitutifs et à leur affecter des identifiants numériques. Ce sont ces identifiants qui seront fournis au modèle et transformés en vecteurs par la couche d’embedding du modèle.
Le modèle quant à lui, aura toujours une architecture pareille :
Figure II.6: Architecture interne du modèle mentionné sur la figure II.5
Il s’agit en effet de l’architecture classique d’un transformer, comme présenté sur la figure I.7 à l’exception du fait qu’ici on fait explicitement apparaître l’existence de la sortie du modèle. Ça correspond au réseau linéaire suivi d’une couche de softmax tel que présenté sur la figure
I.7. Cette partie, que nous avons nommé head est différente selon les tâches [52], c’est pourquoi nous avons voulu la mentionner explicitement car, selon le besoin, on peut la modifier.
Nous devons finalement mentionner que les modules de tokenisation (nommés tokenizer en anglais) dépendront explicitement des modèles utilisés.
II.6.5 Présentation des interfaces
La partie interface nous permettra juste d’utiliser le service que nous aurons élaboré et d’évaluer par la même occasion ses performances. Elle n’est pas donc cruciale. Toutefois, voici une ébauche d’interface que nous comptons utiliser pour exploiter le service :
Figure II.7: Ébauche d’interface
Avec cette interface, on a une idée générale de la manière dont nous comptons servir le système aux utilisateurs.
II.7. CONCLUSION PARTIELLE II.7 Conclusion partielle
Dans cette partie, nous venons de présenter le résumé automatique des textes, tout en réalisant une vue d’ensemble des méthodes utilisées dans la littérature à cet effet. Nous avons mentionné que la classification des résumés que nous utiliserons sera celle les départageant en abstractive summarization et extractive summarization et que, pour notre cas, il s’agira de réaliser un système de résumé mono-document, avec une partie abstractive et une autre extractive, générant un résumé générique pour des documents de type narratif et argumentatifs.
Nous avons également listé les divers modèles de transformer adaptés à la tâche de synthèse automatique abstraite, et nous avons mentionné devoir privilégier les modèles du type BART pour des raisons qui serons précisées dans le chapitre suivant.
Enfin, nous avons réalisé la conception préliminaire du système tout en précisant que, concernant l’API, la BD (Base des Données) et les interfaces, les détails d’implémentation utiles seront précisés dans la partie dédiée à la conception proprement dite et aux tests, c’est-à-dire au chapitre suivant. Le chapitre suivant nous permettra donc finalement de préciser, réaliser et tester les méthodes que nous avons jusque-là adoptées pour la mise au point de notre système de synthèse automatique des documents.
GENERALEMENT
Place les références là où il le faut STP. Même si c’est une interpretation personnelle, elle tire la source quelque part.
Verifie aussi tous les commentaires que j’ai placé aux différents niveaux du texte
Chapitre III
Conception finale, réalisation et tests
Conclusion générale
Bibliographie
D. Adams. Combining State-of-the-art Models for Multi-document Summarization Using Maximal Marginal Relevance. University of Lethbridge, 2021.
Stergos D. Afantenos, Vangelis Karkaletsis, and Panagiotis Stamatopoulos. Summarization from medical documents: A survey. CoRR, abs/cs/0504061, 2005.
Dzmitry Bahdanau, Kyunghyun Cho, and Yoshua Bengio. Neural machine translation by jointly learning to align and translate. arXiv preprint arXiv:1409.0473, 2014.
Catherine Benincasa, Adena Calden, Emily Hanlon, Matthew Kindzerske, Kody Law, Eddery Lam, John Rhoades, Ishani Roy, Michael Satz, Eric Valentine, et al. Page rank algorithm. Department of Mathematics and Statics, University of Massachusetts, Amherst, Research, 2006.
Michael W Berry and Jacob Kogan. Text mining: applications and theory. John Wiley & Sons, 2010.
Piotr Bojanowski, Edouard Grave, Armand Joulin, and Tomas Mikolov. Enriching word vectors with subword information. Transactions of the association for computational linguistics, 5:135–146, 2017.
Boudjemaa Boudaa. Cours de génie logiciel (avec exercices résolus). Université IbnKhaldoun-Tiaret, Algérie, 02 2020.
Sergey Brin and Lawrence Page. The anatomy of a large-scale hypertextual web search engine. Computer networks and ISDN systems, 30(1-7):107–117, 1998.
O. Carton and D. Perrin. Langages formels : calculabilité et complexité : cours et exercices corrigés. Vuibert, 2014.
Zihang Dai, Zhilin Yang, Yiming Yang, Jaime Carbonell, Quoc V Le, and Ruslan Salakhutdinov. Transformer-xl: Attentive language models beyond a fixed-length context. arXiv preprint arXiv:1901.02860, 2019.
Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. Bert: Pretraining of deep bidirectional transformers for language understanding. arXiv preprint arXiv:1810.04805, 2018.
Youcef Djeriri. Les Réseaux de Neurones Artificiels. 09 2017.
Moussa Kamal Eddine, Antoine J-P Tixier, and Michalis Vazirgiannis. Barthez:
a skilled pretrained french sequence-to-sequence model. arXiv preprint arXiv:2010.12321, 2020.
Günes Erkan and Dragomir R Radev. Lexrank: Graph-based lexical centrality as salience in text summarization. Journal of artificial intelligence research, 22:457–479, 2004.
Thushan Ganegedara. Natural Language Processing with TensorFlow: Teach language to machines using Python’s deep learning library. Packt Publishing Ltd, 2018.
A. Géron. Deep Learning avec Keras et TensorFlow: Mise en oeuvre et cas concrets. Dunod, 2020.
M. Hagiwara. Real-World Natural Language Processing: Practical Applications with Deep Learning. Manning, 2021.
Patrick Hairy. Les réseaux de neurones récurrents pour les séries temporelles, Septembre 2021.
Nitin Indurkhya and Fred J Damerau. Handbook of natural language processing.
Chapman and Hall/CRC, 2010.
D. Jurafsky and J.H. Martin. Speech and Language Processing. Always learning.
Pearson, 2014.
SYNTHESE AUTOMATIQUE DES TEXTES
Min-Yen Kan, Kathleen R. McKeown, and Judith L. Klavans. Applying natural language generation to indicative summarization. CoRR, cs.CL/0107019, 2001.
Akshay Kulkarni and Adarsha Shivananda. Natural language processing recipes. Springer, 2019.
S. Lamsiyah, S. Ouatik El Alaoui, and B Espinasse. Résumé automatique guidé de textes: Etat de l’art et perspectives (guided summarization : State-of-the-art and perspectives ). In Actes de la Conférence TALN. Volume 2 - Démonstrations, articles des Rencontres Jeunes Chercheurs, ateliers DeFT, pages 55–72, Rennes, France, 5 2018. ATALA.
Zhenzhong Lan, Mingda Chen, Sebastian Goodman, Kevin Gimpel, Piyush Sharma, and Radu Soricut. Albert: A lite bert for self-supervised learning of language representations. arXiv preprint arXiv:1909.11942, 2019.
Mike Lewis, Yinhan Liu, Naman Goyal, Marjan Ghazvininejad, Abdelrahman Mohamed, Omer Levy, Ves Stoyanov, and Luke Zettlemoyer. Bart: Denoising sequence-to-sequence pre-training for natural language generation, translation, and comprehension. arXiv preprint arXiv:1910.13461, 2019.
Chin-Yew Lin. Training a selection function for extraction. In CIKM ’99, 1999.
Yinhan Liu, Jiatao Gu, Naman Goyal, Xian Li, Sergey Edunov, Marjan Ghazvininejad, Mike Lewis, and Luke Zettlemoyer. Multilingual denoising pre-training for neural machine translation. Transactions of the Association for Computational Linguistics, 8:726–742, 2020.
Yinhan Liu, Myle Ott, Naman Goyal, Jingfei Du, Mandar Joshi, Danqi Chen, Omer Levy, Mike Lewis, Luke Zettlemoyer, and Veselin Stoyanov. Roberta: A robustly optimized bert pretraining approach. arXiv preprint arXiv:1907.11692, 2019.
H. P. Luhn. The automatic creation of literature abstracts. IBM Journal of Research and Development, 2(2):159–165, 1958.
Minh-Thang Luong, Hieu Pham, and Christopher D Manning. Effective approaches to attention-based neural machine translation. arXiv preprint arXiv:1508.04025, 2015.
Mohamed Hedi Maaloul. Approche hybride pour le résumé automatique de textes. Application à la langue arabe. Theses, Université de Provence - Aix-Marseille I, December 2012. Date Soutenance 18-12-2012.
Inderjeet Mani. Automatic summarization, volume 3. John Benjamins Publishing, 2001.
Rada Mihalcea and Paul Tarau. Textrank: Bringing order into text. In Proceedings of the 2004 conference on empirical methods in natural language processing, pages 404– 411, 2004.
Tomas Mikolov, Kai Chen, Greg Corrado, and Jeffrey Dean. Efficient estimation of word representations in vector space. arXiv preprint arXiv:1301.3781, 2013.
Tomas Mikolov, Ilya Sutskever, Kai Chen, Greg S Corrado, and Jeff Dean. Distributed representations of words and phrases and their compositionality. Advances in neural information processing systems, 26, 2013.
Maali Mnasri. Résumé automatique multi-document dynamique. Theses, Université Paris-Saclay, September 2018.
Marie-Francine Moens. Automatic indexing and abstracting of document texts. Computational Linguistics, 27(1):149–149, 2001.
Ani Nenkova and Rebecca Passonneau. Evaluating content selection in summarization: The pyramid method. In HLT-NAACL 2004 - Human Language Technology Conference of the North American Chapter of the Association for Computational Linguistics, Proceedings of the Main Conference, HLT-NAACL 2004 Human Language Technology Conference of the North American Chapter of the Association for Computational Linguistics, Proceedings of the Main Conference, pages 145–152. Association for Computational Linguistics (ACL), 2004.
SYNTHESE AUTOMATIQUE DES TEXTES
Jeffrey Pennington, Richard Socher, and Christopher D Manning. Glove: Global vectors for word representation. In Proceedings of the 2014 conference on empirical methods in natural language processing (EMNLP), pages 1532–1543, 2014.
Alec Radford, Karthik Narasimhan, Tim Salimans, Ilya Sutskever, et al. Improving language understanding by generative pre-training. 2018.
Alec Radford, Jeffrey Wu, Rewon Child, David Luan, Dario Amodei, Ilya Sutskever, et al. Language models are unsupervised multitask learners. OpenAI blog, 1(8):9, 2019.
Colin Raffel, Noam Shazeer, Adam Roberts, Katherine Lee, Sharan Narang, Michael Matena, Yanqi Zhou, Wei Li, Peter J Liu, et al. Exploring the limits of transfer learning with a unified text-to-text transformer. J. Mach. Learn. Res., 21(140):1–67, 2020.
Victor Sanh, Lysandre Debut, Julien Chaumond, and Thomas Wolf. Distilbert, a distilled version of bert: smaller, faster, cheaper and lighter. arXiv preprint arXiv:1910.01108, 2019.
D. Sarkar. Text Analytics with Python: A Practitioner’s Guide to Natural Language Processing. Apress, 2019.
Barry Schiffman, Ani Nenkova, and Kathleen McKeown. Experiments in multidocument summarization. In Proceedings of the Second International Conference on Human Language Technology Research, HLT ’02, page 52–58, San Francisco, CA, USA, 2002. Morgan Kaufmann Publishers Inc.
S. Srivastava. Natural Language Processing with Python: Hands-On Labs to Apply Deep Learning Architectures to NLP Applications. Independently Published, 2021.
Brahim Tlili. Identification et commande des systèmes non linéaires : Utilisation des modèles de type NARMA. Theses, Ecole Nationale d’Ingénieurs de Tunis, July 2008.
Juan-Manuel Torres-Moreno. Automatic text summarization. John Wiley & Sons, 2014.
Lewis Tunstall, Leandro von Werra, and Thomas Wolf. Natural language processing with transformers. " O’Reilly Media, Inc.", 2022.
Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, Łukasz Kaiser, and Illia Polosukhin. Attention is all you need. Advances in neural information processing systems, 30, 2017.
Lilian Weng. Les réseaux de neurones récurrents pour les séries temporelles, Avril 2020.
Thomas Wolf, Lysandre Debut, Victor Sanh, Julien Chaumond, Clement Delangue, Anthony Moi, Pierric Cistac, Tim Rault, Rémi Louf, Morgan Funtowicz, et al. Transformers: State-of-the-art natural language processing. In Proceedings of the 2020 conference on empirical methods in natural language processing: system demonstrations, pages 38–45, 2020.
Linting Xue, Noah Constant, Adam Roberts, Mihir Kale, Rami Al-Rfou, Aditya Siddhant, Aditya Barua, and Colin Raffel. mt5: A massively multilingual pre-trained text-to-text transformer. arXiv preprint arXiv:2010.11934, 2020.
Jingqing Zhang, Yao Zhao, Mohammad Saleh, and Peter Liu. Pegasus: Pretraining with extracted gap-sentences for abstractive summarization. In International Conference on Machine Learning, pages 11328–11339. PMLR, 2020.
Jan Žižka, František Dařena, and Arnošt Svoboda. Text mining with machine learning:
principles and techniques. CRC Press, 2019.
Annexes
68 |
TP N°1 D’EDUCATION A LA PAIX Le Mahatma GANDHI KRAME KADURHA David (Matricule : 14167) Tech 1 - Génie Informatique Le 21 Août 2022 0.1 Introduction Le Mahatma Gandhi ! Qui ne connaît pas ce grand homme ? Sa pensée est connue et citée partout au monde. Plus d’un sont les hommes, et pas des moindres, qui se réclament de sa pensée.Le Mahatma Gandhi ! Qui ne connaît pas ce grand homme ? Sa pensée est connue et citée partout au monde. Plus d’un sont les hommes, et pas des moindres, qui se réclament de sa pensée.Le Mahatma Gandhi ! Qui ne connaît pas ce grand homme ? Sa pensée est connue et citée partout au monde. Plus d’un sont les hommes, et pas des moindres, qui se réclament de sa pensée.Le Mahatma Gandhi ! Qui ne connaît pas ce grand homme ? Sa pensée est connue et citée partout au monde. Plus d’un sont les hommes, et pas des moindres, qui se réclament de sa pensée. TP N°1 D’EDUCATION A LA PAIX Le Mahatma GANDHI KRAME KADURHA David (Matricule : 14167) Tech 1 - Génie Informatique Le 21 Août 2022 0.1 Introduction Le Mahatma Gandhi ! Qui ne connaît pas ce grand homme ? Sa pensée est connue et citée partout au monde. Plus d’un sont les hommes, et pas des moindres, qui se réclament de sa pensée.Le Mahatma Gandhi ! Qui ne connaît pas ce grand homme ? Sa pensée est connue et citée partout au monde. Plus d’un sont les hommes, et pas des moindres, qui se réclament de sa pensée.Le Mahatma Gandhi ! Qui ne connaît pas ce grand homme ? Sa pensée est connue et citée partout au monde. Plus d’un sont les hommes, et pas des moindres, qui se réclament de sa pensée.Le Mahatma Gandhi ! Qui ne connaît pas ce grand homme ? Sa pensée est connue et citée partout au monde. Plus d’un sont les hommes, et pas des moindres, qui se réclament de sa pensée. TP N°1 D’EDUCATION A LA PAIX Le Mahatma GANDHI KRAME KADURHA David (Matricule : 14167) Tech 1 - Génie Informatique Le 21 Août 2022 0.1 Introduction Le Mahatma Gandhi ! Qui ne connaît pas ce grand homme ? Sa pensée est connue et citée partout au monde. Plus d’un sont les hommes, et pas des moindres, qui se réclament de sa pensée.Le Mahatma Gandhi ! Qui ne connaît pas ce grand homme ? Sa pensée est connue et citée partout au monde. Plus d’un sont les hommes, et pas des moindres, qui se réclament de sa pensée.Le Mahatma Gandhi ! Qui ne connaît pas ce grand homme ? Sa pensée est connue et citée partout au monde. Plus d’un sont les hommes, et pas des moindres, qui se réclament de sa pensée.Le Mahatma Gandhi ! Qui ne connaît pas ce grand homme ? Sa pensée est connue et citée partout au monde. Plus d’un sont les hommes, et pas des moindres, qui se réclament de sa pensée. P N°1 D’EDUCATION A LA PAIX Le Mahatma GANDHI KRAME KADURHA David (Matricule : 14167) Tech 1 - Génie Informatique Le 21 Août 2022 0.1 Introduction Le Mahatma Gandhi ! Qui ne connaît pas ce grand homme ? Sa pensée est connue et citée partout au monde. Plus d’un sont les hommes, et pas des moindres, qui se réclament de sa pensée.Le Mahatma Gandhi ! Qui ne connaît pas ce grand homme ? Sa pensée est connue et citée partout au monde. Plus d’un sont les hommes, et pas des moindres, qui se réclament de sa pensée.Le Mahatma Gandhi ! Qui ne connaît pas ce grand homme ? Sa pensée est connue et citée partout au monde. Plus d’un sont les hommes, et pas des moindres, qui se réclament de sa pensée.Le Mahatma Gandhi ! Qui ne connaît pas ce grand homme ? Sa pensée est connue et citée partout au monde. Plus d’un sont les hommes, et pas des moindres, qui se réclament de sa pensée. TP N°1 D’EDUCATION A LA PAIX Le Mahatma GANDHI KRAME KADURHA David (Matricule : 14167) Tech 1 - Génie Informatique Le 21 Août 2022 0.1 Introduction Le Mahatma Gandhi ! Qui ne connaît pas ce grand homme ? Sa pensée est connue et citée partout au monde. Plus d’un sont les hommes, et pas des moindres, qui se réclament de sa pensée.Le Mahatma Gandhi ! Qui ne connaît pas ce grand homme ? Sa pensée est connue et citée partout au monde. Plus d’un sont les hommes, et pas des moindres, qui se réclament de sa pensée.Le Mahatma Gandhi ! Qui ne connaît pas ce grand homme ? Sa pensée est connue et citée partout au monde. Plus d’un sont les hommes, et pas des moindres, qui se réclament de sa pensée.Le Mahatma Gandhi ! Qui ne connaît pas ce grand homme ? Sa pensée est connue et citée partout au monde. Plus d’un sont les hommes, et pas des moindres, qui se réclament de sa pensée. TP N°1 D’EDUCATION A LA PAIX Le Mahatma GANDHI KRAME KADURHA David (Matricule : 14167) Tech 1 - Génie Informatique Le 21 Août 2022 0.1 Introduction Le Mahatma Gandhi ! Qui ne connaît pas ce grand homme ? Sa pensée est connue et citée partout au monde. Plus d’un sont les hommes, et pas des moindres, qui se réclament de sa pensée.Le Mahatma Gandhi ! Qui ne connaît pas ce grand homme ? Sa pensée est connue et citée partout au monde. Plus d’un sont les hommes, et pas des moindres, qui se réclament de sa pensée.Le Mahatma Gandhi ! Qui ne connaît pas ce grand homme ? Sa pensée est connue et citée partout au monde. Plus d’un sont les hommes, et pas des moindres, qui se réclament de sa pensée.Le Mahatma Gandhi ! Qui ne connaît pas ce grand homme ? Sa pensée est connue et citée partout au monde. Plus d’un sont les hommes, et pas des moindres, qui se réclament de sa pensée. | TP N°1 D’EDUCATION A LA PAIX Le Mahatma GANDHI KRAME KADURHA David (Matricule : 14167) Tech 1 - Génie Informatique Le 21 Août 2022 0.1 Introduction Le Mahatma Gandhi ! Qui ne connaît pas ce grand homme ? Sa pensée est connue et citée partout au monde. Plus d’un sont les hommes, et pas des moindres, qui se réclament de sa pensée.Le Mahatma Gandhi ! Qui ne connaît pas ce grand homme ? Sa pensée est connue et citée partout au monde. Plus d’un sont les hommes, et pas des moindres, qui se réclament de sa pensée.Le Mahatma Gandhi ! Qui ne connaît pas ce grand homme ? Sa pensée est connue et citée partout au monde. Plus d’un sont les hommes, et pas des moindres, qui se réclament de sa pensée.Le Mahatma Gandhi ! Qui ne connaît pas ce grand homme ? Sa pensée est connue et citée partout au monde. Plus d’un sont les hommes, et pas des moindres, qui se réclament de sa pensée. TP N°1 D’EDUCATION A LA PAIX Le Mahatma GANDHI KRAME KADURHA David (Matricule : 14167) Tech 1 - Génie Informatique Le 21 Août 2022 0.1 Introduction Le Mahatma Gandhi ! Qui ne connaît pas ce grand homme ? Sa pensée est connue et citée partout au monde. Plus d’un sont les hommes, et pas des moindres, qui se réclament de sa pensée.Le Mahatma Gandhi ! Qui ne connaît pas ce grand homme ? Sa pensée est connue et citée partout au monde. Plus d’un sont les hommes, et pas des moindres, qui se réclament de sa pensée.Le Mahatma Gandhi ! Qui ne connaît pas ce grand homme ? Sa pensée est connue et citée partout au monde. Plus d’un sont les hommes, et pas des moindres, qui se réclament de sa pensée.Le Mahatma Gandhi ! Qui ne connaît pas ce grand homme ? Sa pensée est connue et citée partout au monde. Plus d’un sont les hommes, et pas des moindres, qui se réclament de sa pensée. TP N°1 D’EDUCATION A LA PAIX Le Mahatma GANDHI KRAME KADURHA David (Matricule : 14167) Tech 1 - Génie Informatique Le 21 Août 2022 0.1 Introduction Le Mahatma Gandhi ! Qui ne connaît pas ce grand homme ? Sa pensée est connue et citée partout au monde. Plus d’un sont les hommes, et pas des moindres, qui se réclament de sa pensée.Le Mahatma Gandhi ! Qui ne connaît pas ce grand homme ? Sa pensée est connue et citée partout au monde. Plus d’un sont les hommes, et pas des moindres, qui se réclament de sa pensée.Le Mahatma Gandhi ! Qui ne connaît pas ce grand homme ? Sa pensée est connue et citée partout au monde. Plus d’un sont les hommes, et pas des moindres, qui se réclament de sa pensée.Le Mahatma Gandhi ! Qui ne connaît pas ce grand homme ? Sa pensée est connue et citée partout au monde. Plus d’un sont les hommes, et pas des moindres, qui se réclament de sa pensée. P N°1 D’EDUCATION A LA PAIX Le Mahatma GANDHI KRAME KADURHA David (Matricule : 14167) Tech 1 - Génie Informatique Le 21 Août 2022 0.1 Introduction Le Mahatma Gandhi ! Qui ne connaît pas ce grand homme ? Sa pensée est connue et citée partout au monde. Plus d’un sont les hommes, et pas des moindres, qui se réclament de sa pensée.Le Mahatma Gandhi ! Qui ne connaît pas ce grand homme ? Sa pensée est connue et citée partout au monde. Plus d’un sont les hommes, et pas des moindres, qui se réclament de sa pensée.Le Mahatma Gandhi ! Qui ne connaît pas ce grand homme ? Sa pensée est connue et citée partout au monde. Plus d’un sont les hommes, et pas des moindres, qui se réclament de sa pensée.Le Mahatma Gandhi ! Qui ne connaît pas ce grand homme ? Sa pensée est connue et citée partout au monde. Plus d’un sont les hommes, et pas des moindres, qui se réclament de sa pensée. TP N°1 D’EDUCATION A LA PAIX Le Mahatma GANDHI KRAME KADURHA David (Matricule : 14167) Tech 1 - Génie Informatique Le 21 Août 2022 0.1 Introduction Le Mahatma Gandhi ! Qui ne connaît pas ce grand homme ? Sa pensée est connue et citée partout au monde. Plus d’un sont les hommes, et pas des moindres, qui se réclament de sa pensée.Le Mahatma Gandhi ! Qui ne connaît pas ce grand homme ? Sa pensée est connue et citée partout au monde. Plus d’un sont les hommes, et pas des moindres, qui se réclament de sa pensée.Le Mahatma Gandhi ! Qui ne connaît pas ce grand homme ? Sa pensée est connue et citée partout au monde. Plus d’un sont les hommes, et pas des moindres, qui se réclament de sa pensée.Le Mahatma Gandhi ! Qui ne connaît pas ce grand homme ? Sa pensée est connue et citée partout au monde. Plus d’un sont les hommes, et pas des moindres, qui se réclament de sa pensée. TP N°1 D’EDUCATION A LA PAIX Le Mahatma GANDHI KRAME KADURHA David (Matricule : 14167) Tech 1 - Génie Informatique Le 21 Août 2022 0.1 Introduction Le Mahatma Gandhi ! Qui ne connaît pas ce grand homme ? Sa pensée est connue et citée partout au monde. Plus d’un sont les hommes, et pas des moindres, qui se réclament de sa pensée.Le Mahatma Gandhi ! Qui ne connaît pas ce grand homme ? Sa pensée est connue et citée partout au monde. Plus d’un sont les hommes, et pas des moindres, qui se réclament de sa pensée.Le Mahatma Gandhi ! Qui ne connaît pas ce grand homme ? Sa pensée est connue et citée partout au monde. Plus d’un sont les hommes, et pas des moindres, qui se réclament de sa pensée.Le Mahatma Gandhi ! Qui ne connaît pas ce grand homme ? Sa pensée est connue et citée partout au monde. Plus d’un sont les hommes, et pas des moindres, qui se réclament de sa pensée. |
Nous voulons que tous les êtres humains, ensemble ou pris isolément, jeunes ou vieux, riches ou pauvres, nobles ou roturiers, hommes ou femmes, puissent pleinement s'instruire et devenir des êtres achevés. Nous voulons qu'ils soient instruits parfaitement et formés non seulement sur tel ou tel point, mais également sur tout ce qui permet à l'homme de réaliser intégralement son essence. D'apprendre à connaître la vérité, à ne pas être trompé par des faux semblants. A aimer le bien, à ne pas être séduit par le mal, à faire ce qu'on doit faire et à se garder de ce qu'il faut éviter. A parler sagement de tout, avec tout le monde. Enfin, à toujours traiter les choses, les hommes et Dieu avec prudence et non à la légère. Et à ne jamais s'écarter de son but, le bonheur. Le Galilée de l'éducation comme on le surnommait s'est posé une question à la fois très simple et très révolutionnaire. Il s'était demandé en effet : 'Comment faire en sorte que tous les hommes accèdent à tout le savoir disponible ?'Comment offrir à tous un panorama complet de ce que les hommes savent ? C'est de l'ignorance, et de l'ignorance seule que l'homme doit se libérer.C'est de l'ignorance, et de l'ignorance seule que l'homme doit se libérer....Nous voulons que tous les êtres humains, ensemble ou pris isolément, jeunes ou vieux, riches ou pauvres, nobles ou roturiers, hommes ou femmes, puissent pleinement s'instruire et devenir des êtres achevés. Nous voulons qu'ils soient instruits parfaitement et formés non seulement sur tel ou tel point, mais également sur tout ce qui permet à l'homme de réaliser intégralement son essence. D'apprendre à connaître la vérité, à ne pas être trompé par des faux semblants. A aimer le bien, à ne pas être séduit par le mal, à faire ce qu'on doit faire et à se garder de ce qu'il faut éviter.. |
|
TP N°1 D’EDUCATION A LA PAIX Le Mahatma GANDHI KRAME KADURHA David (Matricule : 14167) Tech 1 - Génie Informatique Le 21 Août 2022 0.1 Introduction Le Mahatma Gandhi ! Qui ne connaît pas ce grand homme ? Sa pensée est connue et citée partout au monde. Plus d’un sont les hommes, et pas des moindres, qui se réclament de sa pensée.Le Mahatma Gandhi ! Qui ne connaît pas ce grand homme ? Sa pensée est connue et citée partout au monde. Plus d’un sont les hommes, et pas des moindres, qui se réclament de sa pensée.Le Mahatma Gandhi ! Qui ne connaît pas ce grand homme ? Sa pensée est connue et citée partout au monde. Plus d’un sont les hommes, et pas des moindres, qui se réclament de sa pensée.Le Mahatma Gandhi ! Qui ne connaît pas ce grand homme ? Sa pensée est connue et citée partout au monde. Plus d’un sont les hommes, et pas des moindres, qui se réclament de sa pensée. TP N°1 D’EDUCATION A LA PAIX Le Mahatma GANDHI KRAME KADURHA David (Matricule : 14167) Tech 1 - Génie Informatique Le 21 Août 2022 0.1 Introduction Le Mahatma Gandhi ! Qui ne connaît pas ce grand homme ? Sa pensée est connue et citée partout au monde. Plus d’un sont les hommes, et pas des moindres, qui se réclament de sa pensée.Le Mahatma Gandhi ! Qui ne connaît pas ce grand homme ? Sa pensée est connue et citée partout au monde. Plus d’un sont les hommes, et pas des moindres, qui se réclament de sa pensée.Le Mahatma Gandhi ! Qui ne connaît pas ce grand homme ? Sa pensée est connue et citée partout au monde. Plus d’un sont les hommes, et pas des moindres, qui se réclament de sa pensée.Le Mahatma Gandhi ! Qui ne connaît pas ce grand homme ? Sa pensée est connue et citée partout au monde. Plus d’un sont les hommes, et pas des moindres, qui se réclament de sa pensée. TP N°1 D’EDUCATION A LA PAIX Le Mahatma GANDHI KRAME KADURHA David (Matricule : 14167) Tech 1 - Génie Informatique Le 21 Août 2022 0.1 Introduction Le Mahatma Gandhi ! Qui ne connaît pas ce grand homme ? Sa pensée est connue et citée partout au monde. Plus d’un sont les hommes, et pas des moindres, qui se réclament de sa pensée.Le Mahatma Gandhi ! Qui ne connaît pas ce grand homme ? Sa pensée est connue et citée partout au monde. Plus d’un sont les hommes, et pas des moindres, qui se réclament de sa pensée.Le Mahatma Gandhi ! Qui ne connaît pas ce grand homme ? Sa pensée est connue et citée partout au monde. Plus d’un sont les hommes, et pas des moindres, qui se réclament de sa pensée.Le Mahatma Gandhi ! Qui ne connaît pas ce grand homme ? Sa pensée est connue et citée partout au monde. Plus d’un sont les hommes, et pas des moindres, qui se réclament de sa pensée. | TP N°1 D’EDUCATION A LA PAIX Le Mahatma GANDHI KRAME KADURHA David (Matricule : 14167) Tech 1 - Génie Informatique Le 21 Août 2022 0.1 Introduction Le Mahatma Gandhi ! Qui ne connaît pas ce grand homme ? Sa pensée est connue et citée partout au monde. Plus d’un sont les hommes, et pas des moindres, qui se réclament de sa pensée.Le Mahatma Gandhi ! Qui ne connaît pas ce grand homme ? Sa pensée est connue et citée partout au monde. Plus d’un sont les hommes, et pas des moindres, qui se réclament de sa pensée.Le Mahatma Gandhi ! Qui ne connaît pas ce grand homme ? Sa pensée est connue et citée partout au monde. Plus d’un sont les hommes, et pas des moindres, qui se réclament de sa pensée.Le Mahatma Gandhi ! Qui ne connaît pas ce grand homme ? Sa pensée est connue et citée partout au monde. Plus d’un sont les hommes, et pas des moindres, qui se réclament de sa pensée. TP N°1 D’EDUCATION A LA PAIX Le Mahatma GANDHI KRAME KADURHA David (Matricule : 14167) Tech 1 - Génie Informatique Le 21 Août 2022 0.1 Introduction Le Mahatma Gandhi ! Qui ne connaît pas ce grand homme ? Sa pensée est connue et citée partout au monde. Plus d’un sont les hommes, et pas des moindres, qui se réclament de sa pensée.Le Mahatma Gandhi ! Qui ne connaît pas ce grand homme ? Sa pensée est connue et citée partout au monde. Plus d’un sont les hommes, et pas des moindres, qui se réclament de sa pensée.Le Mahatma Gandhi ! Qui ne connaît pas ce grand homme ? Sa pensée est connue et citée partout au monde. Plus d’un sont les hommes, et pas des moindres, qui se réclament de sa pensée.Le Mahatma Gandhi ! Qui ne connaît pas ce grand homme ? Sa pensée est connue et citée partout au monde. Plus d’un sont les hommes, et pas des moindres, qui se réclament de sa pensée. TP N°1 D’EDUCATION A LA PAIX Le Mahatma GANDHI KRAME KADURHA David (Matricule : 14167) Tech 1 - Génie Informatique Le 21 Août 2022 0.1 Introduction Le Mahatma Gandhi ! Qui ne connaît pas ce grand homme ? Sa pensée est connue et citée partout au monde. Plus d’un sont les hommes, et pas des moindres, qui se réclament de sa pensée.Le Mahatma Gandhi ! Qui ne connaît pas ce grand homme ? Sa pensée est connue et citée partout au monde. Plus d’un sont les hommes, et pas des moindres, qui se réclament de sa pensée.Le Mahatma Gandhi ! Qui ne connaît pas ce grand homme ? Sa pensée est connue et citée partout au monde. Plus d’un sont les hommes, et pas des moindres, qui se réclament de sa pensée.Le Mahatma Gandhi ! Qui ne connaît pas ce grand homme ? Sa pensée est connue et citée partout au monde. Plus d’un sont les hommes, et pas des moindres, qui se réclament de sa pensée. |
A aimer le bien, à ne pas être séduit par le mal, à faire ce qu'on doit faire et à se garder de ce qu'il faut éviter. Ce qui fait écho à la Bible (mon peuple périt par manque de connaissance...) | Nous voulons que tous les êtres humains, ensemble ou pris isolément, jeunes ou vieux, riches ou pauvres, nobles ou roturiers, hommes ou femmes, puissent pleinement s'instruire et devenir des êtres achevés. Nous voulons qu'ils soient instruits parfaitement et formés non seulement sur tel ou tel point, mais également sur tout ce qui permet à l'homme de réaliser intégralement son essence. D'apprendre à connaître la vérité, à ne pas être trompé par des faux semblants. A aimer le bien, à ne pas être séduit par le mal, à faire ce qu'on doit faire et à se garder de ce qu'il faut éviter. A parler sagement de tout, avec tout le monde. Enfin, à toujours traiter les choses, les hommes et Dieu avec prudence et non à la légère. Et à ne jamais s'écarter de son but, le bonheur. Le Galilée de l'éducation comme on le surnommait s'est posé une question à la fois très simple et très révolutionnaire. Il s'était demandé en effet : 'Comment faire en sorte que tous les hommes accèdent à tout le savoir disponible ?'Comment offrir à tous un panorama complet de ce que les hommes savent ? C'est de l'ignorance, et de l'ignorance seule que l'homme doit se libérer. Ce qui fait écho à la Bible (mon peuple périt par manque de connaissance...) |
Nous voulons qu'ils soient instruits parfaitement et formés non seulement sur tel ou tel point, mais également sur tout ce qui permet à l'homme de réaliser intégralement son essence.
D'apprendre à connaître la vérité, à ne pas être trompé par des faux semblants.
Enfin, à toujours traiter les choses, les hommes et Dieu avec prudence et non à la légère. | Nous voulons que tous les êtres humains, ensemble ou pris isolément, jeunes ou vieux, riches ou pauvres, nobles ou roturiers, hommes ou femmes, puissent pleinement s'instruire et devenir des êtres achevés. Nous voulons qu'ils soient instruits parfaitement et formés non seulement sur tel ou tel point, mais également sur tout ce qui permet à l'homme de réaliser intégralement son essence. D'apprendre à connaître la vérité, à ne pas être trompé par des faux semblants. A aimer le bien, à ne pas être séduit par le mal, à faire ce qu'on doit faire et à se garder de ce qu'il faut éviter. A parler sagement de tout, avec tout le monde. Enfin, à toujours traiter les choses, les hommes et Dieu avec prudence et non à la légère. Et à ne jamais s'écarter de son but, le bonheur. Le Galilée de l'éducation comme on le surnommait s'est posé une question à la fois très simple et très révolutionnaire. Il s'était demandé en effet : 'Comment faire en sorte que tous les hommes accèdent à tout le savoir disponible ?'Comment offrir à tous un panorama complet de ce que les hommes savent ?
Nous voulons que tous les êtres humains, ensemble ou pris isolément, jeunes ou vieux, riches ou pauvres, nobles ou roturiers, hommes ou femmes, puissent pleinement s'instruire et devenir des êtres achevés. Nous voulons qu'ils soient instruits parfaitement et formés non seulement sur tel ou tel point, mais également sur tout ce qui permet à l'homme de réaliser intégralement son essence. D'apprendre à connaître la vérité, à ne pas être trompé par des faux semblants. A aimer le bien, à ne pas être séduit par le mal, à faire ce qu'on doit faire et à se garder de ce qu'il faut éviter. A parler sagement de tout, avec tout le monde. Enfin, à toujours traiter les choses, les hommes et Dieu avec prudence et non à la légère. Et à ne jamais s'écarter de son but, le bonheur. Le Galilée de l'éducation comme on le surnommait s'est posé une question à la fois très simple et très révolutionnaire. Il s'était demandé en effet : 'Comment faire en sorte que tous les hommes accèdent à tout le savoir disponible ?'Comment offrir à tous un panorama complet de ce que les hommes savent ? |
La science a un contrat avec la société. Contrat qui consiste à faire avancer les connaissances.
AMOS COMENIUS (père sprituel de l'UNESCO) : " Nous voulons que tous les êtres humains, ensemble ou pris isolément, jeunes ou vieux, riches ou pauvres, nobles ou roturiers, hommes ou femmes, puissent pleinement s'instruire et devenir des êtres achevés. Nous voulons qu'ils soient instruits parfaitement et formés non seulement sur tel ou tel point, mais également sur tout ce qui permet à l'homme de réaliser intégralement son essence.
D'apprendre à connaître la vérité, à ne pas être trompé par des faux semblants. A aimer le bien, à ne pas être séduit par le mal, à faire ce qu'on doit faire et à se garder de ce qu'il faut éviter.
A parler sagement de tout, avec tout le monde. Enfin, à toujours traiter les choses, les hommes et Dieu avec prudence et non à la légère. Et à ne jamais s'écarter de son but, le bonheur ".
Le Galilée de l'éducation comme on le surnommait s'est posé une question à la fois très simple et
très révolutionnaire. Il s'était demandé en effet : "Comment faire en sorte que tous les hommes
accèdent à tout le savoir disponible ?"
Comment offrir à tous un panorama complet de ce que les hommes savent ?
" C'est de l'ignorance, et de l'ignorance seule que l'homme doit se libérer. " Disait .... ???
Ce qui fait écho à la Bible (mon peuple périt par manque de connaissance...)
Nelson MANDELA : " L'éducation est la plus grande puissance transformatrice de la société". |
|
C’est ainsi que, des avancées récentes en traitement automatique du langage naturel ont prouvé que le traitement du texte par l’ordinateur peut être raffiné autant qu’on veut, dans les limites du possible.
Cela est en fait une bonne nouvelle car, il s’avère que des nombreux sujets restent fermés à la majorité des gens suite au manque de temps, au regard de la quantité d’informations à consulter pour espérer avoir ne fusse qu’une lueur d’idée du domaine ou du sujet qu’on veut rapidement explorer.
Il est souvent inintéressant de passer du temps à lire des textes très longs, surtout quand on veut juste avoir une compréhension suffisante en peu de temps de ce qui est écrit, ou quand le sujet traité ne fait pas partie de notre domaine de prédilection.
Il est donc intéressant de mettre au point un système qui pourra assister l’homme dans la tâche de synthèse des connaissances afin de promouvoir par là-même un échange entre disciplines, ce qui est souvent très enrichissant.
Est-il possible de mettre au point un système informatique capable de synthétiser les textes avec une performance de niveau humain ?
L’inclusion des traitements basés sur l’intelligence artificielle dans les modules de synthèse est-elle obligatoire pour atteindre des bonnes performances ?
Vu la complexité du langage naturel, un traitement purement linguistique ne nous permettrait pas de mettre au point un système de niveau humain en synthèse des textes;
Étant donné que, par définition, le langage naturel est difficile à formaliser complètement, on ne pourrait pas se passer de l’intelligence artificielle pour parvenir à réaliser un système performant;
Une architecture basé essentiellement sur des modèles du type transformer, joint à l’utilisation de quelques règles inspirées de la linguistique permettrait d’avoir un système de synthèse performant.
Nombreux sont des textes (livres, articles, pages web et autres documents) dont on voudrait avoir des bonnes synthèses, qu’on ne trouve que très rarement si on ne s’est pas découragé avant.
C’est la raison pour laquelle, nous nous sommes fixé comme objectif de répondre à ce besoin précis en mettant au point une application web de synthèse des textes.
Des solutions ont été proposées mais ne sont pas toujours à la hauteur de nos attentes (mettre au point un système de performance presqu’humaine en synthèse automatique des textes).
Les plus prometteuses de ces solutions se limitent à des tailles bien réduites de texte, ce qui est déjà un grand pas mais pas suffisant évidemment.
Cette recherche a pour objectif principal de concevoir et réaliser un système (une application web) qui facilitera la génération automatique des synthèses de niveau humain.
Pour la mise au point du système, nous comptons utiliser les méthodes d’analyse moyennant les techniques expérimentale (pour vérifier l’adéquation du fonctionnement de l’application mise sur pied avec le problème posé), et documentaire (pour une vision approfondie des techniques couramment utilisées et d’éventuelles améliorations nécessaires).
Au second chapitre, Présentation du résumé automatique et conception de l’architecture du système, nous y présenterons les aspects du résumé automatique essentiels à notre travail et y concevrons pas à pas le système de synthèse automatique des textes dans tous ses aspects (pas uniquement le côté synthèse).
Dans ce chapitre, nous allons présenter brièvement le traitement automatique du langage naturel, ainsi que les techniques de traitement qui seront utiles pour la réalisation de l’objectif principal de ce travail.
Nous allons donc y présenter une vue d’ensemble des architectures généralement utilisées, en nous focalisant essentiellement sur l’aspect intelligence artificielle du NLP (Natural Language Processing).
Après cela, nous parcourons divers modèles qui nous permettrons d’aborder le modèle le plus adapté à la tâche de synthèse automatique des textes, qui est l’objectif de ce travail.
Le NLP est une discipline rattachée à l’intelligence artificielle et ayant pour principal objectif, l’étude des possibilités du traitement du langage humain par des machines.
La raison pour laquelle la discipline s’inscrit comme faisant partie du domaine d’intelligence artificielle est que le langage est considéré comme étant une aptitude centrale de l’intelligence humaine, étant donné que l’usage d’un langage si complexe est l’un des éléments distinctifs principaux entre humains et autres animaux.
C’est ainsi que des tâches comme la traduction automatique, la génération automatique des textes ou aussi la synthèse automatique qui va nous intéresser dans ce travail, produisent directement du texte en sortie.
Mais, dans tous les cas, la sortie est soit immédiatement utilisable, soit alors elle est prise comme entrée d’un autre système dans la chaîne de traitement du texte.
On peut donc comprendre directement que le mot "naturel" est ici utilisé pour faire une distinction avec les langages formels.
C’est donc dans ce sens que toutes les langues parlées peuvent être vues comme des langages naturels.
Les langages formels ont une syntaxe précise et sont spécifiquement conçus pour des objectifs bien cernés (penser à tous les langages de programmation par exemple).
Ceci n’est qu’un exemple particulier pour illustrer cette dichotomie inhérente à l’emploi de la langue quelle qu’elle soit, mais cela suffit pour qu’on s’aperçoive que le problème est bel et bien réel.
Néanmoins, le principal désavantage de ces techniques était qu’elles ne parvenaient pas à capturer une grande partie de la complexité linguistique du langage humain, comme par exemple le contexte.
Ainsi, les développements, récents d’ailleurs, des réseaux de neurone et du deep learning ont donné des nouveaux outils, pour approcher dans une large mesure les performances humaines en terme de traitement de langage.
A notre avis, ces techniques sont les plus adaptées car, tout d’abord elles se rapprochent beaucoup plus des méthodes de traitement d’information par le cerveau humain, et ensuite, il serait autrement très couteux, voir impossible, d’élaborer des modèles capables d’embrasser toute la complexité du langage humain.
Cette représentation constitue d’ailleurs un problème fondamental car c’est d’elle que dépend toute la chaîne de traitement des systèmes de NLP [46].
Cela est une première étape pour diminuer la difficulté inhérente au traitement des textes.
En considérant la décomposition en mots, pour diminuer au maximum les difficultés de traitement et l’ambiguïté, on ajoute à la tokenisation d’autres traitements qui sont en général : la désaccentuation, le passage aux minuscules, la suppression des stopwords, la racinisation et la lemmatisation appliqués aux tokens obtenus [22].
Les stopwords sont, pour une langue donnée, des mots qui permettent de réaliser des phrases correctes mais qui n’apportent pas directement d’information significative sur l’ensemble (du point de vu traitement).
Cela permet juste de maximiser la probabilité de confondre des mots semblables qui sont présentés différemment dans diverses phrases.
Pour illustration, on voudrait par exemple que si on retrouve les éléments "manger", "mange", "mangeable", "mangeons" dans un corpus, qu’ils soient transformés en un seul terme "mange".
C’est cela en bref le stemming et, contrairement à ce que le nom suggère, il ne s’agit pas exactement de trouver la racine des mots (les mots dont ils dérivent).
Elle réalise en fait ce qui n’est pas réalisé par le stemming en ce sens que lemmatiser un token consiste à la transformer en sa racine, et cette dernière doit être présente dans le dictionnaire.
Cette tâche est visiblement très importante dans la phase d’interprétation des données textuelles et il s’agit d’un simple problème de classification.
Le Part-Of-Speech tagging est une tâche consistant en gros, à associer aux éléments des textes, des informations grammaticales.
Elle est fortement facilitée par des approches basées sur le deep learning comme c’est le cas aussi pour la reconnaissance d’entités nommées.
Nous allons passer sous silence certains autres concepts du NLP comme le sacs de mots et le word embeddings dont nous parlerons dans la partie qui va suivre et qui présentera le résumé automatique, en tant que tâche du NLP.
Comme cela a été maintes fois mentionné, deux approches majeures sont d’usage pour traiter automatiquement les données de langage naturel.
Mais les deux approches sont dans la majorité des cas complétées par certaines heuristiques [31].
En ce qui nous concerne, l’approche sera essentiellement numérique avec un penchant prononcé pour les techniques du deep learning.
D’ailleurs, concernant ces dernières techniques, les modèles de l’état de l’art les plus adaptés sont les transformers et leur présentation exige une revue chronologique car en effet, pour y arriver, des modèles classiques basés sur des réseaux de neurones récurrents (RNN) ont été utilisés car plus adaptés aux données séquentielles que sont les textes.
Furent ensuite introduits les mécanismes d’attention qui améliorèrent les techniques, aboutissant finalement aux modèles dits transformers, plus adaptés à des tâches de NLP élaborées.
Les réseaux de neurones artificiels (Artificial Neural Network ou ANN) sont un ensemble de neurones (artificiels) assemblés pour résoudre des tâches considérées comme requérant une certaine intelligence.
Il s’agit essentiellement d’une fonction d’agrégation ayant pour rôle de réaliser une somme pondérée des entrées qui lui sont présentées et d’une fonction d’activation qui formate la sortie de la fonction d’agrégation selon les valeurs attendues en sortie [12].
Les neurones sont généralement assemblés par couche comme présenté sur la figure qui suit :
On n’entrera pas dans le détail, vu que ce n’est pas exactement le sujet du travail mais, pour entamer la partie qui suit, il nous faut préciser que, comme pour les réseaux de neurones simples, l’entraînement exige d’appliquer une fonction de différentiation sur l’erreur produite par le système.
Mais, comme ici le gradient tient compte des grandeurs précédentes dans le temps, il y a un certain nombre de termes multiplicatifs qui peuvent amener le modèle à ne jamais converger ou au contraire, à la saturation.
Présentée comme cela, la cellule LSTM semble superflue mais si on présentait les équations associées à un réseau fait de ces cellules, on se rendra compte que c’est plutôt intuitif.
Il est évident que, pour chacune de ces portes que nous nommerons, à un instant t donné par It, Ft et Ot, le système doit apprendre ses paramètres en fonction de l’entrée et de l’état interne.
Mais on doit aussi remarquer que, l’état est défini par deux paramètres au lieu d’un seul comme pour les RNN simples.
On sait aussi que, si on veut une mémoire à long terme contrôlée, la valeur finale de ct doit être mise à jour en repérant ce qui doit être oublié parmi les éléments qui étaient précédemment dans la mémoire, pour y ajouter ensuite ce qui est sélectionné comme pertinent à l’entrée.
Et de cela on peut conclure que c’est plus intéressant d’avoir Ft et It qui prennent des valeurs entre 0 et 1 (pour modéliser la sélection) et ct devra dépendre de ces deux éléments, avec aussi l’état précédent de la mémoire à long terme.
Il va ici s’agir de ht vu que la cellule est développée par analogie avec le processus de mémorisation des systèmes naturels (mémoire à court terme correspondant à la mémoire de travail).
Cette implémentation peut être modifiée, surtout en ce qui concerne les fonctions d’activation utilisées (σ et tanh), et en particulier la fonction d’activation de finalisation tanh ici, mais c’est l’une des plus optimales.
Il faut noter que sur cette image (figure I.5), l’implémentation de la mise à jour est l’inverse de celle que nous avons décrit par les équations I.4.
Parmi les techniques d’amélioration des performances, une peut être considérée car elle a un rapport direct avec notre travail.
Les mécanismes d’attention sont en bref des techniques permettant de lutter contre la perte de mémoire qu’on constate par exemple dans les cellules récurrentes ci-haut décrites, en se focalisant sur des éléments les plus importants à chaque traitement.
Pour l’expliquer, nous allons considérer une architecture jusque là passée sous silence, mais qui permet aux modèles introduits là haut de s’utiliser efficacement pour les tâches courantes du NLP en particulier.
Ainsi, si par exemple on est entrain de vouloir traduire une longue phrase, on peut finir par transmettre un vecteur de contexte qui a perdu toute information sur les premiers éléments de la séquence passée en entrée.
C’est pour cela qu’au lieu de passer un vecteur de contexte général, les mécanismes d’attention permettraient ici de ne se focaliser que sur certaines informations lors du traitement d’un élément particulier de la séquence (en ayant évidemment passé tous les états internes passés au décodeur).
Pour le réaliser concrètement, le mécanisme d’attention global consiste à formater le vecteur de contexte en fonction des éléments de l’encodeur à prendre en compte lors du traitement par le décodeur.
Considérons que Ω, dont les termes sont représentés par wij, est la matrice des poids d’attention normalisés par une fonction softmax pour chaque ligne.
Et que Π, dont les termes sont représentés par αij, est la matrice des poids d’attention générée par le mécanismes avant normalisation.Si les éléments ci représentent à chaque fois le vecteur contexte final à l’étape i de décodage et les hj sont les vecteurs d’état interne de l’encodeur, l’attention globale revient à réaliser la manipulation suivante, pour formater le vecteur de contexte à prendre en compte pour l’élément en cours de traitement [30] :
La dernière relation du système I.5 revient à réaliser une somme pondérée des vecteurs d’état internes passés de l’encodeur, selon l’importance de chaque état pour le traitement en cours.
Cela est volontaire car c’est intuitif (on réalise des sommations sur tous les éléments).
La réponse est oui, avec des ajustements adéquats pour résoudre les faiblesses des modèles classiques dans le traitement des données séquentielles.
Les transformers sont des modèles du type encodeur-décodeur comme on peut le constater sur la figure ci-dessus (bien que certaines implémentations n’en utilisent qu’une partie selon la tâche).
Un choix intuitif, et qui s’avère être performant, est de tout faire pour que si deux termes ont des sens proches, ils aient aussi des représentations vectorielles proches.
Cela est réalisé par différentes techniques que nous présenterons dans le chapitre suivant, mais c’est là le rôle de la couche d’enchâssement (embedding).
Cela pallie au problème de perte d’information sur la position des mots quand on utilise un réseau non séquentiel comme les réseaux récurrents.
3°) Module d’auto-attention : La couche d’attention, présentée en première position dans la boîte de l’encodeur, est en fait une couche dite de self-attention car elle opère sur la même séquence d’entrée.
L’opération est réalisée pour permettre au modèle d’avoir une représentation de l’importance des termes dans la séquence d’entrée, les uns par rapport aux autres.
C’est à l’établissement des tels liens dans les représentations que sert le module d’auto-attention ici présenté.
Il est important que ce lien soit implicitement présent dans les représentations, pour que le traitement soit efficace comme on l’a mentionné lors de la présentation des mécanismes d’attention.
En effet, très brièvement, l’idée du scaled dot-product attention consiste à opérer une recherche des termes sur lesquels focaliser l’attention de la même façon qu’on réalise la recherche de la signification d’un mot dans un dictionnaire.
Si on supposait qu’il existe plusieurs termes du dictionnaire qui s’orthographient presque de la même façon que le mot qu’on cherche, on devra passer par une mesure de similarité avant de se décider sur le sens le plus probable.
Il faut noter que dk est la dimension d’une clé, et que cette normalisation permet d’améliorer les performances du modèle mais elle n’est pas la seule envisageable.
Il faut aussi noter que l’on utilise parallèlement plusieurs modules d’attention pour capture toutes les caractéristiques des séquences (on parle de multi-head attention).
En effet, contrairement à la couche de self-attention, pour laquelle tous les trois paramètres sont calculés à partir de la même séquence, la couche d’attention ici prend les clés K et valeurs V provenant de l’encodeur mais une requête Q provenant du décodeur.
7°) Module linéaire final : Il s’agit d’un réseau de neurones classique pour réaliser la déduction finale, le tout étant passé à la fin à travers une opération softmax qui permet de transformer les résultats en probabilité d’éléments générés (cela permet de choisir le terme le plus vraisemblable à générer comme sortie).
Les transformers, ici succinctement présentés, sont un modèle très adapté aux tâches de traitement automatique du langage naturel.
Nous venons de réaliser une vue d’ensemble du domaine de traitement automatique du langage naturel, ainsi que diverses techniques couramment utilisées.
Pour cela, nous avons tout d’abord justifié la préséance des modèles basés sur le deep learning pour diverses tâches du NLP.
Ensuite, nous avons évoqué les technique de pré-traitement des textes, souvent incontournables, comme la réduction des séquences en leurs tokens constitutifs, la suppression des mots fréquents mais n’apportant pas assez d’informations et la réduction des mots en leurs racines respectives.
Ce qui précède nous a finalement conduit à présenter les modèles courants du NLP basés sur les RNNs et, nous avons terminé par la présentation de l’architecture transformer, modèle que nous utiliserons pour ce travail (les précisions sur les modèles particuliers seront données au chapitre suivant).
Les transformers constituent un type de modèle qui s’avère être le plus adapté (pour le moment) au résumé automatique du texte et, dans le chapitre suivant, nous commencerons par présenter les diverses spécificités du résumé automatique comme tâche du NLP, pour finir par présenter l’architecture globale du système que nous comptons élaborer.
Le résumé automatique étant le sujet principal de ce mémoire, dans cette partie nous le présentons alors en détail en tant que discipline et tâche du NLP.
Nous allons ici présenter les théories sur la synthèse automatique des textes, en classifiant les diverses méthodes utilisées pour pouvoir situer notre système dans l’ensemble des travaux jusque-là menés sur ce sujet.
Ensuite, nous présenterons les diverses approches utilisées pour le résumé automatique, sans oublier d’approfondir notre présentation des modèles de type transformer adaptés à cette tâche, pour finalement mentionner le modèle que nous estimons le plus adapté concernant l’approche basée sur le deep-learning pour la synthèse automatique.
De cela on tire que le résumé devient automatique s’il est généré par un logiciel ou un système informatique.
Une définition assez valable est celle de TORRES-MORENO Juan-Manuel qui dit qu’un résumé automatique est un texte généré par un logiciel, cohérent et contenant une partie importante des informations pertinentes de la source, et dont le taux de compression est inférieur au tiers de la taille du(des) document(s) source(s) [48].
L’introduction du taux de compression dans la définition n’est pas anodine car, on s’est très vite rendu compte que la performance d’un système de résumé automatique dépendait fortement du taux de compression.
En effet, les études de [26] montrent que les meilleures performances des systèmes de résumé automatique sont généralement atteintes pour des taux de compression compris entre 15 et 30% [48].
Toutefois, on ne doit pas manquer de signaler que la génération automatique des résumés est un problème complexe en soi, tout comme l’évaluation des résultats.
Le résumé est en effet une tâche cognitive requérant la compréhension du texte considéré et, les humains n’étant pas toujours bons dans les tâches de synthèse, le manque d’étalon explique qu’il y ait également une difficulté d’automatisation du processus.
Tel une table des matières, un résumé indicatif renseigne le lecteur sur les thèmes abordés dans un document.
Il s’agit d’un modèle rétréci du texte d’origine, relatant le plus largement possible les informations contenues dans celui-ci.
La problématique ici est donc double : comprendre ce qui n’est pas information dans un texte et connaître le besoin de l’utilisateur final.
Néanmoins, si on n’a pas de requête spécifique de la part de l’utilisateur, le résumé informatif est réalisé en veillant à ce que l’ensemble des principaux sujets du texte d’origine soit rapporté.
Ainsi, les sujets principaux qui sont rappelés dans le résumé sont répartis de manière fidèle par rapport à l’organisation initiale afin de donner un juste aperçu du texte source.
En effet, on sait par exemple que dans le domaine journalistique, les informations les plus importantes sont souvent mentionnées au début du texte.[36]
Le problème consiste donc à repérer les segments de texte qui semblent être les plus pertinents pour faire partie du résumé final.
Les méthodes de résumé abstractives imitent, jusqu’à un certain degré, le processus naturel accompli par l’homme pour résumer un document.
Il existe aussi des résumés dits semi-extractifs, et même aussi des résumés dits par compression [48] mais nous estimons inutile de les décrire ici étant donné que la distinction abstractif-extractif suffit pour notre contexte.
Avec des critères centrés sur le contenu des textes, il existe un grand nombre d’algorithmes assez triviaux de résumé, qui sont basés entre autres sur : • La fréquence d’occurrence des mots et
L’idée majeure des techniques qui utilisent ce critère consiste à considérer que les mots les plus fréquents sont les plus liés au sujet principal du texte à résumer.
Et, à la fin, le résumé est constitué avec les phrases extraites du texte source, et dont le score dépasse un certain seuil dépendant de la taille maximale imposée pour le résumé.
Le tout est finalement réarrangé selon l’ordre d’apparition (des phrases sélectionnées) dans le texte d’origine.
En utilisant des techniques de repérage d’entités nommées (voir le chapitre précédent), on identifie les entités présentes dans le document.
L’un des moyens les plus simples pour repérer les entités nommées est de passer par l’apprentissage profond comme on l’a précédemment mentionné.
L’intuition derrière cette approche est basée sur le constat que dans un texte, les éléments ne sont pas présentés de façon arbitraire.
Pour certains types de documents (documents journalistiques par exemple), les phrases se trouvant au début sont généralement plus informatives et décrivent le sujet principal du document.
Le résumé des articles scientifiques par contre, peut essentiellement se former en se basant sur les contenus des parties résumé et introduction (sous l’hypothèse que ces dernières parties sont bien faites).
Ici, on considère une liste de mots, constituée manuellement, et qui a comme rôle de permettre de se décider si une phrase doit être prise dans le résumé ou rejetée, selon qu’elle contient ou non un(des) mot(s) de la liste qualifié(s) inhibiteur(s) ou valorisant(s).
Les méthodes que nous venons de présenter sont assez intuitives mais constituent la base des processus de synthèse.
Nous devons toutefois signaler que les résumés abstractifs se basent au fond sur les mêmes principes, soit en partant des résumés extractifs pour ensuite réaliser des paraphrases, insérer des connecteurs appropriés et éliminer les références anaphoriques dans les résumés, soit en implémentant indirectement toutes ces techniques à travers un modèle d’apprentissage automatique ou un modèle basé sur les graphes capables de capturer d’un seul coup tous ces aspects (ou une grande partie d’entre-eux).
Comme nous venons de l’introduire dans la section précédente, le résumé automatique est abordé essentiellement selon deux approches qui sont [31] :
Mais, dans tous les cas, une vue sur quelques heuristiques (méthodes basées sur le bon sens) est toujours à considérer (surtout en amont, puis en aval du processus de synthèse).
la synthèse consiste à supprimer certains mots pour n’en conserver que les plus importants;
L’approche qui se base naïvement sur la fréquence d’apparition des mots dans les textes pour juger de leur importance relative, accorde à chaque mot un poids égal à T F(i,j).
D’où finalement, le poids d’un terme i dans un document j est donné par :
L’application de cette méthode pour le résumé consiste finalement à calculer le poids de chaque phrase en additionnant les poids des termes la constituant, puis à normaliser le résultat en fonction de la taille de la phrase considérée.
Après tout, on définit un seuil qui permet de soutirer les phrases selon leur pertinence ainsi évaluée (en considérant évidemment plus pertinente une phrase dont le résultat de la sommation des poids est élevé).
Il s’agit en fait d’une matrice d’adjacence dans laquelle on pose au préalable que Mii = 0, pour tout i (c’est la même idée pour l’algorithme PageRank étant donné qu’il est logique de considérer qu’une page ne peut s’auto-référencer).
On applique la formule II.5 itérativement et à la convergence, on choisit les phrases qui vont former le résumé selon leur importance ( valeurs des T extRank(P hri) pour toute valeur de i).
Il considère la position et la longueur des phrases dans le calcul de leur pertinence; - Il est optimisé pour le résumé multi-document.
Même si, ces traitements peuvent être mélangés avec les techniques de résolution d’anaphores et les paraphrases pour obtenir des synthèses qui tendent vers la synthèse abstractive, nous devons souligner que les techniques jusque là les plus performantes pour la synthèse abstractive sont essentiellement basées sur le deep learning [36].
Le deep learning peut également être utilisé pour la synthèse extractive, permettant ainsi la génération des synthèses extraites plus cohérentes (avec résolution d’anaphores).
Ainsi donc, nous abordons les méthodes de deep learning utilisées pour cet effet dans les parties qui suivent.
Tout traitement commence par une représentation numérique des termes (des mots ici) pour qu’ils soient assimilables par le modèle.
Une autre approche, plus classique, consiste à représenter chaque mot par un vecteur de dimension égale à la taille du dictionnaire et dont tous les termes sont nuls, sauf à la position, dans le dictionnaire, du mot qu’on est entrain de vouloir représenter (on parle du one-hot encoding).
Étant artificiellement construites, sans tenir compte du sens des mots, ni de leur contexte, ces méthodes de représentation rendent la tâche de découverte des caractéristiques par les systèmes de machine learning encore plus difficile.
D’ailleurs, l’une des faiblesses de la seconde méthode décrite (le one-hot encoding) est que les vecteurs sont creux (une majorité de valeurs nulles) et de dimension inutilement très grande.
Ainsi, tout mot est représenté en réalisant une statistique (implicitement bien sûr) sur les divers mots qui l’accompagnent souvent, de telle sorte que les mots aux sens proches aient aussi des vecteurs très proches.
Il s’agit bel et bien des modèles adaptés aux tâches de synthèse, vu qu’en entrée on reçoit une séquence pour ressortir une autre séquence en sortie.
Comme nous l’avons déjà bien mentionné au précédent chapitre, nous n’allons parler que des modèles Seq2Seq de type transformer car actuellement, ils sont les plus adaptés à la tâche que nous voulons réaliser (celle de synthèse automatique).
Les transformers (voir la figure I.7) sont un modèle très avantageux car en fait, au-delà de leurs performances et autres avantages, ils facilitent encore plus la recherche en NLP en rendant effectif le transfer learning (apprentissage par transfert) dans ce domaine.
2°) Affinage de l’apprentissage (fine-tuning) : Ça consiste à finaliser l’apprentissage du modèle pré-entraîné de manière supervisée pour qu’il soit en mesure de réaliser une tâche donnée du NLP (il s’agit du transfer learning en fait).
Bien que la forme classique des transformers est bel et bien celle de la figure I.7, il existe 3 types d’implémentation selon les types de tâche visées en dernier lieu :
Ces modèles sont très bons pour les tâches de compréhension du langage comme la classification par exemple.
Ils sont bons pour les tâches demandant à la fois la compréhension et la génération des textes.
Donc, les phrases sont lues dans les deux sens pour mieux saisir tout le contexte.
2°) Like-GPT : donc semblables au transformer dénommé GPT (Generative Pre-trained Transformer) qui n’ont que la partie décodeur et sont dits auto-regressifs car, seules les parties précédant le mot en cours de traitement sont connues du modèle et il y a chaque fois réinjection des sorties à l’entrée.
Ces modèles sont principalement bons pour les tâches de NLU (Natural Language Understanding) comme la classification, le NER (Name Entity Recognition), l’extractive question-answering,...
Ces modèles sont particulièrement bons pour les tâches liées fortement au NLG (Natural Language Generation).
tégralité de l’architecture des transformers et sont ainsi bons pour les tâches demandant à la fois du NLU et du NLG comme la synthèse automatique abstractive, le generative question-answering et la traduction automatique.
allons privilégier (les modèles dérivés de BART principalement) pour réaliser cette tâche dans notre système.
Dans ce second chapitre, nous ne présenterons que les spécifications du système ainsi qu’une ébauche de conception avec une présentation de l’architecture globale.
Nous prévoyons, dans un premier temps, ne l’utiliser que pour des petits documents (la taille optimale sera déterminée avec les expérimentations au chapitre suivant).
Module de synthèse abstraite : ce module donnera une synthèse abstraite en utilisant l’un des transformers affinés pour la synthèse ou bien par le module qui sera en train de s’auto-améliorer au cours de l’utilisation du système (on l’a nommé expérimental, voir la figure II.7).
Comme les transformers réalisent des synthèses de documents de taille généralement limitée à environ une page, nous mettrons au point, dans cette partie, une pipeline qui nous permettra d’augmenter le nombre de pages (nous pensons à 100 pages mais les expérimentations nous permettrons de choisir une taille optimale, tenant compte surtout de la rapidité).
Pour ce module, nous comptons mettre au point une routine d’entraînement à partir des synthèses collectées par le système, pour améliorer au fur et à mesure les performances de ce module.
Nous comptons réaliser l’entraînement par transfer learning avec les transformers mT5[53] ou mBART [27] comme base.
N’ayant pas encore testé cette partie, nous serons fixé sur la méthode à utiliser ainsi que le modèle de base à choisir au chapitre suivant, après les expérimentations.
La base des données, que nous avons mentionné dans la figure II.4, a un double rôle :
2°) Le stockage des paires document-synthèse, ainsi que l’appréciation de l’utilisateur (évaluation par les utilisateurs).
Comme nous pouvons le voir, un traitement sera fait pour adapter les données reçues à ce qui peut être traité par le système.
Ce traitement consistera à ne retenir que des symboles alphanumériques, à réaliser la tokenisation des textes (chaque token sera une phrase pour cette partie) et à affecter un identifiant unique à chaque phrase.
Après cela, les données seront invariablement passées aux algorithmes de synthèse extractive, qui générerons chacun un groupe de poids des phrases.
Nous implémenterons plusieurs modèles (BART, BARThez, PEGASUS, mBART ou mT5 entraîné avec nos données, ainsi que tous ceux qui nous paraîtrons utiles durant les essais); Chaque module de synthèse se présentera néanmoins comme suit :
Nous devons finalement mentionner que les modules de tokenisation (nommés tokenizer en anglais) dépendront explicitement des modèles utilisés.
Dans cette partie, nous venons de présenter le résumé automatique des textes, tout en réalisant une vue d’ensemble des méthodes utilisées dans la littérature à cet effet.
Nous avons également listé les divers modèles de transformer adaptés à la tâche de synthèse automatique abstraite, et nous avons mentionné devoir privilégier les modèles du type BART pour des raisons qui serons précisées dans le chapitre suivant.
Enfin, nous avons réalisé la conception préliminaire du système tout en précisant que, concernant l’API, la BD (Base des Données) et les interfaces, les détails d’implémentation utiles seront précisés dans la partie dédiée à la conception proprement dite et aux tests, c’est-à-dire au chapitre suivant.
Le chapitre suivant nous permettra donc finalement de préciser, réaliser et tester les méthodes que nous avons jusque-là adoptées pour la mise au point de notre système de synthèse automatique des documents.
Mike Lewis, Yinhan Liu, Naman Goyal, Marjan Ghazvininejad, Abdelrahman Mohamed, Omer Levy, Ves Stoyanov, and Luke Zettlemoyer.
Tomas Mikolov, Kai Chen, Greg Corrado, and Jeffrey Dean.
Tomas Mikolov, Ilya Sutskever, Kai Chen, Greg S Corrado, and Jeff Dean.
Barry Schiffman, Ani Nenkova, and Kathleen McKeown. | UNIVERSITELIBREDESPAYSDESGRANDSLACS
FACULTE DES SCIENCES ET DES TECHNOLOGIES
APPLIQUEES
DEPARTEMENT DE GENIE ELECTRIQUE ET INFORMATIQUE
B.P 368 GOMA
www.ulpgl.net
CONCEPTION ET REALISATION D’UN
SYSTEME BASE SUR L’INTELLIGENCE
ARTIFICIELLE POUR RESUMER
AUTOMATIQUEMENT LES TEXTES
Par : KRAME KADURHA David
Travail présenté en vue de l’obtention du Diplôme d’ingénieur civil en génie électrique et informatique
Option : Génie informatique
Directeur : Prof BARAKA MUSHAGE Olivier
Encadreur : Ir MUHINDO WAMUHINDO Abdenego
ANNEE ACADEMIQUE 2021−2022
Dédicaces
Remerciements
Résumé
Sigles et abréviations
Table des matières
Dédicaces i
Remerciements ii
Résumé iii
Sigles et abréviations iv
Introduction générale 1
0.1 Contexte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
0.2 Identification et formulation du problème . . . . . . . . . . . . . . . . . . . 1
0.3 Questions de recherche . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
0.4 Hypothèses de travail . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
0.5 Justification du choix du sujet et motivations . . . . . . . . . . . . . . . . . 3
0.6 Objectifs de la recherche . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
0.6.1 Objectif général . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
0.6.2 Objectifs spécifiques . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
0.7 Méthodologie de recherche et délimitation du travail . . . . . . . . . . . . . 5
0.8 Subdivision du travail . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
Généralités sur le NLP 6
Introduction partielle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
Présentation et définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
Nécessité de l’approche par deep learning . . . . . . . . . . . . . . . . . . . 8
Quelques techniques courantes de traitement des textes . . . . . . . . . . . 9
La tokenisation (tokenization) . . . . . . . . . . . . . . . . . . . . . . 9
Les stopwords[44] . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
La racinisation (stemming) . . . . . . . . . . . . . . . . . . . . . . . . 10
La lemmatisation (lemmatization) . . . . . . . . . . . . . . . . . . . . 10
SYNTHESE AUTOMATIQUE DES TEXTES
Reconnaissance d’entités nommées (NER)[44] . . . . . . . . . . . . . 11
L’étiquetage morpho-syntaxique (POS tagging) . . . . . . . . . . . . 11
Approches du NLP . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
Les réseaux de neurones artificiels (ANN) . . . . . . . . . . . . . . . 12
Les réseaux de neurones récurrents (RNN) . . . . . . . . . . . . . . . 13
Mécanismes d’attention . . . . . . . . . . . . . . . . . . . . . . . . . 20
Les transformers . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
Conclusion partielle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
Résumé automatique et conception 29
Introduction partielle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
Présentation et définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
Catégorisation des résumés . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
Selon la fonction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
Selon le nombre de documents source . . . . . . . . . . . . . . . . . 32
Selon le genre des documents . . . . . . . . . . . . . . . . . . . . . . 32
Selon le type de sortie (résumé obtenu) . . . . . . . . . . . . . . . . . 33
Selon le type de résumeur . . . . . . . . . . . . . . . . . . . . . . . . 34
Selon le contexte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
Selon le destinataire du résumé . . . . . . . . . . . . . . . . . . . . . 35
Approches de résumé automatique . . . . . . . . . . . . . . . . . . . . . . . 35
Techniques intuitives de résumé [36] . . . . . . . . . . . . . . . . . . 35
Algorithmes classiques de résumé automatique . . . . . . . . . . . . 38
Modèles Seq2Seq . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
Methodes du Word-Embedding . . . . . . . . . . . . . . . . . . . . . 45
Modèles séquence-à-séquence proprement dits . . . . . . . . . . . . 46
Modèle BART pour la synthèse abstractive . . . . . . . . . . . . . . . 50
Conception de l’architecture globale du système . . . . . . . . . . . . . . . . 51
Spécifications du système . . . . . . . . . . . . . . . . . . . . . . . . 52
Présentation des éléments du système . . . . . . . . . . . . . . . . . 52
vi sur 68
TABLE DES MATIÈRES
Architecture du module de synthèse extractive . . . . . . . . . . . . 54
Architecture du module de synthèse abstractive . . . . . . . . . . . 56
Présentation des interfaces . . . . . . . . . . . . . . . . . . . . . . . . 58
Conclusion partielle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
Conception finale, réalisation et tests 60
Conclusion générale 61
Annexes 68
vii sur 68
Liste des figures
I.1 Réseau de neurones à une couche cachée et sans boucle [47] 13
I.2 Illustration de ce qu’est un RNN [22] 14
I.3 Comparaison entre cellules RNN classique et LSTM [18] 15
I.4 Vue fonctionnelle d’une cellule LSTM [18] 16
I.5 Cellule GRU [18] 19
I.6 Réseaux série-vers-série (en haut à gauche), série-vers-vecteur (en haut à
droite), vecteur-vers-série (en bas à gauche) et encodeur-décodeur (en bas àdroite) [16] 21
I.7 Architecture générique des transformers [50] 23
I.8 Vue éclatée d’un transformer [51] 27
II.1 Diagramme des fréquences des mots et le choix de Luhn [29] 40
II.2 Comparaison simplifiée entre BERT, GPT et BART [25] 50
II.3 Transformations de bruitage expérimentées pour BART [25] 50
II.4 Architecture globale de notre système 52
II.5 Architecture globale du système de synthèse abstractive 57
II.6 Architecture interne du modèle mentionné sur la figure II.5 57
II.7 Ébauche d’interface 58
viii
Introduction générale
0.1 Contexte
A l’ère du numérique, comme depuis l’invention de l’écriture, le texte est l’un des principaux moyens de communication et surtout, de transmission des connaissances.
Des livres aux SMS, en passant par diverses pages web, les données textuelles sont partout. En 2018, il s’agissait d’environs 80% de l’information qui circulait sur le web [23]. L’évolution de l’informatique continue à démontrer la possibilité de simplifier toujours grandement la vie de l’homme en automatisant de plus en plus l’accomplissement des tâches rébarbatives.
Certaines tâches comme celles liées explicitement à l’arithmétique semblent mieux se prêter à cette vague d’automatisation, les données numériques étant par essence celles prises en compte par les plateformes numériques.
Néanmoins, des transformations adéquates permettent de prendre en compte tout type de donnée, et le texte n’est pas exclu. C’est ainsi que, des avancées récentes en traitement automatique du langage naturel ont prouvé que le traitement du texte par l’ordinateur peut être raffiné autant qu’on veut, dans les limites du possible.
Cela est en fait une bonne nouvelle car, il s’avère que des nombreux sujets restent fermés à la majorité des gens suite au manque de temps, au regard de la quantité d’informations à consulter pour espérer avoir ne fusse qu’une lueur d’idée du domaine ou du sujet qu’on veut rapidement explorer.
C’est en ce sens que la mise au point des technologies pouvant faciliter l’exploration des connaissances présentées sous forme textuelle est salvatrice.
0.2 Identification et formulation du problème
Comme présenté dans la section précédente, la voie la plus privilégiée pour transmettre les connaissances est l’écriture. Mais, admettons que souvent, dans un long texte, la
1
SYNTHESE AUTOMATIQUE DES TEXTES
quantité d’information pertinente est moindre par rapport à la longueur du texte entier.
Comment faire donc pour identifier cette partie utile et gagner ainsi en temps ?
Il est souvent inintéressant de passer du temps à lire des textes très longs, surtout quand on veut juste avoir une compréhension suffisante en peu de temps de ce qui est écrit, ou quand le sujet traité ne fait pas partie de notre domaine de prédilection. Il est donc intéressant de mettre au point un système qui pourra assister l’homme dans la tâche de synthèse des connaissances afin de promouvoir par là-même un échange entre disciplines, ce qui est souvent très enrichissant.
0.3 Questions de recherche
Vu le problème que nous venons de présenter, une question se pose :
Est-il possible de mettre au point un système informatique capable de synthétiser les textes avec une performance de niveau humain ?
La précédente question nous amène aussi à nous demander ceci :
Un traitement purement linguistique ne pourrait-il pas nous permettre de générer des synthèses suffisamment bons pour atteindre notre objectif ?
L’inclusion des traitements basés sur l’intelligence artificielle dans les modules de synthèse est-elle obligatoire pour atteindre des bonnes performances ?
Quelle est l’architecture globale la plus adaptée pour réaliser un système de synthèse automatique performant ?
0.4 Hypothèses de travail
A la suite des questions que nous venons de soulever, nous postulons que :
Vu la complexité du langage naturel, un traitement purement linguistique ne nous permettrait pas de mettre au point un système de niveau humain en synthèse des textes;
0.5. JUSTIFICATION DU CHOIX DU SUJET ET MOTIVATIONS
Étant donné que, par définition, le langage naturel est difficile à formaliser complètement, on ne pourrait pas se passer de l’intelligence artificielle pour parvenir à réaliser un système performant;
Une architecture basé essentiellement sur des modèles du type transformer, joint à l’utilisation de quelques règles inspirées de la linguistique permettrait d’avoir un système de synthèse performant.
0.5 Justification du choix du sujet et motivations
Pour synthétiser un texte, il faut l’avoir aumoins lu! Et pourtant, pour lire un texte, il faut du temps, une denrée souvent rare.
Certains textes sont souvent fournis, accompagnés des synthèses qui sont parfois très bonnes, parfois incomplètes et parfois même très polarisées ou tout simplement mauvaises. Toutefois, avoir une synthèse à la demande serait mieux que de ne trouver que des synthèses de certains textes, sans d’ailleurs en avoir le plus souvent besoin. Nombreux sont des textes (livres, articles, pages web et autres documents) dont on voudrait avoir des bonnes synthèses, qu’on ne trouve que très rarement si on ne s’est pas découragé avant. C’est la raison pour laquelle, nous nous sommes fixé comme objectif de répondre à ce besoin précis en mettant au point une application web de synthèse des textes. Beaucoup de chercheurs en linguistique et en traitement automatique du langage naturel principalement se sont penché sur ce sujet [23, 48, 1, 21, 2].
Des solutions ont été proposées mais ne sont pas toujours à la hauteur de nos attentes (mettre au point un système de performance presqu’humaine en synthèse automatique des textes). Les plus prometteuses de ces solutions se limitent à des tailles bien réduites de texte, ce qui est déjà un grand pas mais pas suffisant évidemment. C’est pour cette raison qu’il nous semble pertinent d’étudier cette question en profondeur et de mettre au point un système complet et utilisable en dehors du monde de la recherche.
Socialement, la mise au point de ce système sera d’une très grande importance. Cela dans plusieurs axes dont principalement :
Pour les chercheurs, car il pourra faciliter le survol rapide des connaissances provenant SYNTHESE AUTOMATIQUE DES TEXTES
des filières liées à leurs domaines, sans être obligés de consulter à l’avance un tas de documents issus de ces domaines connexes;
Pour tout le monde alors, le système pourra permettre un gain de temps considérable chaque fois qu’il donnera la possibilité d’avoir accès à une synthèse de bonne qualité à la demande, en très peu de temps.
0.6 Objectifs de la recherche
Objectif général
Cette recherche a pour objectif principal de concevoir et réaliser un système (une application web) qui facilitera la génération automatique des synthèses de niveau humain.
Objectifs spécifiques
Pour arriver à bout de notre projet nous comptons :
Évaluer les failles et limites des techniques de synthèse automatique existantes;
Corriger les failles ou compléter les techniques de synthèse automatique existantes; • Établir des architectures logiques optimales pour obtenir des synthèses de qualité;
Élaborer une interface de programmation d’applications devant faciliter l’accès au service de synthèse automatique;
Mettre au point une base de données pour stocker les synthèses les mieux cotées par les usagers, en prévision d’une amélioration future du système;
Réaliser une interface web de qualité pour permettre l’accès au service par divers utilisateurs.
0.7. MÉTHODOLOGIE DE RECHERCHE ET DÉLIMITATION DU TRAVAIL
Méthodologie de recherche et délimitation du travail
Pour la mise au point du système, nous comptons utiliser les méthodes d’analyse moyennant les techniques expérimentale (pour vérifier l’adéquation du fonctionnement de l’application mise sur pied avec le problème posé), et documentaire (pour une vision approfondie des techniques couramment utilisées et d’éventuelles améliorations nécessaires).
Ce travail se focalisera sur la synthèse des documents du type informationnel (livres historiques, discours, articles de presse, lettres, nouvelles, romans et tout autre type de document ayant une faible densité d’expressions mathématiques) et il s’agira d’une synthèse mono-document.
Subdivision du travail
Excepté l’introduction et la conclusion générales, ce travail sera ainsi constitué :
Au premier chapitre, Généralités sur le traitement automatique du langage naturel, nous passerons en revu toute la théorie nécessaire à la compréhension de notre travail.
Au second chapitre, Présentation du résumé automatique et conception de l’architecture du système, nous y présenterons les aspects du résumé automatique essentiels à notre travail et y concevrons pas à pas le système de synthèse automatique des textes dans tous ses aspects (pas uniquement le côté synthèse).
Au troisième chapitre : Conception finale, réalisation et tests, nous y finaliserons la conception et expliquerons les points importants de l’implémentation en nous basant sur la conception faite, puis nous présenterons les résultats des tests que nous aurons effectué.
Chapitre I
Généralitéssurletraitementautomatique du langage naturel
Introduction partielle
Dans ce chapitre, nous allons présenter brièvement le traitement automatique du langage naturel, ainsi que les techniques de traitement qui seront utiles pour la réalisation de l’objectif principal de ce travail. Nous allons donc y présenter une vue d’ensemble des architectures généralement utilisées, en nous focalisant essentiellement sur l’aspect intelligence artificielle du NLP (Natural Language Processing).
Dans un premier temps, nous y présentons quelques techniques, souvent incontournables lorsqu’on veut réaliser une tâche de traitement du langage. Après cela, nous parcourons divers modèles qui nous permettrons d’aborder le modèle le plus adapté à la tâche de synthèse automatique des textes, qui est l’objectif de ce travail.
Présentation et définitions
Le NLP est une discipline rattachée à l’intelligence artificielle et ayant pour principal objectif, l’étude des possibilités du traitement du langage humain par des machines. La raison pour laquelle la discipline s’inscrit comme faisant partie du domaine d’intelligence artificielle est que le langage est considéré comme étant une aptitude centrale de l’intelligence humaine, étant donné que l’usage d’un langage si complexe est l’un des éléments distinctifs principaux entre humains et autres animaux.
Le NLP inclut l’ensemble d’algorithmes, des tâches et des problèmes prenant en entrée
6
I.2. PRÉSENTATION ET DÉFINITIONS
des textes produits par des humains, pour finalement ressortir des informations pertinentes à propos de ces derniers ou alors du texte modifié de façon approprié selon l’objectif poursuivi. C’est ainsi que des tâches comme la traduction automatique, la génération automatique des textes ou aussi la synthèse automatique qui va nous intéresser dans ce travail, produisent directement du texte en sortie.
Mais, dans tous les cas, la sortie est soit immédiatement utilisable, soit alors elle est prise comme entrée d’un autre système dans la chaîne de traitement du texte.
On peut toutefois se demander la raison pour laquelle on parle de traitement automatique du "langage naturel" (quitte à se demander ce qui distinguerait un langage naturel des autres langages).
Pour établir clairement cette différence, il est nécessaire de donner une définition de ce qu’est un langage formel. Pour caricaturer, un langage formel est celui pour lequel il existe un mécanisme fini, et explicite, permettant d’en faire une analyse, quand bien même il serait constitué d’un nombre infini de mots. Donc, c’est un ensemble de mots analysable par un automate (au sens mathématique du terme) [9].
On peut donc comprendre directement que le mot "naturel" est ici utilisé pour faire une distinction avec les langages formels. C’est donc dans ce sens que toutes les langues parlées peuvent être vues comme des langages naturels. Les langages formels ont une syntaxe précise et sont spécifiquement conçus pour des objectifs bien cernés (penser à tous les langages de programmation par exemple). Ils sont donc très précis tant au point de vu grammatical que sémantique.
Concernant les langues humaines usuellement utilisées, on ne peut pas dire, sans être démenti, qu’elles sont dénuées d’imprécisions. Elles regorgent en générale une grande richesse, ce qui a pour conséquence d’introduire très souvent une grande ambiguïté. Pour s’en convaincre, il suffirait par exemple de considérer la phrase suivante :
Je le vois avec mes jumelles.
Très vite on remarque que cette phrase peut s’interpréter selon le contexte. On ne sait pas, en effet, si le sujet affirme voir quelqu’un avec ses jumelles d’observation, se promenant avec ses enfants jumelles, ou si le sujet voit quelque chose en utilisant ses jumelles en tant qu’instrument.
Ceci n’est qu’un exemple particulier pour illustrer cette dichotomie inhérente à l’emploi de la langue quelle qu’elle soit, mais cela suffit pour qu’on s’aperçoive que le problème est bel et bien réel.
Ce n’est d’ailleurs pas juste au niveau des interprétations qu’on peut identifier ce problème. Il s’observe même quand on considère les règles de grammaire. Certaines règles sont ainsi admises par certains linguistes mais rejetées ou trouvées superflues par d’autres [20].
C’est tout ce qui précède qui rend le langage humain à la fois riche et challengeant quand il s’agit de doter les machines de cette aptitude. D’où la raison d’être d’une discipline à part entière dédiée à la mise au point des règles de traitement du langage naturel, le NLP
[17].
I.3 Nécessité de l’approche par deep learning
Avant l’avènement du deep learning, des techniques traditionnelles du NLP étaient utilisées pour des tâches comme la détection des spams, l’analyse des sentiments et le POS (Part Of Speech tagging). Ces approches utilisaient essentiellement des caractéristiques statistiques des séquences comme, la fréquence des mots et les co-occurences par exemple. Néanmoins, le principal désavantage de ces techniques était qu’elles ne parvenaient pas à capturer une grande partie de la complexité linguistique du langage humain, comme par exemple le contexte.
Ainsi, les développements, récents d’ailleurs, des réseaux de neurone et du deep learning ont donné des nouveaux outils, pour approcher dans une large mesure les performances humaines en terme de traitement de langage. A notre avis, ces techniques sont les plus adaptées car, tout d’abord elles se rapprochent beaucoup plus des méthodes de traitement d’information par le cerveau humain, et ensuite, il serait autrement très couteux, voir impossible, d’élaborer des modèles capables d’embrasser toute la complexité du langage humain.
Le deep learning pour le NLP est axé grosso-modo sur la représentation d’entités textu-
I.4. QUELQUES TECHNIQUES COURANTES DE TRAITEMENT DES TEXTES
elles et le traitement élaboré sur ces représentations, de manière à en tirer des informations pertinentes ou à réaliser des transformations appropriées. Cette représentation constitue d’ailleurs un problème fondamental car c’est d’elle que dépend toute la chaîne de traitement des systèmes de NLP [46].
I.4 Quelquestechniquescourantesdetraitementdestextes
Dans cette partie, nous allons présenter diverses techniques intervenant dans le traitement des données de langage naturel. Ces traitements seront présentés de manière à dégager un pattern presque récurrent en terme de structure de traitement pour divers systèmes de NLP. Pour cela, nous allons d’abord présenter certaines manipulations réalisées sur les données en guise de pré-traitement. Puis, nous évoquerons deux techniques utiles aux tâches relevant du NLU (Natural Language Understanding).
I.4.1 La tokenisation (tokenization)
Manipuler des longues chaînes de caractères ne serait pas envisageable. Mais en informatique on est habitué à traiter des structures en terme de listes, de tableaux, de vecteurs,... Le tout étant représenté numériquement. C’est pour cela que l’opération consistant à réduire un corpus de texte en ses tokens est centrale.
Dans notre contexte, la tokenisation est une opération qui consiste à décomposer un texte
(une suite de phrases) en ses phrases constitutives ou une phrase en ses mots constitutifs. Cela est une première étape pour diminuer la difficulté inhérente au traitement des textes. En considérant la décomposition en mots, pour diminuer au maximum les difficultés de traitement et l’ambiguïté, on ajoute à la tokenisation d’autres traitements qui sont en général : la désaccentuation, le passage aux minuscules, la suppression des stopwords, la racinisation et la lemmatisation appliqués aux tokens obtenus [22].
I.4.2 Les stopwords[44]
Les stopwords sont, pour une langue donnée, des mots qui permettent de réaliser des phrases correctes mais qui n’apportent pas directement d’information significative sur l’ensemble (du point de vu traitement). Il s’agit par exemple en français de mots comme de, la, le,... ce qui correspond en gros aux prépositions, aux articles, aux conjonctions,... Il faut néanmoins préciser qu’on peut très bien décider de ne pas supprimer certains stopwords.
I.4.3 La racinisation (stemming)
La racinisation ou stemming en anglais consiste à découper le token de manière à n’en conserver qu’une partie qui semble rendre mieux compte de ce dont dérive ledit token. Seulement, ceci est fait sans se fier à ce que le résultat obtenu en tant que racine fasse partie du dictionnaire de la langue considérée [44, 22].
Cela permet juste de maximiser la probabilité de confondre des mots semblables qui sont présentés différemment dans diverses phrases. C’est à des fins de comparaison de phrases et de réduction d’ambiguïté. Pour illustration, on voudrait par exemple que si on retrouve les éléments "manger", "mange", "mangeable", "mangeons" dans un corpus, qu’ils soient transformés en un seul terme "mange". Cela se fait en découpant tous les mots qui ajoutent
d’autres affixes au terme. C’est cela en bref le stemming et, contrairement à ce que le nom suggère, il ne s’agit pas exactement de trouver la racine des mots (les mots dont ils dérivent). L’opération consiste essentiellement à réaliser un découpage des mots de manière à en supprimer les affixes.
I.4.4 La lemmatisation (lemmatization)
La lemmatisation quant à elle est une opération plus soignée mais plus coûteuse en terme d’implémentation [44, 22]. Elle réalise en fait ce qui n’est pas réalisé par le stemming en ce sens que lemmatiser un token consiste à la transformer en sa racine, et cette dernière doit être présente dans le dictionnaire. Par exemple, pour un mot au pluriel, il s’agira de le remplacer par son singulier, un verbe conjugué, par son infinitif,... Pour illustration, la
I.4. QUELQUES TECHNIQUES COURANTES DE TRAITEMENT DES TEXTES
lemmatisation consisterait à transformer par exemple "va", "allions", "irons" et "allé" par "aller" et "une" et "des" par "un". Cette tâche est grandement facilitée par des techniques de deep learning.
L’obtention des tokens peut également conduire à des tâches plus élaborées comme la détection des entités nommées et l’étiquetage morpho-syntaxique. Il s’agit des tâches très importantes que nous devons nécessairement mentionner.
I.4.5 Reconnaissance d’entités nommées (NER)[44]
La détection des entités nommées (Named Entity Recognition ou NER) consiste à repérer tout ce qui correspond à des noms de personnes, des noms d’organisations ou d’entreprises, des noms de lieux, des quantités, des distances, des valeurs, des dates ou tout autre élément qui constitue une nomination d’une entité existante précise dans un texte donné. Cette tâche est visiblement très importante dans la phase d’interprétation des données textuelles et il s’agit d’un simple problème de classification.
I.4.6 L’étiquetage morpho-syntaxique (POS tagging)
Le Part-Of-Speech tagging est une tâche consistant en gros, à associer aux éléments des textes, des informations grammaticales. En général, il s’agit d’associer aux termes des textes, leur nature grammaticale. Cela consisterait à dire que tel élément est un nom, tel autre un verbe,...[44, 22]
Cette tâche n’est pas une fin en soi. En effet, c’est une première étape dans l’analyse structurelle des textes, permettant de déduire diverses dépendances du point de vu linguistique. Elle est fortement facilitée par des approches basées sur le deep learning comme c’est le cas aussi pour la reconnaissance d’entités nommées.
Nous allons passer sous silence certains autres concepts du NLP comme le sacs de mots et le word embeddings dont nous parlerons dans la partie qui va suivre et qui présentera le résumé automatique, en tant que tâche du NLP.
I.5 Approches du NLP
Comme cela a été maintes fois mentionné, deux approches majeures sont d’usage pour traiter automatiquement les données de langage naturel. Il s’agit de l’approche numérique et de l’approche symbolique ou linguistique. Mais les deux approches sont dans la majorité des cas complétées par certaines heuristiques [31].
En ce qui nous concerne, l’approche sera essentiellement numérique avec un penchant prononcé pour les techniques du deep learning. D’ailleurs, concernant ces dernières techniques, les modèles de l’état de l’art les plus adaptés sont les transformers et leur présentation exige une revue chronologique car en effet, pour y arriver, des modèles classiques basés sur des réseaux de neurones récurrents (RNN) ont été utilisés car plus adaptés aux données séquentielles que sont les textes. Ensuite, le constat de leur mémoire limitée a fait à ce qu’on les modifie pour obtenir des unités à mémoire plus large dont les LSTM(Long Short-Term Memory) et les GRU(Gated Recurrent Unit). Furent ensuite introduits les mécanismes d’attention qui améliorèrent les techniques, aboutissant finalement aux modèles dits transformers, plus adaptés à des tâches de NLP élaborées.
I.5.1 Les réseaux de neurones artificiels (ANN)
Les réseaux de neurones artificiels (Artificial Neural Network ou ANN) sont un ensemble de neurones (artificiels) assemblés pour résoudre des tâches considérées comme requérant une certaine intelligence. Le neurone artificiel est un algorithme élaboré en s’inspirant du modèle théorique simplifié d’un neurone naturel. Il s’agit essentiellement d’une fonction d’agrégation ayant pour rôle de réaliser une somme pondérée des entrées qui lui sont présentées et d’une fonction d’activation qui formate la sortie de la fonction d’agrégation selon les valeurs attendues en sortie [12].
Les neurones sont généralement assemblés par couche comme présenté sur la figure qui suit :
Figure I.1: Réseau de neurones à une couche cachée et sans boucle [47]
Ce qui vient d’être présenté est suffisant pour avoir une idée globale de ce qu’est réellement un réseau de neurones artificiel. Néanmoins, nous pousserons plus loin pour toucher le plus vite possible aux modèles qui nous intéressent dans ce travail.
I.5.2 Les réseaux de neurones récurrents (RNN)
Un RNN(Recurrent Neural Network) est un type de réseaux de neurones conçu en principe pour traiter les données séquentielles, comme les données textuelles,...
La principale différence structurelle entre les ANN simples et les RNN est l’existence des connexions de récurrence dans ces derniers. Il s’agit des boucles permettant la prise en compte des sorties passées dans le traitement final des données [16].
Pour l’illustrer, rien de mieux qu’une image représentant la structure fonctionnelle des réseaux de neurones récurrents :
Figure I.2: Illustration de ce qu’est un RNN [22]
Où xi, hi et A représentent respectivement les entrées (à chaque pas temporel i), les états internes qui en résultent et le module récurent utilisé.
Pour une meilleure compréhension, une présentation formelle serait plus commode : Soient Wx la matrice des poids associée au vecteur d’entrée x, Wy une matrice associée au vecteur de sortie y et Wh celle associée au vecteur représentant les états cachés du réseau, avec bh et by respectivement les vecteurs des biais des neurones pour l’état caché et pour la sortie. Si on nomme aussi par yt la sortie du réseau à un instant donné t, on aura [15] :
ht
yt
= fact (Wxxt +Whht−1 +bh)
= gact Wyht +by
(I.1)
On voit très bien que la sortie du système dépend non seulement de l’entrée, mais aussi de l’état du système (h).
Les fonctions d’activation fact et gact qui sont mentionnées dans les équations I.1 représentent respectivement la tangente hyperbolique tanh et la fonction dite sof tmax [15].
L’entraînement des réseaux de neurones récurrents se fait de la même façon que pour les réseaux de neurones simples (avec uniquement une différence due au fait que pour le RNN on prend en compte le temps). On n’entrera pas dans le détail, vu que ce n’est pas exactement le sujet du travail mais, pour entamer la partie qui suit, il nous faut préciser que, comme pour les réseaux de neurones simples, l’entraînement exige d’appliquer une fonction de différentiation sur l’erreur produite par le système. Il s’agit de la fonction gradient. Mais, comme ici le gradient tient compte des grandeurs précédentes dans le temps, il y a un certain nombre de termes multiplicatifs qui peuvent amener le modèle à ne jamais converger ou au contraire, à la saturation. C’est le problème classique d’évanouissement (disparition) des gradients ou d’explosion des gradients [15].
En réponse au problème de disparition des gradients, les cellules LSTM (Long Short-Term Memory) sont utilisées en lieu et place des cellules RNN normales.
Les cellules LSTM
Les cellules LSTM (pour Long Short-Term Memory) sont utilisées en lieu et place des cellules RNN classiques (dites vanilla) pour permettre au réseau de traiter des séquences de plus en plus longues sans perte rapide d’information [16]. Pour cela, des éléments de contrôle de la mémoire de la cellule sont ajoutés. Pour illustrer nos propos, voici une image qui nous permettra de différencier une cellule RNN classique d’une cellule LSTM :
Figure I.3: Comparaison entre cellules RNN classique et LSTM [18]
Présentée comme cela, la cellule LSTM semble superflue mais si on présentait les équations associées à un réseau fait de ces cellules, on se rendra compte que c’est plutôt intuitif. Pour aborder les équations associées, considérons l’image suivante :
Figure I.4: Vue fonctionnelle d’une cellule LSTM [18]
Une cellule LSTM se comprend en la considérant comme constituée d’un ensemble de portes avec des fonctions bien particulières. Il s’agit d’une porte d’entrée, une porte d’oubli et une porte de sortie.
Il est évident que, pour chacune de ces portes que nous nommerons, à un instant t donné par It, Ft et Ot, le système doit apprendre ses paramètres en fonction de l’entrée et de l’état interne. Mais on doit aussi remarquer que, l’état est défini par deux paramètres au lieu d’un seul comme pour les RNN simples. Il s’agit, à un instant t donné, de ht (considéré comme état à court terme) et de ct (qui est un état à long terme mais dont le contenu est contrôlé, au vu de l’architecture de la cellule).
De ce que nous venons de dire, nous pouvons conclure que Ft, It et Ot sont des fonctions de Xt et de ht−1 aux poids près. On sait aussi que, si on veut une mémoire à long terme contrôlée, la valeur finale de ct doit être mise à jour en repérant ce qui doit être oublié parmi les éléments qui étaient précédemment dans la mémoire, pour y ajouter ensuite ce qui est sélectionné comme pertinent à l’entrée. Cela revient à utiliser Ft et It comme des portes de contrôle (ou de sélection). Et de cela on peut conclure que c’est plus intéressant d’avoir Ft et It qui prennent des valeurs entre 0 et 1 (pour modéliser la sélection) et ct devra dépendre de ces deux éléments, avec aussi l’état précédent de la mémoire à long terme.
Il est aussi vraisemblable que, l’état à court terme doit provenir de la mémoire à long terme (ça correspondra à une sélection de ce qui doit être pris en compte directement dans la mémoire à long terme). Cet état ht doit par conséquent dépendre de ct (il faut néanmoins noter qu’une autre approche serait possible ici, mais celle-ci est déjà pertinente). Finalement, on sait que la sortie finale doit nécessairement dépendre de l’état interne de la cellule. Il va ici s’agir de ht vu que la cellule est développée par analogie avec le processus de mémorisation des systèmes naturels (mémoire à court terme correspondant à la mémoire de travail).
De ce qu’on vient de dire on peut tirer que, fondamentalement on doit avoir :
F
t
I t
O
t
c t
h t
y t
= F (Xt,ht−1) = G(Xt,ht−1) = J (Xt,ht−1)
= K(ct−1,Xt,ht−1)
= L(ct)
= M(ht)
(I.2)
Avec F ,G,J ,K,L,M des fonctions dépendant des coefficients considérés (poids et/ou éléments de sélection qui sont les diverses portes définies).
Une implémentation classique de ce raisonnement se présente comme suit [16, 15] :
F
t
I t
O
t
c t
h t
y t
= σ Wf xXt +Wf hht−1 +bf
= σ WixXt +Wf iht−1 +bi
= σ (WoxXt +Wohht−1 +bo)
= Ft ◦ct−1 +It ◦tanh(WcxXt +Wchht−1 +bc)
= Ot ◦tanh(ct)
= Wyhht +by
(I.3)
Il faut remarquer qu’on a utilisé la fonction sigmoïde σ pour restreindre les valeurs des sélecteurs (portes) entre 0 et 1, puis on a utilisé le produit de Hadamard (produit terme à terme des matrices) pour réaliser effectivement la sélection grâce aux portes, en diminuant les termes dont les valeurs correspondantes des portes sont proches de 0 et en essayant de conserver ceux dont les valeurs correspondantes des portes sont proches de 1.
Cette implémentation peut être modifiée, surtout en ce qui concerne les fonctions d’activation utilisées (σ et tanh), et en particulier la fonction d’activation de finalisation tanh ici, mais c’est l’une des plus optimales.
Le seul problème qui demeure est que le nombre de termes à apprendre est très grand. Cela a fait à ce qu’on puisse essayer de le diminuer en implémentant le GRU (Gated Recurrent Unit) poussant un peu plus loin l’abstraction des portes pour diminuer le nombre de paramètres.
Les cellules GRU
Les cellules GRU (Gated Recurrent Unit) sont une autre implémentation des cellules des réseaux de neurones récurrents comme les LSTM à la différence près que, bien que partant de la même idée fondamentale évoquée précédemment, les GRU apparaissent comme une simplification des LSTM.
Elles possèdent néanmoins des performances comparables en ce qui concerne la prédiction des séries temporelles,... Les simplifications sont réalisées au niveau des états cachés et des portes. On conserve un seul état caché h (quitte à le contrôler à l’interne pour implémenter la mémorisation à long terme et à court terme). Et pour les portes, on fusionne les portes de sélection des entrées avec celle des éléments à oublier (donc les portes I et F) pour former une porte dite de mise à jour (porte qui sera appelée update ou U). La porte de sélection des éléments de sortie quant à elle, est transformée en porte de réinitialisation.
Ces deux portes (de mise à jour et de réinitialisation) sont en fait implémentées de façon identique que celles des cellules LSTM. La particularité des GRU se situe principalement au niveau de la gestion de la mémoire (l’implémentation du processus de mémorisation) car, ayant supprimé la distinction long-terme/court-terme, il fallait bien trouver un mécanisme devant permettre de bien gérer les deux aspects de la mémoire avec un seul état interne conservé.
C’est ainsi que, la porte de mise à jour (porte U) est introduite dans le calcul de l’état h pour assurer la sélection du type de mise à jour à effectuer. Il s’agit de faire en sorte que, selon l’état interne et l’entrée, tout l’état interne précédent soit considéré mais que certains éléments soient complètement modifiés, selon le besoin, et d’autres presque conservés.
Ainsi donc, h devient une combinaison d’éléments provenant de l’état interne précédent avec ceux provenant des nouveaux calculs effectués par la cellule (en fonction de l’entrée et de l’état interne précédent). Le comportement est alors le suivant :
Quand le vecteur de mise à jour a un terme proche de 1, cet état interne est presque conservé. Par conséquent, sa mise à jour est presque ignorée. Quand c’est plutôt 0, l’état interne précédent est presque ignorée et une mise à jour complète de cet état est effectuée.
La formulation mathématique permet de mieux en saisir le fonctionnement [16, 15] :
U
t
R
t
h t
y t
= σ (WuxXt +Wuhht−1 +bu)
= σ (WrxXt +Wriht−1 +br)
= Ut ◦ht−1 +(1−Ut)◦tanh(WhxXt +Whr (Rtht−1)+bc)
= Wyhht +by
(I.4)
Et pour illustration, on peut considérer l’image suivante :
Figure I.5: Cellule GRU [18]
Il faut noter que sur cette image (figure I.5), l’implémentation de la mise à jour est l’inverse de celle que nous avons décrit par les équations I.4. C’est-à-dire que les termes Ut et (1−Ut) sont permutés. Mais aussi, ici Zt représente Ut.
Ces modèles fonctionnent très bien et certaines implémentations permettent d’améliorer encore leurs performances. Ils sont néanmoins lents à entraîner, surtout à cause de l’aspect temporel. Parmi les techniques d’amélioration des performances, une peut être considérée car elle a un rapport direct avec notre travail. Il s’agit des mécanismes d’attention [3].
I.5.3 Mécanismes d’attention
Les mécanismes d’attention sont en bref des techniques permettant de lutter contre la perte de mémoire qu’on constate par exemple dans les cellules récurrentes ci-haut décrites, en se focalisant sur des éléments les plus importants à chaque traitement. Le travail consiste donc à repérer, pour chaque entrée, les éléments sur lesquels se focaliser.
C’est là qu’interviennent donc ces mécanismes.
L’une des implémentations les plus commodes est l’attention globale [30].
Pour l’expliquer, nous allons considérer une architecture jusque là passée sous silence, mais qui permet aux modèles introduits là haut de s’utiliser efficacement pour les tâches courantes du NLP en particulier. Il s’agit des modèles dits encodeur-décodeur.
En effet, lorsqu’on a un modèle à séquence fonctionnel, les objectifs peuvent être multiples. On peut vouloir :
1°) fournir une série d’éléments en entrée et ressortir une autre série (utile pour la prédiction de la valeur des actions par exemple,... );
2°) fournir un série en entrée mais faire ressortir un seul élément ou vecteur (utile pour la classification des textes, l’analyse des sentiments,...);
3°) fournir un vecteur plusieurs fois en entrée et produire une série (pour la génération des légendes pour des images par exemple,...);
4°) on peut aussi avoir un réseau série-vers-vecteur, appelé encodeur, suivi d’un réseau vecteur-vers-série, appelé décodeur (très utile pour la traduction et la synthèse automatique par exemple,...). Il s’agit du modèle encodeur-décodeur.
Une illustration par image sera suffisante :
Figure I.6: Réseaux série-vers-série (en haut à gauche), série-vers-vecteur (en haut à
droite), vecteur-vers-série (en bas à gauche) et encodeur-décodeur (en bas à droite) [16]
.
L’élément (le vecteur d’état) passé entre l’encodeur et le décodeur est dit vecteur de contexte. Il représente en quelques sortes un condensé des informations passés à l’entrée de l’encodeur. Toutefois, plus la séquence d’entrée est longue, plus le risque que la mémoire de certaines séquences puisse s’étioler devient grand. Ainsi, si par exemple on est entrain de vouloir traduire une longue phrase, on peut finir par transmettre un vecteur de contexte qui a perdu toute information sur les premiers éléments de la séquence passée en entrée. C’est pour cela qu’au lieu de passer un vecteur de contexte général, les mécanismes d’attention permettraient ici de ne se focaliser que sur certaines informations lors du traitement d’un élément particulier de la séquence (en ayant évidemment passé tous les états internes passés au décodeur). Pour le réaliser concrètement, le mécanisme d’attention global consiste à formater le vecteur de contexte en fonction des éléments de l’encodeur à prendre en compte lors du traitement par le décodeur.
Considérons que Ω, dont les termes sont représentés par wij, est la matrice des poids d’attention normalisés par une fonction softmax pour chaque ligne. Et que Π, dont les termes sont représentés par αij, est la matrice des poids d’attention générée par le mécanismes avant normalisation.Si les éléments ci représentent à chaque fois le vecteur contexte final à l’étape i de décodage et les hj sont les vecteurs d’état interne de l’encodeur, l’attention globale revient à réaliser la manipulation suivante, pour formater le vecteur de contexte à prendre en compte pour l’élément en cours de traitement [30] :
wij = sof tmax(αij) = Pekαeijαik (I.5)
ci = Pj wijhj
La dernière relation du système I.5 revient à réaliser une somme pondérée des vecteurs d’état internes passés de l’encodeur, selon l’importance de chaque état pour le traitement en cours. De ces équations il faut aussi remarquer que la notation des sommations n’est pas rigoureuse. Cela est volontaire car c’est intuitif (on réalise des sommations sur tous les éléments).
Plusieurs techniques arrivant à réaliser l’attention existent. En général, comme on peut d’ailleurs le déduire des relations de l’attention globale, ces mécanismes étaient utilisés dans le cadre des réseaux récurrents. Une question s’est toutefois naturellement posée : ne pourrait-on pas se passer des RNN pour mettre au point des réseaux complètement basés sur l’attention ?. La réponse est oui, avec des ajustements adéquats pour résoudre les faiblesses des modèles classiques dans le traitement des données séquentielles. C’est cela qui a conduit aux modèles dits transformers [50].
I.5.4 Les transformers
Il s’agit des modèles dont l’architecture générique se présente comme suit :
Figure I.7: Architecture générique des transformers [50]
Les transformers sont des modèles du type encodeur-décodeur comme on peut le constater sur la figure ci-dessus (bien que certaines implémentations n’en utilisent qu’une partie selon la tâche). Ils sont essentiellement basé sur les mécanismes d’attention, se passant de la récurrence [16, 15].
Nous donnerons une explication succincte de chacun des modules présents dans l’image I.7. En effet, présentons les modules selon l’ordre dans lequel les données traversent le modèle :
1°) Moduled’embedding : Nous savons que les données textuelles doivent être présentées au modèle sous forme numérique. Elles doivent donc être transformées avant de les passer aux parties suivantes. Néanmoins, vu que la représentation des entrées a
un impact significatif sur les performances d’un modèle, cette représentation doit être bien choisie. Un choix intuitif, et qui s’avère être performant, est de tout faire pour que si deux termes ont des sens proches, ils aient aussi des représentations vectorielles proches. Cela est réalisé par différentes techniques que nous présenterons dans le chapitre suivant, mais c’est là le rôle de la couche d’enchâssement (embedding).
2°) L’encodage positionnel (positionnal encoding) : Ce module ajoute l’information sur la position relative de chacun des éléments placés en entrée par rapport aux autres. Cela pallie au problème de perte d’information sur la position des mots quand on utilise un réseau non séquentiel comme les réseaux récurrents. Donc, la position de chaque terme de la séquence placée en entrée est encodée dans un vecteur puis ajoutée à l’encodage global du terme. L’un des encodages les plus utilisés est celui basé sur les fonctions trigonométriques tel qu’introduit dans [50].
3°) Module d’auto-attention : La couche d’attention, présentée en première position dans la boîte de l’encodeur, est en fait une couche dite de self-attention car elle opère sur la même séquence d’entrée. L’opération est réalisée pour permettre au modèle d’avoir une représentation de l’importance des termes dans la séquence d’entrée, les uns par rapport aux autres.
Pour illustration, considérons la phrase suivante : Walter est malade, il préfère se reposer.
Dans cette phrase, l’un des constats qu’on peut faire est que, le nom "Walter" est beaucoup plus lié au pronom "il" qu’au verbe "préférer". C’est à l’établissement des tels liens dans les représentations que sert le module d’auto-attention ici présenté. Il est important que ce lien soit implicitement présent dans les représentations, pour que le traitement soit efficace comme on l’a mentionné lors de la présentation des mécanismes d’attention. Donc cette couche est en fait un prolongement de celle d’embedding. Ici, le mécanisme d’attention utilisé est différent de celui qui a été présenté là-haut (attention globale). Il s’agit ici d’un mécanisme plutôt basé sur le produit scalaire mis à l’échelle (scaled dot-product). En effet, très brièvement, l’idée du scaled dot-product attention consiste à opérer une recherche des termes sur lesquels focaliser l’attention de la même façon qu’on réalise la recherche de la signification d’un mot dans un dictionnaire. Supposons qu’on veuille avoir la signification d’un mot dont on ne connaît pas l’orthographe exacte. Pour retrouver ce dernier dans un dictionnaire, il suffit de rechercher le mot qui ressemble le plus à l’orthographe que nous estimons être la plus vraisemblable. Mathématiquement, cette recherche de similitude correspond à un produit scalaire.
Similairement, le scaled dot-product consiste à générer trois éléments qui sont la clé ou key k, la valeur ou value v et la requête ou query q. La requête correspond au mot
qu’on cherche (orthographié selon ce que nous pensons), la clé correspond au mot présent dans le dictionnaire et la valeur correspond à la signification associée. Si on supposait qu’il existe plusieurs termes du dictionnaire qui s’orthographient presque de la même façon que le mot qu’on cherche, on devra passer par une mesure de similarité avant de se décider sur le sens le plus probable. Cela correspond à réaliser le produit de tous les k par les q présents, puis à normaliser l’ensemble des résultats de manière à ce qu’ils représentent des mesures de probabilité, et finir par choisir le sens v le plus probable.
Pour aller plus vite, on implémente ce processus en considérant tous les k, q et v au même moment de manière à réaliser le calcul une fois pour toutes. Cela revient à regrouper tous les k, q et v dans des matrices K, Q et V . Ce qui donne la relation qui définit l’attention par produit scalaire mis à l’échelle [50] :
Q ·KT
Attention(Q,K,V ) = sof tmax p ·V (I.6) dk
Dans cette relation, expression I.6, le terme pdk permet de mettre à l’échelle le résultat du produit scalaire de Q par K, c’est-à-dire Q·KT . Il faut noter que dk est la dimension d’une clé, et que cette normalisation permet d’améliorer les performances du modèle mais elle n’est pas la seule envisageable.
Il est aussi important de remarquer que la couche d’attention utilise trois termes pour arriver à bout du problème. Ces trois termes sont obtenus par une transformation linéaire dont les poids sont appris à travers un réseau de neurones simple.
Il faut aussi noter que l’on utilise parallèlement plusieurs modules d’attention pour capture toutes les caractéristiques des séquences (on parle de multi-head attention). Pour une plus ample illustration, voir la figure I.8.
4°) Le module feed-forward : Il s’agit en fait d’un réseau de neurones de propagation avant classique (réseau à couches ajoutées de façon séquentielle). Il permet de réaliser le traitement qui fait suite à l’attention.
5°) Couche d’attention encodeur-décodeur : Il s’agit de la couche qui reçoit les données en provenance de l’encodeur. Il s’agit ici d’une couche d’attention et non d’autoattention comme c’était le cas pour la première couche de l’encodeur. En effet, contrairement à la couche de self-attention, pour laquelle tous les trois paramètres sont calculés à partir de la même séquence, la couche d’attention ici prend les clés K et valeurs V provenant de l’encodeur mais une requête Q provenant du décodeur.
Une autre couche feed-forward suit celle-ci et a le même rôle que celle de l’encodeur.
6°) Module d’attention masquée : Il s’agit de la première couche du décodeur. C’est aussi un module de self-attention auquel on ajoute le masquage. Ce module est dit masqué suite au fait que, comme le décodeur est un module de génération, on ne regarde que les termes précédemment générés, en masquant les termes qui seront probablement générés aux pas d’après. Cela est réalisé en rendant juste leurs probabilités nulles.
7°) Module linéaire final : Il s’agit d’un réseau de neurones classique pour réaliser la déduction finale, le tout étant passé à la fin à travers une opération softmax qui permet de transformer les résultats en probabilité d’éléments générés (cela permet de choisir le terme le plus vraisemblable à générer comme sortie).
Cette explication simplifiée se comprend mieux si on y joint la vue éclatée suivante :
I.6. CONCLUSION PARTIELLE
Figure I.8: Vue éclatée d’un transformer [51]
Les transformers, ici succinctement présentés, sont un modèle très adapté aux tâches de traitement automatique du langage naturel. C’est un modèle incontournable vu aussi que ses traitements peuvent être facilement parallélisés. Cela est rendu possible par le fait que l’architecture des transformers est parallèle par essence.
I.6 Conclusion partielle
Nous venons de réaliser une vue d’ensemble du domaine de traitement automatique du langage naturel, ainsi que diverses techniques couramment utilisées. Pour cela, nous avons tout d’abord justifié la préséance des modèles basés sur le deep learning pour diverses tâches du NLP.
Ensuite, nous avons évoqué les technique de pré-traitement des textes, souvent incontournables, comme la réduction des séquences en leurs tokens constitutifs, la suppression des mots fréquents mais n’apportant pas assez d’informations et la réduction des mots en leurs racines respectives. Nous y avons aussi joint quelques techniques utiles à la compréhension du langage humain comme le POS tagging et la reconnaissance d’entités nommées. Ce qui précède nous a finalement conduit à présenter les modèles courants du NLP basés sur les RNNs et, nous avons terminé par la présentation de l’architecture transformer, modèle que nous utiliserons pour ce travail (les précisions sur les modèles particuliers seront données au chapitre suivant).
Les transformers constituent un type de modèle qui s’avère être le plus adapté (pour le moment) au résumé automatique du texte et, dans le chapitre suivant, nous commencerons par présenter les diverses spécificités du résumé automatique comme tâche du NLP, pour finir par présenter l’architecture globale du système que nous comptons élaborer.
Chapitre II
Présentation du résumé automatique et conception du système
II.1 Introduction partielle
Le résumé automatique étant le sujet principal de ce mémoire, dans cette partie nous le présentons alors en détail en tant que discipline et tâche du NLP. Nous allons ici présenter les théories sur la synthèse automatique des textes, en classifiant les diverses méthodes utilisées pour pouvoir situer notre système dans l’ensemble des travaux jusque-là menés sur ce sujet.
Ensuite, nous présenterons les diverses approches utilisées pour le résumé automatique, sans oublier d’approfondir notre présentation des modèles de type transformer adaptés à cette tâche, pour finalement mentionner le modèle que nous estimons le plus adapté concernant l’approche basée sur le deep-learning pour la synthèse automatique. Enfin, nous allons réaliser une conception rapide mais suffisante de l’architecture globale de notre système, tout en précisant le rôle et le fonctionnement de chaque partie.
II.2 Présentation et définitions
Selon Le Petit Robert, résumer c’est reprendre en plus court un discours, le présenter brièvement en conservant l’essentiel. En d’autres termes, c’est l’abréger, l’écourter, le réduire. De même, en tant qu’exercice intellectuel, le résumé, consiste à réduire un texte tout en lui restant fidèle. Il exige donc de restituer les idées en un nombre déterminé de mots, en évitant au mieux de recopier le texte à résumer. Il faut alors composer un texte
29
plus court qui contienne l’essentiel du message initial.
De cela on tire que le résumé devient automatique s’il est généré par un logiciel ou un système informatique.
Cette définition est en fait correcte bien qu’elle ne soit assez précise pour notre contexte. Il nous faut une définition assez générale et précise, embrassant au mieux l’aspect automatique, ou mieux, l’aspect informatique, qui nous intéresse dans ce mémoire. Une définition assez valable est celle de TORRES-MORENO Juan-Manuel qui dit qu’un résumé automatique est un texte généré par un logiciel, cohérent et contenant une partie importante des informations pertinentes de la source, et dont le taux de compression est inférieur au tiers de la taille du(des) document(s) source(s) [48].
L’introduction du taux de compression dans la définition n’est pas anodine car, on s’est très vite rendu compte que la performance d’un système de résumé automatique dépendait fortement du taux de compression. En effet, les études de [26] montrent que les meilleures performances des systèmes de résumé automatique sont généralement atteintes pour des taux de compression compris entre 15 et 30% [48].
Nous allons adopter, dans ce travail, la définition de TORRES-MORENO Juan-Manuel ci-haut présentée.
Toutefois, on ne doit pas manquer de signaler que la génération automatique des résumés est un problème complexe en soi, tout comme l’évaluation des résultats. Le résumé est en effet une tâche cognitive requérant la compréhension du texte considéré et, les humains n’étant pas toujours bons dans les tâches de synthèse, le manque d’étalon explique qu’il y ait également une difficulté d’automatisation du processus.
II.3 Catégorisation des résumés
Les résumés peuvent être classifiés selon différents critères tels que leur fonction, le nombre de documents source, le genre de document, le type de résumé, le type de résumeur, le contexte,...
II.3. CATÉGORISATION DES RÉSUMÉS
Parcourons de manière succincte ces différents critères de classification [36, 31, 32, 38, 37, 48] :
II.3.1 Selon la fonction
Selon leur fonction, on classifie les résumés en deux groupes qui sont le résumé indicatif et le résumé informatif.
Résumé indicatif
Tel une table des matières, un résumé indicatif renseigne le lecteur sur les thèmes abordés dans un document. Il liste donc les sujets les plus importants évoqués par le texte. Certains systèmes de résumé guidé génèrent un résumé indicatif du texte comme étape initiale, l’utilisateur choisit alors parmi les sujets proposés par le résumé ceux qui l’intéressent et le système produit enfin un résumé informatif du texte guidé par la requête de l’utilisateur. La requête dans ce cas est l’ensemble des sujets sélectionnés à partir du résumé indicatif.
Résumé informatif
Il s’agit d’un modèle rétréci du texte d’origine, relatant le plus largement possible les informations contenues dans celui-ci. Ce type de résumé répond souvent à une attente en résumant de plus le contenu. La problématique ici est donc double : comprendre ce qui n’est pas information dans un texte et connaître le besoin de l’utilisateur final. Néanmoins, si on n’a pas de requête spécifique de la part de l’utilisateur, le résumé informatif est réalisé en veillant à ce que l’ensemble des principaux sujets du texte d’origine soit rapporté. Ainsi, les sujets principaux qui sont rappelés dans le résumé sont répartis de manière fidèle par rapport à l’organisation initiale afin de donner un juste aperçu du texte source.
II.3.2 Selon le nombre de documents source
Selon le nombre de documents source on a les résumés mono-document et multidocument.
Résumé mono-document
Il consiste à résumer un document isolé. Le corpus de documents source est donc ici constitué d’un seul et unique document.
Résumé multi-document
Il s’agit d’un résumé de plusieurs documents (un groupe de documents), très souvent liés thématiquement, en faisant attention à ne pas insérer des informations déjà évoquées.
II.3.3 Selon le genre des documents
Résumé des documents journalistiques
Il s’agit de résumer les documents du type article de presse (sachant qu’ils ont une structure particulière). En effet, on sait par exemple que dans le domaine journalistique, les informations les plus importantes sont souvent mentionnées au début du texte.[36]
Résumé des documents spécialisés
Il s’agit de résumer des documents en provenance d’un domaine précis (géologie, médecine, mathématique,...), fortement spécialisé.
Résumé des documents littéraires
C’est le résumé de documents du type narratif, des textes littéraires, des textes argumentatifs, ...
II.3. CATÉGORISATION DES RÉSUMÉS
Résumé des documents encyclopédiques
Ici il s’agit de résumer des documents de type encyclopédique (en général multithématiques de toute évidence) à l’exemple de Wikipédia...
II.3.4 Selon le type de sortie (résumé obtenu)
Cette classification est très importante et très utilisée. Il s’agit des :
Résumés extractifs (extractive summarization)
Le résumé extrait est formé de segments de texte extraits du(des) document(s) source(s). Ces segments peuvent être des phrases, des propositions ou n’importe quelle unité textuelle présent dans le(s) document(s) à résumer. Le problème consiste donc à repérer les segments de texte qui semblent être les plus pertinents pour faire partie du résumé final. Les éléments obtenus à la fin sont donc explicitement présents dans le(s) document(s) source(s).
Résumés abstractifs (abstractive summarization)
Les méthodes de résumé abstractives imitent, jusqu’à un certain degré, le processus naturel accompli par l’homme pour résumer un document. Par conséquent, elles produisent des résumés plus similaires aux résumés manuels (humains). Ce processus peut être décrit par deux étapes majeures : la compréhension du texte source et la génération du résumé. La première étape vise à analyser sémantiquement le contenu du texte et à identifier les parties à exprimer dans le résumé. C’est en quelques sortes une tâche d’extraction d’information liée au domaine abordé ou de regroupement des phrases du texte source. Vient ensuite la génération du texte.
Bref, on produit un résumé rapportant le contenu du(des) texte(s) source(s) en utilisant un vocabulaire différent et plus concis.
Il existe aussi des résumés dits semi-extractifs, et même aussi des résumés dits par compression [48] mais nous estimons inutile de les décrire ici étant donné que la distinction abstractif-extractif suffit pour notre contexte.
II.3.5 Selon le type de résumeur
Le résumeur est le système qui réalise le résumé. Il peut s’agir d’une entité naturelle (un humain) ou artificielle (un logiciel). On a donc essentiellement les deux cas suivants :
Résumé humain (manuel)
Il s’agit d’un résumé réalisé par un humain. Il peut être fait par l’auteur même du document (on parle souvent de résumé d’auteur), par un expert du domaine traité (on parle souvent de résumé d’expert) ou par un professionnel de résumé (on parle de résumé professionnel).
Résumé automatique
Il s’agit, comme on l’a maintes fois mentionné, d’un résumé fait par un système informatique.
II.3.6 Selon le contexte
Résumé générique
Ici on résume le document sans prendre en compte les besoins d’information de l’utilisateur. On produit juste un résumé complet et le plus mieux fait possible.
Résumé guidé
Pour ces types de résumé, l’utilisateur commande la génération du résumé en précisant les types d’information dont il a besoin.
Résumé mis à jour
Il s’agit d’un résumé de type dynamique par essence. Ici, un ensemble de documents sources est résumé en veillant minutieusement à ce que le document dont le résumé est ajouté à la suite d’un précédent résumé ne puisse pas créer une répétition d’information.
Il y a donc un contrôle de nouveauté.
II.3.7 Selon le destinataire du résumé
On peut aussi classifier un résumé selon le public auquel il est destiné.
Résumé sans profil
Il s’agit d’un résumé qui ne tient pas compte d’un quelconque profil utilisateur. Le résumé est donc généré sans tenir compte de la personnalité des utilisateurs.
Résumé avec profil
Il s’agit d’un résumé dont l’un des éléments guides (requête) est le profil des individus auxquels le résumé est destiné.
En ce qui concerne notre système, nous implémenterons à la fois un résumeur abstractif et un résumeur extractif et ce sera mono-document. En plus de cela, le résumé ne sera pas guidé, il s’agira de produire des résumés génériques, pour des documents de type littéraire (documents du type narratif, des textes littéraires, des textes argumentatifs,...).
II.4 Approches de résumé automatique
Nous allons présenter ici diverses approches algorithmiques pour résumer les documents textuels. Les approches seront abordées en supposant que les résumés sont principalement classés en abstractif et extractif.
II.4.1 Techniques intuitives de résumé [36]
Avec des critères centrés sur le contenu des textes, il existe un grand nombre d’algorithmes assez triviaux de résumé, qui sont basés entre autres sur : • La fréquence d’occurrence des mots et
• L’annotation en rôle sémantique.
Ces critères mettent l’accent sur le contenu du texte et le message qu’il communique.
Fréquence d’occurrence des mots
L’idée majeure des techniques qui utilisent ce critère consiste à considérer que les mots les plus fréquents sont les plus liés au sujet principal du texte à résumer. Cette approche assez simpliste mais fonctionnelle fut introduite en 1958 par Luhn [29], une première tentative de résumé automatique.
On affecte des scores aux phrases présentes dans le texte, en additionnant chaque fois les poids des mots les constituant (on attribue ce poids en fonction de la fréquence d’apparition du mot considéré dans le texte entier). Et, à la fin, le résumé est constitué avec les phrases extraites du texte source, et dont le score dépasse un certain seuil dépendant de la taille maximale imposée pour le résumé. Le tout est finalement réarrangé selon l’ordre d’apparition (des phrases sélectionnées) dans le texte d’origine.
L’annotation en rôle sémantique
Ici, l’idée est simple. En utilisant des techniques de repérage d’entités nommées (voir le chapitre précédent), on identifie les entités présentes dans le document. Après cela, l’entité la plus fréquente est identifiée et considérée comme entité principale. Par la suite, les phrases contenant cette entité sont sélectionnées. Enfin, seules les phrases où l’entité principale possède un rôle sémantique fondamental (non auxiliaire) sont gardées pour le résumé.
L’un des moyens les plus simples pour repérer les entités nommées est de passer par l’apprentissage profond comme on l’a précédemment mentionné.
Il existe tout de même des techniques qui ne se fient qu’à la forme et à la structure du texte, sans en considérer le contenu. L’intuition derrière cette approche est basée sur le constat que dans un texte, les éléments ne sont pas présentés de façon arbitraire. De manière usuelle, les techniques utilisées se basent sur :
La position des phrases;
La similarité avec le titre
La longueur des phrases ou sinon,
Les mots indices (cue word)
La position des phrases
Cette approche est à appliquer en fonction de la nature du document et de son genre. Pour certains types de documents (documents journalistiques par exemple), les phrases se trouvant au début sont généralement plus informatives et décrivent le sujet principal du document. De plus, les phrases situées au début de chaque paragraphe tendent à apporter plus d’informations pertinentes. Le résumé des articles scientifiques par contre, peut essentiellement se former en se basant sur les contenus des parties résumé et introduction (sous l’hypothèse que ces dernières parties sont bien faites). En revanche, dans le cas des revues intégratives (critique et comparaison des études), les phrases les mieux notées sont celles des parties résultats et discussion et conclusion.
Ces exemples suffisent pour illustrer dans quelle mesure cette approche peut s’appliquer.
La similarité avec le titre
Cette approche part du principe selon lequel un bon titre doit informer de manière brève du contenu principal du texte qu’il encadre. Cela permet alors de fixer comme mesure de pertinence des phrases, leur similarité avec les titres. Toute la problématique se réduit donc à la construction d’algorithmes capables de capturer efficacement la similarité.
La longueur des phrases
L’approche consistant à se baser sur la longueur des phrases est assez naïve mais fonctionnelle.
En effet, la longueur moyenne d’une phrase dans un texte dépend de son genre. Généralement, les phrases très courtes sont considérées comme peu informatives alors que les phrases très longues sont présumées favoriser la redondance. Cette caractéristique est exploitée en fixant un intervalle de longueur (entre 15 et 30 mots). Une phrase ayant une longueur en dehors de cet intervalle est pénalisée [45].
Les mots indices
Ici, on considère une liste de mots, constituée manuellement, et qui a comme rôle de permettre de se décider si une phrase doit être prise dans le résumé ou rejetée, selon qu’elle contient ou non un(des) mot(s) de la liste qualifié(s) inhibiteur(s) ou valorisant(s). Comme exemple des mots ou groupes de mots inhibiteurs on trouve : par exemple, accessoirement, ... Et pour les mots valorisants on peut citer : notez bien, ...
Nous devons quand même préciser encore une fois que tout dépend de celui qui écrit la liste.
Les méthodes que nous venons de présenter sont assez intuitives mais constituent la base des processus de synthèse. En effet, synthétiser un texte revient au fond à implémenter un certain nombre de règles, dont font parties évidemment celles que nous venons de mentionner. Néanmoins, ce que nous venons de présenter est décrit en se basant sur le concept de résumé extractif. Nous devons toutefois signaler que les résumés abstractifs se basent au fond sur les mêmes principes, soit en partant des résumés extractifs pour ensuite réaliser des paraphrases, insérer des connecteurs appropriés et éliminer les références anaphoriques dans les résumés, soit en implémentant indirectement toutes ces techniques à travers un modèle d’apprentissage automatique ou un modèle basé sur les graphes capables de capturer d’un seul coup tous ces aspects (ou une grande partie d’entre-eux). Les techniques intuitives ci-haut présentées ne sont pas les seules. Il en existe également d’autres, basées essentiellement sur les théories linguistiques. Entre autres les méthodes d’analyse du discours (par exemple la RST [31] ou Rhetorical Structure Theory)...
II.4.2 Algorithmes classiques de résumé automatique
Comme nous venons de l’introduire dans la section précédente, le résumé automatique est abordé essentiellement selon deux approches qui sont [31] :
1°) Les approches numériques, fondées sur les techniques à base des scores (poids), et
2°) Les approches symboliques fondées sur les techniques purement linguistiques, basées en premier sur une étude sémantique.
Il faut noter qu’on peut considérer aussi des approches basées sur la théorie des graphes comme intégrant les idées de ces deux approches de façon implicite, tout comme celles basées sur l’apprentissage automatique. Mais, dans tous les cas, une vue sur quelques heuristiques (méthodes basées sur le bon sens) est toujours à considérer (surtout en amont, puis en aval du processus de synthèse).
Ici, nous allons présenter les approches essentiellement numériques (on va y inclure celles basées sur l’apprentissage automatique et celles basées sur la théorie des graphes).
Algorithme de Luhn [29]
Il s’agit d’une méthode heuristique pour la synthèse des documents. C’est la plus ancienne méthode de résumé automatique (au sens moderne du terme).
Cette approche n’est pas considérée comme très bien formalisée. Elle exécute implicitement l’approche du TfIdf que nous allons décrire dans la sous-section qui suit celle-ci (sous-section II.4.2).
La sélection (des mots ici) se fait en considérant les hypothèses qui suivent :
la synthèse consiste à supprimer certains mots pour n’en conserver que les plus importants;
les mots se trouvant au début sont probablement importants;
les autres mots utiles respectent une certaine distribution. La figure II.1 montre, selon Luhn, comment choisir ces mots importants (partie hachurée de la courbe).
Figure II.1: Diagramme des fréquences des mots et le choix de Luhn [29]
Cette approche, comme on l’a mentionné au début, est assez moins précise et empirique, mais elle sous-entend les idées fondamentales appliquées plus tard.
Algorithme TF-IDF
Le tf-idf (time-frequency inverse document frequency est une approche essentiellement utilisée pour le résumé extractif. Il s’agit d’une correction de l’approche naïve consistant à poser que plus un mot est répété dans un corpus de texte, plus il y est important.
Soit donc un corpus constitué de D documents et Nj le nombre total de mots (termes) présents dans un document j donné du corpus. Nommons Freq(i,j) le nombre de fois qu’un terme i apparaît dans le document j.
On définit classiquement la fréquence d’apparition par :
Freq(i,j)
T F(i,j) = (II.1)
Nj
L’approche qui se base naïvement sur la fréquence d’apparition des mots dans les textes pour juger de leur importance relative, accorde à chaque mot un poids égal à T F(i,j). La grande faiblesse de cette approche est d’inclure ainsi des termes sans grande pertinence informationnelle comme des prépositions, des articles,... très présents au sein des documents.
Pour corriger cette faiblesse, on pose l’hypothèse que les termes importants apparaissent plusieurs fois dans un document (ou juste dans peu de documents du corpus) et non pas dans plusieurs documents. Puisque dans ce second cas, il est souvent question des éléments communs du langage, sans grande utilité informationnelle. Ceci constitue en fait la loi de Zipt [55] et c’est le fondement de l’approche du tf-idf.
A cet effet, on définit DFi comme étant le nombre de documents dans le corpus, qui contiennent le terme numéro i. Cela permet d’affecter alors le poids selon la formule [5] :
D !
T FIDF(i,j) = log(1+T F(i,j))·log (II.2)
DFi
Dans l’expression, II.2, en supposant que N est le dictionnaire des termes présents dans l’ensemble des documents, il faut noter que : i ∈ {1,...,N} et j ∈ {1,...,D}.
D’où finalement, le poids d’un terme i dans un document j est donné par :
wij = T FIDF(i,j) (II.3)
Pour notre cas, l’application de cette approche consiste à décomposer un long texte en ses phrases et de considérer que chacune de ces phrases est un document et que le texte entier constitue le corpus.
Plusieurs définitions des éléments T F(ij) et IDFi formant l’expression II.2 sont toutefois possibles selon les besoins en terme de performance.
Mais, dans l’ensemble, l’idée de base demeure la même car il ne s’agit en général que de changement des types de normalisation [55].
L’application de cette méthode pour le résumé consiste finalement à calculer le poids de chaque phrase en additionnant les poids des termes la constituant, puis à normaliser le résultat en fonction de la taille de la phrase considérée. Après tout, on définit un seuil qui permet de soutirer les phrases selon leur pertinence ainsi évaluée (en considérant évidemment plus pertinente une phrase dont le résultat de la sommation des poids est élevé).
Algorithme TextRank
TextRank est un algorithme de résumé extractif, basé sur la théorie des graphes et qui s’inspire de l’algorithme PageRank de Google [8, 4].
A la base, on considère un ensemble de N phrases donné, et on calcule les coefficients de liaison de chaque phrase aux N −1 autres. A la fin, on peut obtenir une matrice M de taille N ×N dont chaque terme Mij représente le degré de liaison entre la phrase numéro i et la numéro j. Il s’agit en fait d’une matrice d’adjacence dans laquelle on pose au préalable que Mii = 0, pour tout i (c’est la même idée pour l’algorithme PageRank étant donné qu’il est logique de considérer qu’une page ne peut s’auto-référencer).
Soit donc i ∈ {1,...,N}. Appelons P hri la phrase numéro i du corpus. Cela veut dire qu’on peut écrire :
Liaison P hri ↭ P hrj = Mij = Mji (II.4)
Les valeurs de Mij sont calculées au choix, selon le programmeur. Ce dernier implémente en effet une mesure de similarité selon sa définition de la liaison entre phrases et les besoins en performance.
C’est ainsi qu’on peut utiliser par exemple une mesure de similarité classique nommée similarité cosinus en la basant par exemple sur T FIDF [19].
Pour représenter les mots à comparer, on utilise les méthodes classiques de vectorisation des mots (word embedding). Nous esquisserons ces méthodes dans les sections qui vont suivre, parlant du word embedding ( II.5 ).
Le rang des phrases sont alors calculés de manière itérative en s’inspirant de la formule [33] :
N
Xh i
T extRank(P hri) = (1−K)+K · T extRank(P hrj) ·Mij (II.5)
j=1 j,i
Dans cette formule, K est une constante comprise entre 0 et 1.
Initialement, on prend en général une valeur identique de T extRank(P hri) pour toutes les phrases (souvent T extRank(P hri) = 1), mais la valeur initiale prise n’affecte pas les valeurs finales, juste le temps de convergence [33].
La formule II.5 n’est pas arbitraire, elle est d’ailleurs triviale si on s’inspire de l’algorithme de PagePank la plus simple. Pour cet algorithme (PageRank), on avait pris à l’origine K = 0.85 [8].
Justification de la formule Le principe de PageRank consiste à se dire que, si une page
P agi contient Ni références vers d’autres pages, la probabilité qu’on aille vers l’une de ces pages référencées est de N1i (avec l’hypothèse que les références ne sont pas répétées et que la distribution de leur importance est uniforme). On sait tout de même que plus une page est référencée, plus on doit lui donner de l’importance.
Si alors on pose que l’importance de la page P agi est connue, le calcul de l’importance d’une page P agj vers laquelle elle pointe se calculera logiquement par :
X 1
Importance(P agj) = Importance(P agi)· (II.6) i Ni
Avec i appartenant à l’ensemble des pages qui mentionnent la page P agj en leur sein.
Malheureusement, pour les phrases non référencées (pages dites isolées), on trouve une importance nulle. Pour lutter contre cela, la formule II.6 est un peu modifiée en y introduisant adéquatement une constante non nulle K.
Ce qui donne l’expression [8] :
X 1
Importance(P agj) = (1−K)+K · Importance(P agi)· (II.7) i Ni
On voit alors qu’il s’agit belle et bien de la formule utilisée pour TextRank (formule II.5).
Après initialisation des rangs de chaque phrase du texte ( les T extRank(P hri)) et après calcul de la matrice d’adjacence M. On applique la formule II.5 itérativement et à la convergence, on choisit les phrases qui vont former le résumé selon leur importance ( valeurs des T extRank(P hri) pour toute valeur de i).
A la fin, les phrases sélectionnées sont réarrangées pour former un résumé extrait plus ou moins cohérent.
Il existe également un algorithme nommé LexRank [14] qui est assez similaire à TextRank ici décrit, à la différence près que :
Il prend essentiellement en compte les métriques de similarité robustes;
Il considère la position et la longueur des phrases dans le calcul de leur pertinence; - Il est optimisé pour le résumé multi-document.
Plusieurs autres algorithmes populaires existent, par exemple les algorithmes LSA (Latent Semantic Analysis ou Analyse Sémantique Latente) et LDA (Latent Dirichlet Allocation ou Allocation Latente de Dirichlet) [5].
Le premier, la LSA, est un algorithme statistique, basé sur l’algorithme SVD (Singular Value Decomposition ou décomposition en valeurs singulières). Seulement, cette technique est très gourmande en ressources suite à la complexité de l’algorithme qui implémente le SVD. Le second, la LDA, basé sur la détection des thématiques, peut aussi être utilisé.
Toutefois, il faut remarquer que les algorithmes ici présentés sont essentiellement adaptés à la synthèse extractive. Même si, ces traitements peuvent être mélangés avec les techniques de résolution d’anaphores et les paraphrases pour obtenir des synthèses qui tendent vers la synthèse abstractive, nous devons souligner que les techniques jusque là les plus performantes pour la synthèse abstractive sont essentiellement basées sur le deep learning [36]. Le deep learning peut également être utilisé pour la synthèse extractive, permettant ainsi la génération des synthèses extraites plus cohérentes (avec résolution d’anaphores). Ainsi donc, nous abordons les méthodes de deep learning utilisées pour cet effet dans les parties qui suivent.
II.5 Modèles Seq2Seq
II.5.1 Methodes du Word-Embedding
Tout traitement commence par une représentation numérique des termes (des mots ici) pour qu’ils soient assimilables par le modèle. Une approche naïve consisterait à regrouper tous les mots de notre vocabulaire dans une liste (un dictionnaire) et de les représenter chacun par un nombre unique (un identifiant). Une autre approche, plus classique, consiste à représenter chaque mot par un vecteur de dimension égale à la taille du dictionnaire et dont tous les termes sont nuls, sauf à la position, dans le dictionnaire, du mot qu’on est entrain de vouloir représenter (on parle du one-hot encoding).
Ces représentations, et toutes celles qui s’y apparentent, ont la grande faiblesse d’être peu informatives (au point de vu sémantique). Étant artificiellement construites, sans tenir compte du sens des mots, ni de leur contexte, ces méthodes de représentation rendent la tâche de découverte des caractéristiques par les systèmes de machine learning encore plus difficile. D’ailleurs, l’une des faiblesses de la seconde méthode décrite (le one-hot encoding) est que les vecteurs sont creux (une majorité de valeurs nulles) et de dimension inutilement très grande. On pourrait directement songer à une représentation plus judicieuse pour éviter ces deux soucis, et qui consisterait à réaliser une représentation binaire des termes mais, le problème de la sémantique sera toujours là.
On recourt donc à des méthodes de représentation plus élaborées, partant du principe selon lequel le contexte d’un mot suffit pour en appréhender le sens. Ainsi, tout mot est représenté en réalisant une statistique (implicitement bien sûr) sur les divers mots qui l’accompagnent souvent, de telle sorte que les mots aux sens proches aient aussi des vecteurs très proches. Bref, on en arrive à réaliser la proposition : "Similarité sémantique implique similarité de représentation". Ce sont les méthodes classiques du word embedding (ou plongement lexical). Il s’agit par exemple des méthodes comme le Word2Vec [34, 35], Glove [39], fastText [6]...
II.5.2 Modèles séquence-à-séquence proprement dits
S’agissant des modèles séquence-à-séquence (Seq2Seq), ils ont été présentés dans la section I.5.3 (voir particulièrement la figure I.6). Il s’agit bel et bien des modèles adaptés aux tâches de synthèse, vu qu’en entrée on reçoit une séquence pour ressortir une autre séquence en sortie.
Comme nous l’avons déjà bien mentionné au précédent chapitre, nous n’allons parler que des modèles Seq2Seq de type transformer car actuellement, ils sont les plus adaptés à la tâche que nous voulons réaliser (celle de synthèse automatique). Les transformers (voir la figure I.7) sont un modèle très avantageux car en fait, au-delà de leurs performances et autres avantages, ils facilitent encore plus la recherche en NLP en rendant effectif le transfer learning (apprentissage par transfert) dans ce domaine.
L’entraînement des transformers est semi-supervisé. Il se fait en deux crans (nous les décrirons dans le cadre du NLP) :
1°) Pré-entraînement : il s’agit d’un apprentissage non supervisé, qui consiste à donner au modèle une masse colossale de données textuelles, non étiquetées, pour qu’il développe une compréhension statistique du langage qu’on veut qu’il puisse assimiler.
Au final, on obtient un modèle pré-entraîné.
2°) Affinage de l’apprentissage (fine-tuning) : Ça consiste à finaliser l’apprentissage du modèle pré-entraîné de manière supervisée pour qu’il soit en mesure de réaliser une tâche donnée du NLP (il s’agit du transfer learning en fait). Cette spécialisation, requiert une très faible quantité de données car le modèle aura déjà une représentation assez bonne de la langue. Cela pallie à la fois au problème de manque des données labellisées en NLP et de la consommation en terme de ressource énergétique des gros modèles lors de leur entraînement.
Les méthodes de pré-entraînement sont très déterminantes pour les performances finales du modèle. Ce premier entraînement du modèle a pour rôle de l’amener à construire un modèle de langage [25].
Il existe ainsi plusieurs objectifs de de pré-entraînement (pour construire le modèle de langue). On peut par exemple entraîner le modèle à :
Prédire le mot suivant : donc, lors de cet entraînement non supervisé, on fournit chaque fois au modèle une séquence de mots en lui demandant de prédire le suivant. Il s’agit d’un objectif d’entraînement dit NSP (Next Sentence Prediction) visant à transformer implicitement le transformer en un modèle de langue [11];
Deviner le mot caché (masqué) : on fournit au modèle du texte dont certaines parties (mots ou suite de mots) sont cachées. L’objectif assigné au modèle est alors de retrouver les mots masqués. On parle du MMLMasked Language Modelling [11].
Ainsi, au fur et à mesure, les paramètres du modèle s’affinent, le transformant en un modèle de langue performant. Mais, à part les deux que nous venons de mentionner, il existe d’autres objectifs de pré-entraînement [25, 54] selon les variantes de transformers et les objectifs finaux de spécialisation du modèle.
Bien que la forme classique des transformers est bel et bien celle de la figure I.7, il existe 3 types d’implémentation selon les types de tâche visées en dernier lieu :
1°) Modèles à encodeur seul : on supprime la partie décodeur. Ces modèles sont très bons pour les tâches de compréhension du langage comme la classification par exemple.
2°) Modèles à décodeur seul : on supprime alors la partie décodeur du modèle. Ils sont bons pour les tâches de génération de texte.
3°) Modèles encodeur-décodeur : ou encore modèles seq2seq proprement-dits. Ils sont bons pour les tâches demandant à la fois la compréhension et la génération des textes.
Pour illustrer ce fait, on va considérer donc 3 types de transformers [49, 52] :
1°) Like-BERT : semblables au transformer dénommé BERT Bidirectional Encoder Representations from Transformers. Ce sont des modèles du type encodeur seul. Ils sont également bidirectionnels. Donc, les phrases sont lues dans les deux sens pour mieux saisir tout le contexte.
2°) Like-GPT : donc semblables au transformer dénommé GPT (Generative Pre-trained Transformer) qui n’ont que la partie décodeur et sont dits auto-regressifs car, seules les parties précédant le mot en cours de traitement sont connues du modèle et il y a chaque fois réinjection des sorties à l’entrée.
3° Like-BART/T5 : semblables à BART (Bidirectional and Auto-Regressive Transformers) ou à T5 (Text-To-Text Transfer Transformer). C’est donc ceux du type encodeur-décodeur.
Modèles encodeurs (encoder-model) : Comme on l’a dit, pour ces modèles, on n’implé-
mente que la partie encodeur du transformer d’origine (celui de Vaswani et al. [50]). En plus de cela, ces modèles ont une couche d’attention bidirectionnelle et sont généralement appelés auto-encodeurs (auto-encoding model). Ces modèles sont principalement bons pour les tâches de NLU (Natural Language Understanding) comme la classification, le NER (Name Entity Recognition), l’extractive question-answering,...
Dans ce groupe, les modèles les plus connus sont :
ALBERT [24],
BERT [11],
DistilBERT [43],
RoBERTA [28],
Etc.
Modèles décodeurs (decoder-models): Utilisent seulement la partie décodeur, sont auto-
regressifs et par conséquent les têtes de self-attention n’accèdent qu’aux mots précédant l’étape à laquelle elles sont (pas de regard dans le futur) comme on l’a déjà un peu mentionné. Ces modèles sont particulièrement bons pour les tâches liées fortement au NLG (Natural Language Generation).
Dans ce groupe, les modèles les plus connus sont :
Les GPT (1, 2 et 3) [41],
TransformerXL [10],
Etc.
Modèles encodeur-décodeur (sequence-to-sequence models): Ces modèles utilisent l’in-
tégralité de l’architecture des transformers et sont ainsi bons pour les tâches demandant à la fois du NLU et du NLG comme la synthèse automatique abstractive, le generative question-answering et la traduction automatique.
Ici nous pouvons particulièrement mentionner les modèles comme :
BART [25],
mBART [27],
BARThez [13],
T5 [42],
mT5 [53], • PEGASUS [54],
Etc.
II.5.3 Modèle BART pour la synthèse abstractive
Le modèle BART est comme une combinaison de BERT [11] et de GPT-2 [40, 41] en terme
d’architecture et d’objectif de pré-entraînement, avec quelques optimisations supplémentaires [25]. Pour illustration, voici une image de comparaison :
Figure II.2: Comparaison simplifiée entre BERT, GPT et BART [25]
L’image II.2 étant claire, nous pouvons illustrer les diverses corruptions que peuvent subir les données pour le pré-entraînement. L’image ci-dessous l’illustre :
Figure II.3: Transformations de bruitage expérimentées pour BART [25]
Le modèle BART est bien adapté à la tâche de synthèse abstractive. C’est celui que nous
allons privilégier (les modèles dérivés de BART principalement) pour réaliser cette tâche dans notre système.
Justification du choix de BART
Le choix de BART est dû au fait que c’est le modèle que nous avons trouvé réalisant un bon compromis poids-performances. Aussi, après quelques tests, ses résultats nous ont paru être plus intéressants. En outre, l’objectif d’entraînement utilisé pour BART nous paraît assez général pour construire un modèle de langage performant. Nous justifierons plus précisément ce choix dans le chapitre qui suit, en présentant également quelques résultats des tests.
II.6 Conception de l’architecture globale du système
Il existe un large éventail des méthodes de développement des systèmes informatiques mais, en règle générale, toutes suivent les étapes suivantes [7] :
1°) Spécifications : on définit avec précision ce que fera le système (à quoi est-il destiné?);
2°) Conception et mise en oeuvre : on conçoit et on réalise le système;
3°) Validation : on teste le système pour voir s’il correspond aux objectifs précisés dans les spécifications;
4°) Évolution : ça correspond à tout ce qui vient après la livraison du produit (versionning, maintenances,...).
Ici, on ne va pas utiliser une méthode de conception particulière. Pour pouvoir tout de même y aller méthodiquement, nous nous inspirerons de ces étapes classiquement suivies lors de la conception des systèmes informatiques.
Dans ce second chapitre, nous ne présenterons que les spécifications du système ainsi qu’une ébauche de conception avec une présentation de l’architecture globale. La suite sera traitée dans le chapitre suivant.
II.6.1 Spécifications du système
Le système devra pouvoir permettre de réaliser ce qui suit :
Synthétiser les textes qui lui sont fournis en entrée (saisis directement ou importés dans fichiers .pdf non scannés, des fichiers .docx et .txt);
Servir les synthèses directement ou à travers un fichier .pdf à télécharger;
Obtenir des synthèses produites par plusieurs algorithmes et les évaluer;
Stocker les couples document-synthèse;
Faciliter le parcours des documents en soulignant les parties saillantes;
Permettre l’affinage d’un modèle de synthèse automatique (ici nous réaliserons le fine-tuning du modèle mBART ou du modèle mT5 selon celui qui se prêtera mieux à cet affinage).
C’est cela le minimum de besoins que le système devra être capable de combler.
II.6.2 Présentation des éléments du système
L’architecture globale de notre système est un trois-tiers classique. Elle se présente comme sur la figure II.4 :
Figure II.4: Architecture globale de notre système
La figure II.4 presente l’architéture du système qui est d’une architecture 3 − tiers classique. Il y a toutefois une partie qui n’est pas ici représentée car nous voulons nous donner une grande liberté de conception à son sujet. Il s’agit en fait de l’interface d’accès à l’API (Application Programming Interface), qui permettra aux développeurs de s’authentifier et générer éventuellement un token à utiliser pour implémenter leur propres interfaces devant permettre d’utiliser les services de cette API. Il s’agit donc d’une API privée.
Cette interface permettra aussi de voir toute la documentation de l’API (pour les développeurs) pour mieux utiliser ses services.
Quant au bloc interface que nous venons de présenter sur la figure II.4, c’est en nous mettant à la place d’un développeur lambda qui exploite les services de l’API.
Notre API quant à elle, est une API REST (REpresentationnal State Transfer qui aura 4 end-points principaux dédiés à la synthèse automatique (selon les besoins d’implémentation, on pourra en insérer d’autres mais qui ne concernerons probablement pas la synthèse).
Module de synthèse extraite : ce module réalisera une synthèse en combinant divers résultats d’algorithmes de synthèse extraite. Nous prévoyons, dans un premier temps, ne l’utiliser que pour des petits documents (la taille optimale sera déterminée avec les expérimentations au chapitre suivant).
Module de synthèse abstraite : ce module donnera une synthèse abstraite en utilisant l’un des transformers affinés pour la synthèse ou bien par le module qui sera en train de s’auto-améliorer au cours de l’utilisation du système (on l’a nommé expérimental, voir la figure II.7). Comme les transformers réalisent des synthèses de documents de taille généralement limitée à environ une page, nous mettrons au point, dans cette partie, une pipeline qui nous permettra d’augmenter le nombre de pages (nous pensons à 100 pages mais les expérimentations nous permettrons de choisir une taille optimale, tenant compte surtout de la rapidité).
Module de synthèse extrait simplifié : Il s’agira d’un module qui permettra la réalisation de la synthèse mais en utilisant l’un des algorithmes de synthèse extraite implémentés (soit de manière aléatoire, soit par choix de l’utilisateur).
Module expérimental : Il s’agira d’un module de synthèse abstraite qui sera essentiellement utilisé pour la synthèse des petits documents (quelques pages). Pour ce module, nous comptons mettre au point une routine d’entraînement à partir des synthèses collectées par le système, pour améliorer au fur et à mesure les performances de ce module. Nous comptons réaliser l’entraînement par transfer learning avec les transformers mT5[53] ou mBART [27] comme base. N’ayant pas encore testé cette partie, nous serons fixé sur la méthode à utiliser ainsi que le modèle de base à choisir au chapitre suivant, après les expérimentations.
On peut aussi remarquer qu’il y a un module pre-processing dans la partie interfaces. C’est par suite du fait que, pour des raisons de performance, on devra envoyer à l’API le fichier sous un format particulier. Il faudra réaliser l’acquisition des données dans divers formats (pdf,docx,...) mais les données acquises seront envoyées dans un format plus léger à l’API (du JSON pour notre cas).
La base des données, que nous avons mentionné dans la figure II.4, a un double rôle :
1°) Le stockage des données de l’utilisateur (il s’agira en fait des identifiants des interfaces qui utiliseront l’API);
2°) Le stockage des paires document-synthèse, ainsi que l’appréciation de l’utilisateur (évaluation par les utilisateurs).
II.6.3 Architecture du module de synthèse extractive
Le module de synthèse extractive se présente comme suit :
Comme nous pouvons le voir, un traitement sera fait pour adapter les données reçues à ce qui peut être traité par le système. Ce traitement consistera à ne retenir que des symboles alphanumériques, à réaliser la tokenisation des textes (chaque token sera une phrase pour cette partie) et à affecter un identifiant unique à chaque phrase.
Après cela, les données seront invariablement passées aux algorithmes de synthèse extractive, qui générerons chacun un groupe de poids des phrases. Après cela, le module de pondération et sélection réalisera successivement ce qui suit :
Acquisition des sorties de chaque algorithme de synthèse extractive (il s’agira des dictionnaires dont les clés seront les identifiant uniques des phrases et les valeurs seront les poids affectés par l’algorithme). A chaque algorithme, on donnera un poids qu’on nommera WNomdel′algo compris entre 0 et 1, selon la confiance qu’on lui porte (la somme des poids sera égale à 1 et par défaut, tous les algorithmes pourront avoir le même poids) ;
Élimination des phrases de poids faible (avec comme seuil, la taille maximale de résumé précisée par l’utilisateur);
Réarrangement de chaque dictionnaire obtenu après expulsion des phrases non significatives (les éléments seront arrangés par ordre décroissant des poids pour chaque sortie);
Donner des propabilités aux espaces des poids de chaque dictionnaire par application d’un softmax sur chacun d’eux. Ce qui donnera, pour chaque phrase de chaque dictionnaire, un nouveau poids ωphri, avec i le numéro du dictionnaire et phr le numéro de la phrase considérée dans ce dictionnaire ;
Listage complet des éléments (leurs identifiants) de tous les dictionnaires.
Pour chaque élément de la liste globale ainsi établie, appliquer la formule suivante pour obtenir un nouveau poids :
X
W = Wi ·ωphri (II.8) j
i∈D
Avec Wj le nouveau poids affecté à la phrase ayant un identifiant global j (l’identifiant là d’origine) et D la liste des dictionnaires (les sorties de chaque algorithme);
Arranger toutes les phrases par ordre décroissant dans une unique liste et sélectionner les plus haut dans la liste jusqu’à atteindre le seuil fixé (nombre de mots fixé pour la synthèse).
Constituer une liste avec les éléments sélectionnés.
Réarranger les phrases de la liste selon leur ordre de succession dans le texte d’origine.
Constituer la synthèse extraite.
Ce qui précède constitue en fait l’algorithme que nous allons implémenter pour le module de pondération et sélection.
II.6.4 Architecture du module de synthèse abstractive
Le module de synthèse abstraite n’est pas unique. Nous implémenterons plusieurs modèles (BART, BARThez, PEGASUS, mBART ou mT5 entraîné avec nos données, ainsi que tous ceux qui nous paraîtrons utiles durant les essais); Chaque module de synthèse se présentera néanmoins comme suit :
Figure II.5: Architecture globale du système de synthèse abstractive
Comme nous pouvons le remarquer, il y a toujours un module de mise en forme initial (pre-processing) qui nous permettra en gros de supprimer tous les caractères que nous ne pourrons pas gérer. Vient ensuite le module de tokenisation (le tokenizer ou tokeniseur) [49] qui consistera ici à diviser tout le texte en ses mots constitutifs et à leur affecter des identifiants numériques. Ce sont ces identifiants qui seront fournis au modèle et transformés en vecteurs par la couche d’embedding du modèle.
Le modèle quant à lui, aura toujours une architecture pareille :
Figure II.6: Architecture interne du modèle mentionné sur la figure II.5
Il s’agit en effet de l’architecture classique d’un transformer, comme présenté sur la figure I.7 à l’exception du fait qu’ici on fait explicitement apparaître l’existence de la sortie du modèle. Ça correspond au réseau linéaire suivi d’une couche de softmax tel que présenté sur la figure
I.7. Cette partie, que nous avons nommé head est différente selon les tâches [52], c’est pourquoi nous avons voulu la mentionner explicitement car, selon le besoin, on peut la modifier.
Nous devons finalement mentionner que les modules de tokenisation (nommés tokenizer en anglais) dépendront explicitement des modèles utilisés.
II.6.5 Présentation des interfaces
La partie interface nous permettra juste d’utiliser le service que nous aurons élaboré et d’évaluer par la même occasion ses performances. Elle n’est pas donc cruciale. Toutefois, voici une ébauche d’interface que nous comptons utiliser pour exploiter le service :
Figure II.7: Ébauche d’interface
Avec cette interface, on a une idée générale de la manière dont nous comptons servir le système aux utilisateurs.
II.7. CONCLUSION PARTIELLE II.7 Conclusion partielle
Dans cette partie, nous venons de présenter le résumé automatique des textes, tout en réalisant une vue d’ensemble des méthodes utilisées dans la littérature à cet effet. Nous avons mentionné que la classification des résumés que nous utiliserons sera celle les départageant en abstractive summarization et extractive summarization et que, pour notre cas, il s’agira de réaliser un système de résumé mono-document, avec une partie abstractive et une autre extractive, générant un résumé générique pour des documents de type narratif et argumentatifs.
Nous avons également listé les divers modèles de transformer adaptés à la tâche de synthèse automatique abstraite, et nous avons mentionné devoir privilégier les modèles du type BART pour des raisons qui serons précisées dans le chapitre suivant.
Enfin, nous avons réalisé la conception préliminaire du système tout en précisant que, concernant l’API, la BD (Base des Données) et les interfaces, les détails d’implémentation utiles seront précisés dans la partie dédiée à la conception proprement dite et aux tests, c’est-à-dire au chapitre suivant. Le chapitre suivant nous permettra donc finalement de préciser, réaliser et tester les méthodes que nous avons jusque-là adoptées pour la mise au point de notre système de synthèse automatique des documents.
GENERALEMENT
Place les références là où il le faut STP. Même si c’est une interpretation personnelle, elle tire la source quelque part.
Verifie aussi tous les commentaires que j’ai placé aux différents niveaux du texte
Chapitre III
Conception finale, réalisation et tests
Conclusion générale
Bibliographie
D. Adams. Combining State-of-the-art Models for Multi-document Summarization Using Maximal Marginal Relevance. University of Lethbridge, 2021.
Stergos D. Afantenos, Vangelis Karkaletsis, and Panagiotis Stamatopoulos. Summarization from medical documents: A survey. CoRR, abs/cs/0504061, 2005.
Dzmitry Bahdanau, Kyunghyun Cho, and Yoshua Bengio. Neural machine translation by jointly learning to align and translate. arXiv preprint arXiv:1409.0473, 2014.
Catherine Benincasa, Adena Calden, Emily Hanlon, Matthew Kindzerske, Kody Law, Eddery Lam, John Rhoades, Ishani Roy, Michael Satz, Eric Valentine, et al. Page rank algorithm. Department of Mathematics and Statics, University of Massachusetts, Amherst, Research, 2006.
Michael W Berry and Jacob Kogan. Text mining: applications and theory. John Wiley & Sons, 2010.
Piotr Bojanowski, Edouard Grave, Armand Joulin, and Tomas Mikolov. Enriching word vectors with subword information. Transactions of the association for computational linguistics, 5:135–146, 2017.
Boudjemaa Boudaa. Cours de génie logiciel (avec exercices résolus). Université IbnKhaldoun-Tiaret, Algérie, 02 2020.
Sergey Brin and Lawrence Page. The anatomy of a large-scale hypertextual web search engine. Computer networks and ISDN systems, 30(1-7):107–117, 1998.
O. Carton and D. Perrin. Langages formels : calculabilité et complexité : cours et exercices corrigés. Vuibert, 2014.
Zihang Dai, Zhilin Yang, Yiming Yang, Jaime Carbonell, Quoc V Le, and Ruslan Salakhutdinov. Transformer-xl: Attentive language models beyond a fixed-length context. arXiv preprint arXiv:1901.02860, 2019.
Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. Bert: Pretraining of deep bidirectional transformers for language understanding. arXiv preprint arXiv:1810.04805, 2018.
Youcef Djeriri. Les Réseaux de Neurones Artificiels. 09 2017.
Moussa Kamal Eddine, Antoine J-P Tixier, and Michalis Vazirgiannis. Barthez:
a skilled pretrained french sequence-to-sequence model. arXiv preprint arXiv:2010.12321, 2020.
Günes Erkan and Dragomir R Radev. Lexrank: Graph-based lexical centrality as salience in text summarization. Journal of artificial intelligence research, 22:457–479, 2004.
Thushan Ganegedara. Natural Language Processing with TensorFlow: Teach language to machines using Python’s deep learning library. Packt Publishing Ltd, 2018.
A. Géron. Deep Learning avec Keras et TensorFlow: Mise en oeuvre et cas concrets. Dunod, 2020.
M. Hagiwara. Real-World Natural Language Processing: Practical Applications with Deep Learning. Manning, 2021.
Patrick Hairy. Les réseaux de neurones récurrents pour les séries temporelles, Septembre 2021.
Nitin Indurkhya and Fred J Damerau. Handbook of natural language processing.
Chapman and Hall/CRC, 2010.
D. Jurafsky and J.H. Martin. Speech and Language Processing. Always learning.
Pearson, 2014.
SYNTHESE AUTOMATIQUE DES TEXTES
Min-Yen Kan, Kathleen R. McKeown, and Judith L. Klavans. Applying natural language generation to indicative summarization. CoRR, cs.CL/0107019, 2001.
Akshay Kulkarni and Adarsha Shivananda. Natural language processing recipes. Springer, 2019.
S. Lamsiyah, S. Ouatik El Alaoui, and B Espinasse. Résumé automatique guidé de textes: Etat de l’art et perspectives (guided summarization : State-of-the-art and perspectives ). In Actes de la Conférence TALN. Volume 2 - Démonstrations, articles des Rencontres Jeunes Chercheurs, ateliers DeFT, pages 55–72, Rennes, France, 5 2018. ATALA.
Zhenzhong Lan, Mingda Chen, Sebastian Goodman, Kevin Gimpel, Piyush Sharma, and Radu Soricut. Albert: A lite bert for self-supervised learning of language representations. arXiv preprint arXiv:1909.11942, 2019.
Mike Lewis, Yinhan Liu, Naman Goyal, Marjan Ghazvininejad, Abdelrahman Mohamed, Omer Levy, Ves Stoyanov, and Luke Zettlemoyer. Bart: Denoising sequence-to-sequence pre-training for natural language generation, translation, and comprehension. arXiv preprint arXiv:1910.13461, 2019.
Chin-Yew Lin. Training a selection function for extraction. In CIKM ’99, 1999.
Yinhan Liu, Jiatao Gu, Naman Goyal, Xian Li, Sergey Edunov, Marjan Ghazvininejad, Mike Lewis, and Luke Zettlemoyer. Multilingual denoising pre-training for neural machine translation. Transactions of the Association for Computational Linguistics, 8:726–742, 2020.
Yinhan Liu, Myle Ott, Naman Goyal, Jingfei Du, Mandar Joshi, Danqi Chen, Omer Levy, Mike Lewis, Luke Zettlemoyer, and Veselin Stoyanov. Roberta: A robustly optimized bert pretraining approach. arXiv preprint arXiv:1907.11692, 2019.
H. P. Luhn. The automatic creation of literature abstracts. IBM Journal of Research and Development, 2(2):159–165, 1958.
Minh-Thang Luong, Hieu Pham, and Christopher D Manning. Effective approaches to attention-based neural machine translation. arXiv preprint arXiv:1508.04025, 2015.
Mohamed Hedi Maaloul. Approche hybride pour le résumé automatique de textes. Application à la langue arabe. Theses, Université de Provence - Aix-Marseille I, December 2012. Date Soutenance 18-12-2012.
Inderjeet Mani. Automatic summarization, volume 3. John Benjamins Publishing, 2001.
Rada Mihalcea and Paul Tarau. Textrank: Bringing order into text. In Proceedings of the 2004 conference on empirical methods in natural language processing, pages 404– 411, 2004.
Tomas Mikolov, Kai Chen, Greg Corrado, and Jeffrey Dean. Efficient estimation of word representations in vector space. arXiv preprint arXiv:1301.3781, 2013.
Tomas Mikolov, Ilya Sutskever, Kai Chen, Greg S Corrado, and Jeff Dean. Distributed representations of words and phrases and their compositionality. Advances in neural information processing systems, 26, 2013.
Maali Mnasri. Résumé automatique multi-document dynamique. Theses, Université Paris-Saclay, September 2018.
Marie-Francine Moens. Automatic indexing and abstracting of document texts. Computational Linguistics, 27(1):149–149, 2001.
Ani Nenkova and Rebecca Passonneau. Evaluating content selection in summarization: The pyramid method. In HLT-NAACL 2004 - Human Language Technology Conference of the North American Chapter of the Association for Computational Linguistics, Proceedings of the Main Conference, HLT-NAACL 2004 Human Language Technology Conference of the North American Chapter of the Association for Computational Linguistics, Proceedings of the Main Conference, pages 145–152. Association for Computational Linguistics (ACL), 2004.
SYNTHESE AUTOMATIQUE DES TEXTES
Jeffrey Pennington, Richard Socher, and Christopher D Manning. Glove: Global vectors for word representation. In Proceedings of the 2014 conference on empirical methods in natural language processing (EMNLP), pages 1532–1543, 2014.
Alec Radford, Karthik Narasimhan, Tim Salimans, Ilya Sutskever, et al. Improving language understanding by generative pre-training. 2018.
Alec Radford, Jeffrey Wu, Rewon Child, David Luan, Dario Amodei, Ilya Sutskever, et al. Language models are unsupervised multitask learners. OpenAI blog, 1(8):9, 2019.
Colin Raffel, Noam Shazeer, Adam Roberts, Katherine Lee, Sharan Narang, Michael Matena, Yanqi Zhou, Wei Li, Peter J Liu, et al. Exploring the limits of transfer learning with a unified text-to-text transformer. J. Mach. Learn. Res., 21(140):1–67, 2020.
Victor Sanh, Lysandre Debut, Julien Chaumond, and Thomas Wolf. Distilbert, a distilled version of bert: smaller, faster, cheaper and lighter. arXiv preprint arXiv:1910.01108, 2019.
D. Sarkar. Text Analytics with Python: A Practitioner’s Guide to Natural Language Processing. Apress, 2019.
Barry Schiffman, Ani Nenkova, and Kathleen McKeown. Experiments in multidocument summarization. In Proceedings of the Second International Conference on Human Language Technology Research, HLT ’02, page 52–58, San Francisco, CA, USA, 2002. Morgan Kaufmann Publishers Inc.
S. Srivastava. Natural Language Processing with Python: Hands-On Labs to Apply Deep Learning Architectures to NLP Applications. Independently Published, 2021.
Brahim Tlili. Identification et commande des systèmes non linéaires : Utilisation des modèles de type NARMA. Theses, Ecole Nationale d’Ingénieurs de Tunis, July 2008.
Juan-Manuel Torres-Moreno. Automatic text summarization. John Wiley & Sons, 2014.
Lewis Tunstall, Leandro von Werra, and Thomas Wolf. Natural language processing with transformers. " O’Reilly Media, Inc.", 2022.
Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, Łukasz Kaiser, and Illia Polosukhin. Attention is all you need. Advances in neural information processing systems, 30, 2017.
Lilian Weng. Les réseaux de neurones récurrents pour les séries temporelles, Avril 2020.
Thomas Wolf, Lysandre Debut, Victor Sanh, Julien Chaumond, Clement Delangue, Anthony Moi, Pierric Cistac, Tim Rault, Rémi Louf, Morgan Funtowicz, et al. Transformers: State-of-the-art natural language processing. In Proceedings of the 2020 conference on empirical methods in natural language processing: system demonstrations, pages 38–45, 2020.
Linting Xue, Noah Constant, Adam Roberts, Mihir Kale, Rami Al-Rfou, Aditya Siddhant, Aditya Barua, and Colin Raffel. mt5: A massively multilingual pre-trained text-to-text transformer. arXiv preprint arXiv:2010.11934, 2020.
Jingqing Zhang, Yao Zhao, Mohammad Saleh, and Peter Liu. Pegasus: Pretraining with extracted gap-sentences for abstractive summarization. In International Conference on Machine Learning, pages 11328–11339. PMLR, 2020.
Jan Žižka, František Dařena, and Arnošt Svoboda. Text mining with machine learning:
principles and techniques. CRC Press, 2019.
Annexes
68 |
Le Galilée de l'éducation comme on le surnommait posait une question à la fois très simple et très révolutionnaire. « Comment faire en sorte que tous les hommes aient accès à toutes les connaissances disponibles ? « C'est de l'ignorance, et de l'ignorance seule que l'homme doit se libérer. "La science a un contrat avec la société. Contrat qui consiste à faire avancer les connaissances" | La science a un contrat avec la société. Contrat qui consiste à faire avancer les connaissances. AMOS COMENIUS (père sprituel de l'UNESCO) : " Nous voulons que tous les êtres humains, ensemble ou pris isolément, jeunes ou vieux, riches ou pauvres, nobles ou roturiers, hommes ou femmes, puissent pleinement s'instruire et devenir des êtres achevés. Nous voulons qu'ils soient instruits parfaitement et formés non seulement sur tel ou tel point, mais également sur tout ce qui permet à l'homme de réaliser intégralement son essence. D'apprendre à connaître la vérité, à ne pas être trompé par des faux semblants. A aimer le bien, à ne pas être séduit par le mal, à faire ce qu'on doit faire et à se garder de ce qu'il faut éviter. A parler sagement de tout, avec tout le monde. Enfin, à toujours traiter les choses, les hommes et Dieu avec prudence et non à la légère. Et à ne jamais s'écarter de son but, le bonheur ". Le Galilée de l'éducation comme on le surnommait s'est posé une question à la fois très simple et très révolutionnaire. Il s'était demandé en effet : "Comment faire en sorte que tous les hommes accèdent à tout le savoir disponible ?" Comment offrir à tous un panorama complet de ce que les hommes savent ? " C'est de l'ignorance, et de l'ignorance seule que l'homme doit se libérer. " La science a un contrat avec la société. Contrat qui consiste à faire avancer les connaissances. Comment offrir à tous un panorama complet de ce que les hommes savent ? " C'est de l'ignorance, et de l'ignorance seule que l'homme doit se libérer. " |
Nelson MANDELA : " L'éducation est la plus grande puissance transformatrice de la société".La science a un contrat avec la société.
Contrat qui consiste à faire avancer les connaissances.
AMOS COMENIUS (père sprituel de l'UNESCO) : " Nous voulons que tous les êtres humains, ensemble
D'apprendre à connaître la vérité, à ne pas être trompé par des faux semblants.
à ne pas être séduit par le mal, à faire ce qu'on doit faire et à se garder de ce qu'il faut éviter.
Il s'était demandé en effet : "Comment faire en sorte que tous les hommes
Comment offrir à tous un panorama complet de ce que les hommes savent ?
" C'est de l'ignorance, et de l'ignorance seule que l'homme doit se libérer.
Nelson MANDELA : " L'éducation est la plus grande puissance transformatrice de la société". | La science a un contrat avec la société. Contrat qui consiste à faire avancer les connaissances.
AMOS COMENIUS (père sprituel de l'UNESCO) : " Nous voulons que tous les êtres humains, ensemble
ou pris isolément, jeunes ou vieux, riches ou pauvres, nobles ou roturiers, hommes ou femmes,
puissent pleinement s'instruire et devenir des êtres achevés. Nous voulons qu'ils soient instruits
parfaitement et formés non seulement sur tel ou tel point, mais également sur tout ce qui permet
à l'homme de réaliser intégralement son essence.
D'apprendre à connaître la vérité, à ne pas être trompé par des faux semblants. A aimer le bien,
à ne pas être séduit par le mal, à faire ce qu'on doit faire et à se garder de ce qu'il faut éviter.
A parler sagement de tout, avec tout le monde. Enfin, à toujours traiter les choses, les hommes et
Dieu avec prudence et non à la légère. Et à ne jamais s'écarter de son but, le bonheur ".
Le Galilée de l'éducation comme on le surnommait s'est posé une question à la fois très simple et
très révolutionnaire. Il s'était demandé en effet : "Comment faire en sorte que tous les hommes
accèdent à tout le savoir disponible ?"
Comment offrir à tous un panorama complet de ce que les hommes savent ?
" C'est de l'ignorance, et de l'ignorance seule que l'homme doit se libérer. " Disait .... ???
Ce qui fait écho à la Bible (mon peuple périt par manque de connaissance...)
Nelson MANDELA : " L'éducation est la plus grande puissance transformatrice de la société".La science a un contrat avec la société. Contrat qui consiste à faire avancer les connaissances.
AMOS COMENIUS (père sprituel de l'UNESCO) : " Nous voulons que tous les êtres humains, ensemble
ou pris isolément, jeunes ou vieux, riches ou pauvres, nobles ou roturiers, hommes ou femmes,
puissent pleinement s'instruire et devenir des êtres achevés. Nous voulons qu'ils soient instruits
parfaitement et formés non seulement sur tel ou tel point, mais également sur tout ce qui permet
à l'homme de réaliser intégralement son essence.
D'apprendre à connaître la vérité, à ne pas être trompé par des faux semblants. A aimer le bien,
à ne pas être séduit par le mal, à faire ce qu'on doit faire et à se garder de ce qu'il faut éviter.
A parler sagement de tout, avec tout le monde. Enfin, à toujours traiter les choses, les hommes et
Dieu avec prudence et non à la légère. Et à ne jamais s'écarter de son but, le bonheur ".
Le Galilée de l'éducation comme on le surnommait s'est posé une question à la fois très simple et
très révolutionnaire. Il s'était demandé en effet : "Comment faire en sorte que tous les hommes
accèdent à tout le savoir disponible ?"
Comment offrir à tous un panorama complet de ce que les hommes savent ?
" C'est de l'ignorance, et de l'ignorance seule que l'homme doit se libérer. " Disait .... ???
Ce qui fait écho à la Bible (mon peuple périt par manque de connaissance...)
Nelson MANDELA : " L'éducation est la plus grande puissance transformatrice de la société".La science a un contrat avec la société. Contrat qui consiste à faire avancer les connaissances.
AMOS COMENIUS (père sprituel de l'UNESCO) : " Nous voulons que tous les êtres humains, ensemble
ou pris isolément, jeunes ou vieux, riches ou pauvres, nobles ou roturiers, hommes ou femmes,
puissent pleinement s'instruire et devenir des êtres achevés. Nous voulons qu'ils soient instruits
parfaitement et formés non seulement sur tel ou tel point, mais également sur tout ce qui permet
à l'homme de réaliser intégralement son essence.
D'apprendre à connaître la vérité, à ne pas être trompé par des faux semblants. A aimer le bien,
à ne pas être séduit par le mal, à faire ce qu'on doit faire et à se garder de ce qu'il faut éviter.
A parler sagement de tout, avec tout le monde. Enfin, à toujours traiter les choses, les hommes et
Dieu avec prudence et non à la légère. Et à ne jamais s'écarter de son but, le bonheur ".
Le Galilée de l'éducation comme on le surnommait s'est posé une question à la fois très simple et
très révolutionnaire. Il s'était demandé en effet : "Comment faire en sorte que tous les hommes
accèdent à tout le savoir disponible ?"
Comment offrir à tous un panorama complet de ce que les hommes savent ?
" C'est de l'ignorance, et de l'ignorance seule que l'homme doit se libérer. " Disait .... ???
Ce qui fait écho à la Bible (mon peuple périt par manque de connaissance...)
Nelson MANDELA : " L'éducation est la plus grande puissance transformatrice de la société".La science a un contrat avec la société. Contrat qui consiste à faire avancer les connaissances.
AMOS COMENIUS (père sprituel de l'UNESCO) : " Nous voulons que tous les êtres humains, ensemble
ou pris isolément, jeunes ou vieux, riches ou pauvres, nobles ou roturiers, hommes ou femmes,
puissent pleinement s'instruire et devenir des êtres achevés. Nous voulons qu'ils soient instruits
parfaitement et formés non seulement sur tel ou tel point, mais également sur tout ce qui permet
à l'homme de réaliser intégralement son essence.
D'apprendre à connaître la vérité, à ne pas être trompé par des faux semblants. A aimer le bien,
à ne pas être séduit par le mal, à faire ce qu'on doit faire et à se garder de ce qu'il faut éviter.
A parler sagement de tout, avec tout le monde. Enfin, à toujours traiter les choses, les hommes et
Dieu avec prudence et non à la légère. Et à ne jamais s'écarter de son but, le bonheur ".
Le Galilée de l'éducation comme on le surnommait s'est posé une question à la fois très simple et
très révolutionnaire. Il s'était demandé en effet : "Comment faire en sorte que tous les hommes
accèdent à tout le savoir disponible ?"
Comment offrir à tous un panorama complet de ce que les hommes savent ?
" C'est de l'ignorance, et de l'ignorance seule que l'homme doit se libérer. " Disait .... ???
Ce qui fait écho à la Bible (mon peuple périt par manque de connaissance...)
Nelson MANDELA : " L'éducation est la plus grande puissance transformatrice de la société".La science a un contrat avec la société. Contrat qui consiste à faire avancer les connaissances.
AMOS COMENIUS (père sprituel de l'UNESCO) : " Nous voulons que tous les êtres humains, ensemble
ou pris isolément, jeunes ou vieux, riches ou pauvres, nobles ou roturiers, hommes ou femmes,
puissent pleinement s'instruire et devenir des êtres achevés. Nous voulons qu'ils soient instruits
parfaitement et formés non seulement sur tel ou tel point, mais également sur tout ce qui permet
à l'homme de réaliser intégralement son essence.
D'apprendre à connaître la vérité, à ne pas être trompé par des faux semblants. A aimer le bien,
à ne pas être séduit par le mal, à faire ce qu'on doit faire et à se garder de ce qu'il faut éviter.
A parler sagement de tout, avec tout le monde. Enfin, à toujours traiter les choses, les hommes et
Dieu avec prudence et non à la légère. Et à ne jamais s'écarter de son but, le bonheur ".
Le Galilée de l'éducation comme on le surnommait s'est posé une question à la fois très simple et
très révolutionnaire. Il s'était demandé en effet : "Comment faire en sorte que tous les hommes
accèdent à tout le savoir disponible ?"
Comment offrir à tous un panorama complet de ce que les hommes savent ?
" C'est de l'ignorance, et de l'ignorance seule que l'homme doit se libérer. " Disait .... ???
Ce qui fait écho à la Bible (mon peuple périt par manque de connaissance...)
Nelson MANDELA : " L'éducation est la plus grande puissance transformatrice de la société".La science a un contrat avec la société. Contrat qui consiste à faire avancer les connaissances.
AMOS COMENIUS (père sprituel de l'UNESCO) : " Nous voulons que tous les êtres humains, ensemble
ou pris isolément, jeunes ou vieux, riches ou pauvres, nobles ou roturiers, hommes ou femmes,
puissent pleinement s'instruire et devenir des êtres achevés. Nous voulons qu'ils soient instruits
parfaitement et formés non seulement sur tel ou tel point, mais également sur tout ce qui permet
à l'homme de réaliser intégralement son essence.
D'apprendre à connaître la vérité, à ne pas être trompé par des faux semblants. A aimer le bien,
à ne pas être séduit par le mal, à faire ce qu'on doit faire et à se garder de ce qu'il faut éviter.
A parler sagement de tout, avec tout le monde. Enfin, à toujours traiter les choses, les hommes et
Dieu avec prudence et non à la légère. Et à ne jamais s'écarter de son but, le bonheur ".
Le Galilée de l'éducation comme on le surnommait s'est posé une question à la fois très simple et
très révolutionnaire. Il s'était demandé en effet : "Comment faire en sorte que tous les hommes
accèdent à tout le savoir disponible ?"
Comment offrir à tous un panorama complet de ce que les hommes savent ?
" C'est de l'ignorance, et de l'ignorance seule que l'homme doit se libérer. " Disait .... ???
Ce qui fait écho à la Bible (mon peuple périt par manque de connaissance...)
Nelson MANDELA : " L'éducation est la plus grande puissance transformatrice de la société".La science a un contrat avec la société. Contrat qui consiste à faire avancer les connaissances.
AMOS COMENIUS (père sprituel de l'UNESCO) : " Nous voulons que tous les êtres humains, ensemble
ou pris isolément, jeunes ou vieux, riches ou pauvres, nobles ou roturiers, hommes ou femmes,
puissent pleinement s'instruire et devenir des êtres achevés. Nous voulons qu'ils soient instruits
parfaitement et formés non seulement sur tel ou tel point, mais également sur tout ce qui permet
à l'homme de réaliser intégralement son essence.
D'apprendre à connaître la vérité, à ne pas être trompé par des faux semblants. A aimer le bien,
à ne pas être séduit par le mal, à faire ce qu'on doit faire et à se garder de ce qu'il faut éviter.
A parler sagement de tout, avec tout le monde. Enfin, à toujours traiter les choses, les hommes et
Dieu avec prudence et non à la légère. Et à ne jamais s'écarter de son but, le bonheur ".
Le Galilée de l'éducation comme on le surnommait s'est posé une question à la fois très simple et
très révolutionnaire. Il s'était demandé en effet : "Comment faire en sorte que tous les hommes
accèdent à tout le savoir disponible ?"
Comment offrir à tous un panorama complet de ce que les hommes savent ?
" C'est de l'ignorance, et de l'ignorance seule que l'homme doit se libérer. " Disait .... ???
Ce qui fait écho à la Bible (mon peuple périt par manque de connaissance...)
Nelson MANDELA : " L'éducation est la plus grande puissance transformatrice de la société".La science a un contrat avec la société. Contrat qui consiste à faire avancer les connaissances.
AMOS COMENIUS (père sprituel de l'UNESCO) : " Nous voulons que tous les êtres humains, ensemble
ou pris isolément, jeunes ou vieux, riches ou pauvres, nobles ou roturiers, hommes ou femmes,
puissent pleinement s'instruire et devenir des êtres achevés. Nous voulons qu'ils soient instruits
parfaitement et formés non seulement sur tel ou tel point, mais également sur tout ce qui permet
à l'homme de réaliser intégralement son essence.
D'apprendre à connaître la vérité, à ne pas être trompé par des faux semblants. A aimer le bien,
à ne pas être séduit par le mal, à faire ce qu'on doit faire et à se garder de ce qu'il faut éviter.
A parler sagement de tout, avec tout le monde. Enfin, à toujours traiter les choses, les hommes et
Dieu avec prudence et non à la légère. Et à ne jamais s'écarter de son but, le bonheur ".
Le Galilée de l'éducation comme on le surnommait s'est posé une question à la fois très simple et
très révolutionnaire. Il s'était demandé en effet : "Comment faire en sorte que tous les hommes
accèdent à tout le savoir disponible ?"
Comment offrir à tous un panorama complet de ce que les hommes savent ?
" C'est de l'ignorance, et de l'ignorance seule que l'homme doit se libérer. " Disait .... ???
Ce qui fait écho à la Bible (mon peuple périt par manque de connaissance...)
Nelson MANDELA : " L'éducation est la plus grande puissance transformatrice de la société".La science a un contrat avec la société. Contrat qui consiste à faire avancer les connaissances.
AMOS COMENIUS (père sprituel de l'UNESCO) : " Nous voulons que tous les êtres humains, ensemble
ou pris isolément, jeunes ou vieux, riches ou pauvres, nobles ou roturiers, hommes ou femmes,
puissent pleinement s'instruire et devenir des êtres achevés. Nous voulons qu'ils soient instruits
parfaitement et formés non seulement sur tel ou tel point, mais également sur tout ce qui permet
à l'homme de réaliser intégralement son essence.
D'apprendre à connaître la vérité, à ne pas être trompé par des faux semblants. A aimer le bien,
à ne pas être séduit par le mal, à faire ce qu'on doit faire et à se garder de ce qu'il faut éviter.
A parler sagement de tout, avec tout le monde. Enfin, à toujours traiter les choses, les hommes et
Dieu avec prudence et non à la légère. Et à ne jamais s'écarter de son but, le bonheur ".
Le Galilée de l'éducation comme on le surnommait s'est posé une question à la fois très simple et
très révolutionnaire. Il s'était demandé en effet : "Comment faire en sorte que tous les hommes
accèdent à tout le savoir disponible ?"
Comment offrir à tous un panorama complet de ce que les hommes savent ?
" C'est de l'ignorance, et de l'ignorance seule que l'homme doit se libérer. " Disait .... ???
Ce qui fait écho à la Bible (mon peuple périt par manque de connaissance...)
Nelson MANDELA : " L'éducation est la plus grande puissance transformatrice de la société".La science a un contrat avec la société. Contrat qui consiste à faire avancer les connaissances.
AMOS COMENIUS (père sprituel de l'UNESCO) : " Nous voulons que tous les êtres humains, ensemble
ou pris isolément, jeunes ou vieux, riches ou pauvres, nobles ou roturiers, hommes ou femmes,
puissent pleinement s'instruire et devenir des êtres achevés. Nous voulons qu'ils soient instruits
parfaitement et formés non seulement sur tel ou tel point, mais également sur tout ce qui permet
à l'homme de réaliser intégralement son essence.
D'apprendre à connaître la vérité, à ne pas être trompé par des faux semblants. A aimer le bien,
à ne pas être séduit par le mal, à faire ce qu'on doit faire et à se garder de ce qu'il faut éviter.
A parler sagement de tout, avec tout le monde. Enfin, à toujours traiter les choses, les hommes et
Dieu avec prudence et non à la légère. Et à ne jamais s'écarter de son but, le bonheur ".
Le Galilée de l'éducation comme on le surnommait s'est posé une question à la fois très simple et
très révolutionnaire. Il s'était demandé en effet : "Comment faire en sorte que tous les hommes
accèdent à tout le savoir disponible ?"
Comment offrir à tous un panorama complet de ce que les hommes savent ?
" C'est de l'ignorance, et de l'ignorance seule que l'homme doit se libérer. " Disait .... ???
Ce qui fait écho à la Bible (mon peuple périt par manque de connaissance...)
Nelson MANDELA : " L'éducation est la plus grande puissance transformatrice de la société". |
Nous voulons que tous les êtres humains, ensemble ou pris isolément, jeunes ou vieux, riches ou pauvres, nobles ou roturiers, hommes ou femmes, puissent pleinement s'instruire et devenir des êtres achevés. Nous voulons qu'ils soient instruits parfaitement et formés non seulement sur tel ou tel point, mais également sur tout ce qui permet à l'homme de réaliser intégralement son essence. D'apprendre à connaître la vérité, à ne pas être trompé par des faux semblants. A aimer le bien, à ne pas être séduit par le mal, à faire ce qu'on doit faire et à se garder de ce qu'il faut éviter. A parler sagement de tout, avec tout le monde. Enfin, à toujours traiter les choses, les hommes et Dieu avec prudence et non à la légère. Et à ne jamais s'écarter de son but, le bonheur. Le Galilée de l'éducation comme on le surnommait s'est posé une question à la fois très simple et très révolutionnaire. Il s'était demandé en effet : 'Comment faire en sorte que tous les hommes accèdent à tout le savoir disponible ?'Comment offrir à tous un panorama complet de ce que les hommes savent ? C'est de l'ignorance, et de l'ignorance seule que l'homme doit se libérer. Ce qui fait écho à la Bible (mon peuple périt par manque de connaissance...) | Nous voulons que tous les êtres humains, ensemble ou pris isolément, jeunes ou vieux, riches ou pauvres, nobles ou roturiers, hommes ou femmes, puissent pleinement s'instruire et devenir des êtres achevés. Nous voulons qu'ils soient instruits parfaitement et formés non seulement sur tel ou tel point, mais également sur tout ce qui permet à l'homme de réaliser intégralement son essence. D'apprendre à connaître la vérité, à ne pas être trompé par des faux semblants. A aimer le bien, à ne pas être séduit par le mal, à faire ce qu'on doit faire et à se garder de ce qu'il faut éviter. A parler sagement de tout, avec tout le monde. Enfin, à toujours traiter les choses, les hommes et Dieu avec prudence et non à la légère. Et à ne jamais s'écarter de son but, le bonheur. Le Galilée de l'éducation comme on le surnommait s'est posé une question à la fois très simple et très révolutionnaire. Il s'était demandé en effet : 'Comment faire en sorte que tous les hommes accèdent à tout le savoir disponible ?'Comment offrir à tous un panorama complet de ce que les hommes savent ? C'est de l'ignorance, et de l'ignorance seule que l'homme doit se libérer. Ce qui fait écho à la Bible (mon peuple périt par manque de connaissance...) |
10 | 10 |
Plus d’un sont les hommes, et pas des moindres, qui se réclament de sa pensée.
Né à Porbandar (Gujarat) le 2 octobre 1869 et mort assassiné à Delhi le 30 janvier 1948, il est communément connu et appelé en Inde et dans le monde comme Mahatma Gandhi (grande âme).
Après ses études de droit à Londres, Gandhi est retourné dans son pays mais les affaires juridiques n’y tournent pas très bien pour lui.
En 1893, il est employé comme conseiller juridique pour une société indienne en Afrique du Sud. Il y découvre comment les noirs ainsi que les indiens y sont privés de nombreux droits civiques et sont victimes de l’intolérance et du racisme.
Il entreprend alors, pendant les vingt années qui suivent, un combat de résistance non violente et de non-coopération face aux autorités d’Afrique du Sud. Influsencé par l’écrivain américain Henry David Thoreau (1817-1862), il développe en 1909 ses théories du combat par la non-violence et la désobéissance civile de masse, la 2 0.3.
L’Afrique du Sud a été à la foiscomme un terrain de croissance, de mûrissement, mais aussi de mise en pratique préparatoire des théories de non violence qu’il mettait au point.
Ayant obtenu des avancées significatives en 1914 de la part du gouvernement sud-africain, Gandhi retourne en Inde, qu’il parcourt pour mieux la connaître.
Gandhi conduisit ensuite aussi la marche du sel, célèbre opposition à la taxe sur le sel, et pendant la seconde guerre mondiale, refusant de soutenir les Britanniques sans la contrepartie d’indépendance immédiate, il lance un appel pour que ceux-ci quittent l’Inde : Quit India.
L’Inde accède finalement à l’indépendance le 15 Août 1947 malgré sa partition en Inde et Pakistan (partition à laquelle Gandhi s’oppose de toutes ses forces mais est obligé de l’accepter pour garantir la paix intérieure).
Les combats non violents de Gandhi pour la défense des droits de l’homme eurent une influence importante sur les mouvements de libération et de défense des droits civiques dans le monde entier, notamment pour les noirs en Amérique du Nord avec Martin Luther King.
0.3 Premiers pas dans la non violence [1, 3] Lorsque Gandhi débarqua en Afrique du Sud, au mois de mai 1893, il avait uniquement pour mission de gagner un procès, de se procurer un peu d’argent et, peut-être, en fin de 3 compte, de commencer sa carrière : « Je tente ma chance dans l’Afrique du Sud.
Son pardessus était dans sa valise que retenaient les gens de la gare; par peur d’être de nouveau injurié, il n’alla pas le réclamer.
Une fois son procès terminé, Gandhi retourna à Durban et se prépara à prendre le bateau pour les Indes.
PREMIERS PAS DANS LA NON VIOLENCE [?, ?] disposés, mais sans lui, disaient-ils, « ils étaient ignorants, incapables et sans force ».
Lors d’une rencontre de protestation à Johannesbourg le 11 septembre 1906, Gandhi met en pratique pour la première fois sa méthodologie du satyagraha (attachement à la vérité), ou protestation non violente, dont il avait exposé la théorie en 1904.
Ce plan est adopté, ce qui mène à une lutte de sept ans au cours de laquelle des milliers d’Indiens et de Chinois sont emprisonnés (incluant Gandhi lui-même en de nombreuses occasions), fouettés ou même abattus pour avoir fait grève, refusé de s’enregistrer, brûlé leur carte d’enregistrement ou avoir résisté de manière non violente.
C’est durant cette période que Gandhi entame une correspondance avec Léon Tolstoï, où ils échangent leurs vues sur la non-violence et la politique globale jusqu’à la mort de l’écrivain russe.
Les mariages non chrétiens redeviennent 5 légaux et une taxe de trois livres qui représentait six mois de salaire, imposée aux Indiens qui voulaient devenir des travailleurs libres (c’est-à-dire les coolies), est abolie.
Il reprend à son compte l’idée de désobéissance civile, laquelle résonne avec les moyens de lutte qu’il adopte en Afrique du Sud pendant le combat contre les lois sur l’immigration.
APPROCHE DE LA LUTTE NON VIOLENTE [?, ?] son correspondant : « Votre activité au Transvaal (Afrique du Sud), pays qui semble être aux confins de la Terre, est une réalisation centrale, l’accomplissement le plus important parmi tous ceux qui ont actuellement lieu dans le monde.
La traduction, chez Gandhi, n’est pas simplement une pratique textuelle, c’est aussi l’une des opérations fondamentales grâce auxquelles les concepts s’affinent et la pensée chemine.
Cette forme de résistance a été instaurée par Gandhi afin de lutter pour la libération de son peuple face à la couronne britannique et de la diaspora indienne, victime d’apartheid, en Afrique du Sud. Gandhi perçoit la lutte armée comme un acte de barbarie car celle-ci utilise la force des armes afin de faire taire l’adversaire ou de lui imposer son point de vue.
A l’inverse, la non-violence prônée par le Mahatma Gandhi est l’absence totale de malveillance à l’égard de tout ce qui vit.
Peut-on au contraire considérer avec Gandhi que la non-violence est une forme de lutte plus efficace que la lutte armée ?
Il s’agit d’une pensée riche et complexe qui n’a pas encore été totalement épuisée malgré les très nombreux commentaires dont elle n’a cessé de faire l’objet.
RETOMBÉES SUR LE PLAN POLITIQUE ET SOCIAL [?] Si l’on considère Gandhi comme l’homme qui a mené le pays à l’indépendance et voulait proposer un mode original de développement du pays, force est de déplorer un bilan plus que négatif.
La pensée de Ganghi est une inépuisable source de réflexion pour des millions de gens et, parmi ces derniers, de très nombreuses personnalités de toute sorte, qu’elles soient activistes, philosophes voire politiques.
Aux États-Unis, en effet, Martin Luther King est considéré comme une personnalité de premier plan et la pensée gandhienne est très présente dans son approche, justifiée aussi par les évangiles.
On peut également évoquer Nelson Mandela, une autre grande figure de la non violence et de la libération des peuples.
Une autre grande figure, et pas des moindres, inspiré fortement de la pensée gandienne est léconomiste Ernst Friedrich Schumacher.
Et il prend pour autre fondement ce principe énoncé par Gandhi lui-même : « La Terre fournit assez pour satisfaire les besoins de chaque homme, mais pas pour l’avidité de chacun ».
C’est encore Gandhi qui considérait qu’il fallait privilégier la production pour les masses davantage 9 que la production de masse.
Comme déjà mentionné, Gandhi a toujours été une source d’inspiration sans précédent pour tout adepte de la non violence et l’écho de sa pensée est toujours présent aujourd’hui.
Bien que sa pensée ne s’applique explicitement ni directement par ceux qui se réclament de lui, c’est une icône mondiale centrale dans la lutte non violente.
0.6 Conclusion La pensée de Gandhi est très profonde et ne se limite pas à l’aspect pratique qui l’a accompagnée.
Cette pensée tient beaucoup plus compte de la source profonde des principes véhiculées que de leur mise en pratique qui peut être victime des aléas de la vie. | TP N°1 D’EDUCATION A LA PAIX Le Mahatma GANDHI KRAME KADURHA David (Matricule : 14167) Tech 1 - Génie Informatique Le 21 Août 2022 0.1 Introduction Le Mahatma Gandhi ! Qui ne connaît pas ce grand homme ? Sa pensée est connue et citée partout au monde. Plus d’un sont les hommes, et pas des moindres, qui se réclament de sa pensée. Il demeure une icône centrale de la non-violence et en est sans doute un parfait pionnier. La force de sa personnalité et des idées qu’il défend réside, non seulement en leur beauté mais surtout en leur pouvoir transformateur. Sa pratique d’une philosophie constamment mise à l’épreuve le distingue des idéalistes purs. Mais sa pensée toujours justifiée par des grands idéaux, le rapproche encore paradoxalement des idéalistes modérés. Son impact sur le monde a largement dépassé sa seule terre natale. 0.2 Brève biographie de Gandhi [1, 2] Mohandas Karamchand Gandhi est un dirigeant politique indien, important guide spirituel et icône de la non-violence. Né à Porbandar (Gujarat) le 2 octobre 1869 et mort assassiné à Delhi le 30 janvier 1948, il est communément connu et appelé en Inde et dans le monde comme Mahatma Gandhi (grande âme). Toutefois, il refusera le titre de Mahatma durant toute sa vie. Comme il a été élevé dans les valeurs hindouistes, il apprend à connaître les autres religions et la tolérance envers elles. D’ailleurs, la Baghavad-Gita est un texte de l’hindouisme qui aura une très grande influence sur lui. Suivant les coutumes de sa caste, il s’est marie à l’âge de 14 ans avec Kasturbai qui restera son épouse jusqu’à sa mort en 1942. Après ses études de droit à Londres, Gandhi est retourné dans son pays mais les affaires juridiques n’y tournent pas très bien pour lui. En 1893, il est employé comme conseiller juridique pour une société indienne en Afrique du Sud. Il y découvre comment les noirs ainsi que les indiens y sont privés de nombreux droits civiques et sont victimes de l’intolérance et du racisme. Il entreprend alors, pendant les vingt années qui suivent, un combat de résistance non violente et de non-coopération face aux autorités d’Afrique du Sud. Influsencé par l’écrivain américain Henry David Thoreau (1817-1862), il développe en 1909 ses théories du combat par la non-violence et la désobéissance civile de masse, la 2 0.3. PREMIERS PAS DANS LA NON VIOLENCE [?, ?] satyagraha, dans un ouvrage intitulé Hind Swaraj. L’Afrique du Sud a été à la foiscomme un terrain de croissance, de mûrissement, mais aussi de mise en pratique préparatoire des théories de non violence qu’il mettait au point. Ayant obtenu des avancées significatives en 1914 de la part du gouvernement sud-africain, Gandhi retourne en Inde, qu’il parcourt pour mieux la connaître. Après la Première Guerre mondiale, Gandhi, vite rejoint par des millions d’Indiens, s’oppose aux Britanniques en organisant la résistance civique et des campagnes de non-coopération (boycott des autorités, des tribunaux et des écoles,...). Gandhi conduisit ensuite aussi la marche du sel, célèbre opposition à la taxe sur le sel, et pendant la seconde guerre mondiale, refusant de soutenir les Britanniques sans la contrepartie d’indépendance immédiate, il lance un appel pour que ceux-ci quittent l’Inde : Quit India. Il s’ensuit la plus radicale révolte pour l’indépendance et de terribles répressions. Il fut emprisonné plusieurs fois en Afrique du Sud et en Inde pour ses activités ; il passa en tout six ans en prison. L’Inde accède finalement à l’indépendance le 15 Août 1947 malgré sa partition en Inde et Pakistan (partition à laquelle Gandhi s’oppose de toutes ses forces mais est obligé de l’accepter pour garantir la paix intérieure). Il ne peut empêcher le déchaînement de violence entre les musulmans et les hindous et meurt assassiné le 30 janvier 1948 par un fanatique hindou. Les combats non violents de Gandhi pour la défense des droits de l’homme eurent une influence importante sur les mouvements de libération et de défense des droits civiques dans le monde entier, notamment pour les noirs en Amérique du Nord avec Martin Luther King. Gandhi est reconnu comme le Père de la Nation en Inde, où son anniversaire est une fête nationale. Cette date a également été déclarée « Journée internationale de la non-violence » par l’Assemblée générale des Nations unies en 2007. 0.3 Premiers pas dans la non violence [1, 3] Lorsque Gandhi débarqua en Afrique du Sud, au mois de mai 1893, il avait uniquement pour mission de gagner un procès, de se procurer un peu d’argent et, peut-être, en fin de 3 compte, de commencer sa carrière : « Je tente ma chance dans l’Afrique du Sud. » Le procès exigeait la présence de Gandhi à Prétoria, capitale du Transvaal. On acheta pour lui à Durban un billet de première classe et il prit le train pour un voyage de nuit. A Maritzbourg, un blanc entra dans le compartiment et, voyant l’intrus à peau brune, se retira pour reparaître un moment plus tard avec deux employés du chemin de fer qui ordonnèrent à Gandhi de déménager dans le fourgon. Gandhi protesta en disant qu’il avait un billet de première. Cela ne fit aucun effet. Il fallait qu’il sortît. Il refusa et resta. Alors on alla chercher un policier qui le jeta dehors avec ses bagages. Gandhi aurait pu rentrer dans le train et trouver une place dans le wagon de troisième. Il préféra rester dans la salle d’attente. Il faisait froid dans ces montagnes. Son pardessus était dans sa valise que retenaient les gens de la gare; par peur d’être de nouveau injurié, il n’alla pas le réclamer. Il resta là assis toute la nuit, grelottant et dépité. Devait-il retourner aux Indes? Cet épisode était le reflet d’une situation bien plus importante. Fallait-il en prendre son parti ou simplement chercher une réparation pour son injure personnelle, terminer le procès et retourner chez lui dans l’Inde? Il s’était heurté au terrible fléau du préjugé de la couleur. Son devoir était de le combattre. Fuir en abandonnant ses compatriotes dans cette mauvaise situation aurait été lâche. Bien des années après, aux Indes, le Dr John R. Mott, un missionnaire chrétien, demanda à Gandhi : « Quelles ont été les expériences les plus décisives de toute votre vie? » En réponse, Gandhi lui raconta ce qui s’était passé cette nuit-là à la gare de Maritzbourg. Au cours de cette nuit glaciale à Maritzbourg le germe, de la protestation sociale était né en Gandhi. Mais il ne fit rien encore. Il poursuivit son travail à Prétoria. Une fois son procès terminé, Gandhi retourna à Durban et se prépara à prendre le bateau pour les Indes. Il avait séjourné dans l’Afrique du Sud douze mois environ. Avant son départ, ses associés donnèrent en son honneur une fête d’adieu. Pendant cette fête quelqu’un lui remit le Natal Mercury du jour, où il découvrit un bref écho concernant une loi proposée par le gouvernement de Natal en vue de priver les Indiens du droit d’élire les membres du corps législatif. Gandhi comprit la nécessité de résister à cette tendance. Ses amis y étaient 4 0.3. PREMIERS PAS DANS LA NON VIOLENCE [?, ?] disposés, mais sans lui, disaient-ils, « ils étaient ignorants, incapables et sans force ». Il consentit à rester un mois de plus. Il resta vingt ans, luttant pour la défense des droits des Indiens. Il remporta la victoire. Au début de la Deuxième Guerre des Boers, en 1899, Gandhi déclare que les Indiens doivent soutenir l’effort de guerre s’ils veulent légitimer leur demande de citoyenneté. Il organise un corps d’ambulanciers volontaires de 300 Indiens libres et de 800 coolies indiens, appelé le Indian Ambulance Corps, une des rares unités médicales qui secouraient les Sud-Africains noirs. Gandhi lui-même est porteur de civière à la bataille de Spion Kop. Il est décoré à cette occasion. Malgré tout, à la fin de la guerre, la situation des Indiens ne s’améliore pas, et continue même à se détériorer. En 1906, le gouvernement du Transvaal vote une nouvelle loi demandant l’enregistrement de toute la population indienne. Lors d’une rencontre de protestation à Johannesbourg le 11 septembre 1906, Gandhi met en pratique pour la première fois sa méthodologie du satyagraha (attachement à la vérité), ou protestation non violente, dont il avait exposé la théorie en 1904. Il appelle ses compagnons indiens à défier la nouvelle loi et à subir les punitions qui en résulteraient au lieu de résister par la violence. Il s’inspire en cela des préceptes, de son ami indien Shrimad Rajchandra, un ascète jaïn avec lequel il correspond jusqu’à la mort de celui-ci, et considéré comme son premier maître spirituel. Ce plan est adopté, ce qui mène à une lutte de sept ans au cours de laquelle des milliers d’Indiens et de Chinois sont emprisonnés (incluant Gandhi lui-même en de nombreuses occasions), fouettés ou même abattus pour avoir fait grève, refusé de s’enregistrer, brûlé leur carte d’enregistrement ou avoir résisté de manière non violente. C’est durant cette période que Gandhi entame une correspondance avec Léon Tolstoï, où ils échangent leurs vues sur la non-violence et la politique globale jusqu’à la mort de l’écrivain russe. La désobéissance civile culmine en 1913 avec une grève des mineurs et la marche des femmes indiennes. Bien que le gouvernement sud-africain réprime les manifestants indiens avec succès, l’opinion publique réagit violemment aux méthodes extrêmement dures employées contre les manifestants asiatiques pacifiques. Finalement le général Jan Christiaan Smuts est forcé de négocier un compromis avec Gandhi. Les mariages non chrétiens redeviennent 5 légaux et une taxe de trois livres qui représentait six mois de salaire, imposée aux Indiens qui voulaient devenir des travailleurs libres (c’est-à-dire les coolies), est abolie. C’étaient ses débuts dans la lutte non violente. L’Afrique du sud a servi de premier plateau d’application des principes qui mûrissaient en lui. 0.4 Approche de la lutte non violente [4, 5] La puissance du Mahatma prenait racine dans l’action. Il ne demandait jamais à quiconque de faire quoi que ce soit qu’il ne faisait pas lui-même. Il ne faisait que ce qu’il croyait devoir faire. Les exemples sont nombreux : la marche du sel, le rouet, le satyagraha, la destruction des vêtement de style européen, la libération des femmes et des intouchables... Il entraînait des millions de personnes dans son action. Il ne prêchait pas, il agissait, il faisait ce qu’il croyait devoir faire et les foules le suivaient par milliers, par million ou par centaines de millions. La pensée de Gandhi n’émerge pas de manière spontanée. Elle se nourrit notamment des ouvrages de Henry David Thoreau, de Léon Tolstoï ou encore de John Ruskin. Gandhi ne peut que se reconnaître dans l’expérience de Thoreau, incarcéré parce qu’il refusait de payer tout impôt à un État esclavagiste et portant la guerre au Mexique. Il reprend à son compte l’idée de désobéissance civile, laquelle résonne avec les moyens de lutte qu’il adopte en Afrique du Sud pendant le combat contre les lois sur l’immigration. Il la transforme aussi. Non sans grandes difficultés, il cherche à en faire une pratique collective. Il désire, en outre, la disjoindre absolument de toute violence, alors que l’écrivain américain, Thoreau, sans être un apôtre de la violence, n’hésitait aucunement à justifier son usage. Sur cette question, c’est l’influence de Tolstoï que l’on perçoit. Ne laissant planer aucun doute à ce propos, Gandhi affirme : « Lorsque je suis allé en Angleterre, j’étais un défenseur de la violence, je croyais en elle, et aucunement en la non-violence. Mais après que j’ai lu Le Royaume de Dieu est en vous de Tolstoï, cette absence de foi en la nonviolence s’est volatilisée. » En 1909, les deux hommes échangent quelques lettres. Dans la dernière de celles-ci, le romancier russe offre une véritable consécration à l’entreprise de 6 0.4. APPROCHE DE LA LUTTE NON VIOLENTE [?, ?] son correspondant : « Votre activité au Transvaal (Afrique du Sud), pays qui semble être aux confins de la Terre, est une réalisation centrale, l’accomplissement le plus important parmi tous ceux qui ont actuellement lieu dans le monde. » Quelque temps plus tard, Gandhi baptisera « ferme Tolstoï » son second projet de vie communautaire. On en arrive à Ruskin. Unto This Last est pour Gandhi une révélation. L’ouvrage le pousse à quitter la ville pour la campagne. En 1904, avec son ami Hermann Kallenbach, il acquiert à cette fin plusieurs hectares de terrain près de Durban et crée la communauté de Phoenix. Il s’agit là de faire l’expérience d’une vie collective où la simplicité règne. Les positions que chacun occupe au sein de la société doivent s’effacer, le travail agricole et artisanal doit acquérir une place centrale. Les locaux d’Indian Opinion sont aussi installés à cet endroit. Au fil des textes, on verra le choix d’un tel mode de vie se joindre à l’argumentaire sur le combat non violent ; il sera présenté comme son aspect constructif. Ces auteurs, Gandhi ne se contente pas de les lire : il étaie ses arguments en les citant abondamment et traduit certaines de leurs œuvres en gujarati. La traduction, chez Gandhi, n’est pas simplement une pratique textuelle, c’est aussi l’une des opérations fondamentales grâce auxquelles les concepts s’affinent et la pensée chemine. Pour qualifier la lutte qu’il invite à mener en Afrique du Sud, il parle d’abord de « résistance passive ». Mais l’expression, selon lui trop étriquée, a des connotations ambiguës : elle semble désigner « l’arme des faibles ». Invoquer, à l’instar de Thoreau, la « désobéissance civile » s’avère plus pertinent. Une telle appellation, néanmoins, malgré le génie de son auteur, ne suffit pas à décrire toute la portée de la révolte en cours. Comme « résistance passive », en outre, elle provient de la langue des colons. Si Gandhi utilise abondamment l’anglais, c’est à son grand dam ! Le respect de sa langue maternelle et de la pensée qui s’y déploie lui commande de ne pas employer de termes qui ne s’y laisseraient traduire. Gandhi organise donc en 1907, prix à la clef, un concours dans lequel il invite à trouver des équivalents à « résistance passive », « désobéissance civile » et leurs dérivés. L’appel est lancé, en gujarati, dans Indian Opinion. Avec sa précision de juriste, Gandhi commente l’ensemble des propositions qui lui sont faites, et n’en retient qu’une : la sienne. Satyagraha [être arrimé à la vérité], ainsi seront condensés en un mot les multiples aspects de la lutte non violente qu’il entend mener. Ironie de l’histoire, celui-là sonnera si juste à ses oreilles 7 que fréquemment, lorsqu’il s’exprimera en anglais, il le restituera tel quel. Il en viendra même à distinguer satyagraha et désobéissance civile, invitant à imaginer le premier comme un arbre et la seconde comme l’une de ses multiples branches. En bref donc, par satyagraha on entend le refus de se soumettre à une loi, un règlement ou aux autorités, tout en menant un combat et une action pacifiques. Le but d’une « action de satyagraha » est de vaincre l’injustice et de se libérer de l’oppresseur. L’idéologie non violente de Gandhi revient à rejeter tout ce qui détruit la personne humaine. Pour ce faire, elle emprunte plusieurs voies : la vérité, la justice, l’amour et le sacrifice de soi. Cette forme de résistance a été instaurée par Gandhi afin de lutter pour la libération de son peuple face à la couronne britannique et de la diaspora indienne, victime d’apartheid, en Afrique du Sud. Gandhi perçoit la lutte armée comme un acte de barbarie car celle-ci utilise la force des armes afin de faire taire l’adversaire ou de lui imposer son point de vue. Cause de souffrances et de nuisances, la violence est l’expression du mal. Elle entraîne une réplique de la part de celui qui la subit, s’engage alors un cycle infernal de violences successives. A l’inverse, la non-violence prônée par le Mahatma Gandhi est l’absence totale de malveillance à l’égard de tout ce qui vit. Par sa stratégie, Gandhi propose une autre façon de résoudre les conflits. Pourtant l’homme accorde aujourd’hui encore une plus grande confiance dans la lutte armée. Peut-on au contraire considérer avec Gandhi que la non-violence est une forme de lutte plus efficace que la lutte armée ? Selon Gandhi, la non-violence est préférable à la lutte armée évidemment car toute violence, de quelque nature qu’elle soit, est contraire à la vérité. 0.5 Retombées sur le plan politique et social [6] L’importance et l’influence de Gandhi sur le monde contemporain ne font aucun doute. Il est parmi les personnes ayant marqué le XXe siècle et cette influence ne s’est pas tarie avec le temps. Il s’agit d’une pensée riche et complexe qui n’a pas encore été totalement épuisée malgré les très nombreux commentaires dont elle n’a cessé de faire l’objet. 8 0.5. RETOMBÉES SUR LE PLAN POLITIQUE ET SOCIAL [?] Si l’on considère Gandhi comme l’homme qui a mené le pays à l’indépendance et voulait proposer un mode original de développement du pays, force est de déplorer un bilan plus que négatif. La condamnation à mort et l’exécution de ses assassins constituaient en elles-mêmes les preuves d’un rejet de ses idées. Au sens strict, l’Inde n’a adopté aucune des options politiques, économiques et sociales propres à la pensée de Gandhi : si l’on s’en tient à ce constat, on peut légitimement parler d’échec. Néanmoins, de son vivant, il a énormément réussi. De l’abolition des lois ségrégationnistes à l’égard des indiens en Afrique du Sud à l’indépendance de son pays, en passant par l’obtention d’une adoption unanime de ses vues, Gandhi a énormément aidé son peuple et l’humanité en général, par l’espoir qu’il fit renaître auprès des opprimés. La pensée de Ganghi est une inépuisable source de réflexion pour des millions de gens et, parmi ces derniers, de très nombreuses personnalités de toute sorte, qu’elles soient activistes, philosophes voire politiques. Parmi ces derniers, une figure vient immédiatement à l’esprit dont l’action et la personnalité furent inlassablement associées à Gandhi. Aux États-Unis, en effet, Martin Luther King est considéré comme une personnalité de premier plan et la pensée gandhienne est très présente dans son approche, justifiée aussi par les évangiles. Il fut impliqué dans le mouvement d’émancipation des noirs américains et y joua un rôle remarquable. On peut également évoquer Nelson Mandela, une autre grande figure de la non violence et de la libération des peuples. Ainsi, l’héritage de Gandhi n’est pas moindre. Une autre grande figure, et pas des moindres, inspiré fortement de la pensée gandienne est léconomiste Ernst Friedrich Schumacher. Selon Schumacher, l’économie doit se plier aux besoins de la nation et le libéralisme n’est pas adapté aux pays en développement. Elle doit aussi tenir compte de l’ensemble des ressources de la planète et c’est ainsi qu’il fut un des premiers à parler de « développement durable », concept qui fait florès aujourd’hui. Gandhi, poursuit-il, proposait trois remèdes à la maladie de l’économie : taille réduite (smallness), simplicité et non-violence. Et il prend pour autre fondement ce principe énoncé par Gandhi lui-même : « La Terre fournit assez pour satisfaire les besoins de chaque homme, mais pas pour l’avidité de chacun ». C’est encore Gandhi qui considérait qu’il fallait privilégier la production pour les masses davantage 9 que la production de masse. Schumacher montre surtout que les principes gandhiens de l’économie fondent les besoins de l’économie moderne pour un développement durable. Il faut, par exemple, recentrer le transport et la distribution sur le local pour éviter des coûts humains et environnementaux excessifs. Comme déjà mentionné, Gandhi a toujours été une source d’inspiration sans précédent pour tout adepte de la non violence et l’écho de sa pensée est toujours présent aujourd’hui. Bien que sa pensée ne s’applique explicitement ni directement par ceux qui se réclament de lui, c’est une icône mondiale centrale dans la lutte non violente. 0.6 Conclusion La pensée de Gandhi est très profonde et ne se limite pas à l’aspect pratique qui l’a accompagnée. En fait, au-delà d’être une pensée en mouvement, une pensée mise directement en pratique par son auteur, la pensée gandhienne est tout d’abord une idéologie forte. Cette pensée tient beaucoup plus compte de la source profonde des principes véhiculées que de leur mise en pratique qui peut être victime des aléas de la vie. Toute la pensée de Gandhi tourne autour de la vérité. Il dit d’ailleurs que, s’il devait choisir entre non-violence et vérité, il choisirait cette dernière en lieu et place de celle-là [5]. C’est en ce sens que, paradoxalement, bien que s’étant réclamé inspiré de l’hindouisme, Gandhi peut être considéré comme un disciple directe de la pensée de Jésus. 10 Bibliographie [1] Wikipedia.org. https://fr.wikipedia.org/wiki/Gandhi, 2022. [2] La toupie.org. https://www.toupie.org/Biographies/Gandhi.htm, 2022. [3] Louis Fischer. La Vie du Mahâtma Gandhi. Paris, 1983. [4] Ridoré Cécile Woodlyne et Vincent Nyrkah Brice Arnaud Hello, Dieumercy Junie Edwina. L’idéologie non violente de gandhi, 2014. [5] Mohandas Karamchand Gandhi, Krishna Kripalani, Guy Vogelweith, Sarvepalli Radhakrishnan, and Sarvepalli Radhakrishnan. La voie de la non-violence. Gallimard, 2004. [6] Robert Deliège. https://books.openedition.org/septentrion/13949, 2022. 11 |
C'est de l'ignorance, et de l'ignorance seule que l'homme doit se libérer.C'est de l'ignorance, et de l'ignorance seule que l'homme doit se libérer....Nous voulons que tous les êtres humains, ensemble ou pris isolément, jeunes ou vieux, riches ou pauvres, nobles ou roturiers, hommes ou femmes, puissent pleinement s'instruire et devenir des êtres achevés. | Nous voulons que tous les êtres humains, ensemble ou pris isolément, jeunes ou vieux, riches ou pauvres, nobles ou roturiers, hommes ou femmes, puissent pleinement s'instruire et devenir des êtres achevés. Nous voulons qu'ils soient instruits parfaitement et formés non seulement sur tel ou tel point, mais également sur tout ce qui permet à l'homme de réaliser intégralement son essence. D'apprendre à connaître la vérité, à ne pas être trompé par des faux semblants. A aimer le bien, à ne pas être séduit par le mal, à faire ce qu'on doit faire et à se garder de ce qu'il faut éviter. A parler sagement de tout, avec tout le monde. Enfin, à toujours traiter les choses, les hommes et Dieu avec prudence et non à la légère. Et à ne jamais s'écarter de son but, le bonheur. Le Galilée de l'éducation comme on le surnommait s'est posé une question à la fois très simple et très révolutionnaire. Il s'était demandé en effet : 'Comment faire en sorte que tous les hommes accèdent à tout le savoir disponible ?'Comment offrir à tous un panorama complet de ce que les hommes savent ? C'est de l'ignorance, et de l'ignorance seule que l'homme doit se libérer.C'est de l'ignorance, et de l'ignorance seule que l'homme doit se libérer....Nous voulons que tous les êtres humains, ensemble ou pris isolément, jeunes ou vieux, riches ou pauvres, nobles ou roturiers, hommes ou femmes, puissent pleinement s'instruire et devenir des êtres achevés. Nous voulons qu'ils soient instruits parfaitement et formés non seulement sur tel ou tel point, mais également sur tout ce qui permet à l'homme de réaliser intégralement son essence. D'apprendre à connaître la vérité, à ne pas être trompé par des faux semblants. A aimer le bien, à ne pas être séduit par le mal, à faire ce qu'on doit faire et à se garder de ce qu'il faut éviter. A parler sagement de tout, avec tout le monde. Enfin, à toujours traiter les choses, les hommes et Dieu avec prudence et non à la légère. Et à ne jamais s'écarter de son but, le bonheur. Le Galilée de l'éducation comme on le surnommait s'est posé une question à la fois très simple et très révolutionnaire. Il s'était demandé en effet : 'Comment faire en sorte que tous les hommes accèdent à tout le savoir disponible ?'Comment offrir à tous un panorama complet de ce que les hommes savent ? C'est de l'ignorance, et de l'ignorance seule que l'homme doit se libérer.C'est de l'ignorance, et de l'ignorance seule que l'homme doit se libérer.... |
Contrat qui consiste à faire avancer les connaissances.
AMOS COMENIUS (père sprituel de l'UNESCO) : " Nous voulons que tous les êtres humains, ensemble
parfaitement et formés non seulement sur tel ou tel point, mais également sur tout ce qui permet
Le Galilée de l'éducation comme on le surnommait s'est posé une question à la fois très simple et
Il s'était demandé en effet : "Comment faire en sorte que tous les hommes
Comment offrir à tous un panorama complet de ce que les hommes savent ?
" C'est de l'ignorance, et de l'ignorance seule que l'homme doit se libérer. | La science a un contrat avec la société. Contrat qui consiste à faire avancer les connaissances.
AMOS COMENIUS (père sprituel de l'UNESCO) : " Nous voulons que tous les êtres humains, ensemble
ou pris isolément, jeunes ou vieux, riches ou pauvres, nobles ou roturiers, hommes ou femmes,
puissent pleinement s'instruire et devenir des êtres achevés. Nous voulons qu'ils soient instruits
parfaitement et formés non seulement sur tel ou tel point, mais également sur tout ce qui permet
à l'homme de réaliser intégralement son essence.
D'apprendre à connaître la vérité, à ne pas être trompé par des faux semblants. A aimer le bien,
à ne pas être séduit par le mal, à faire ce qu'on doit faire et à se garder de ce qu'il faut éviter.
A parler sagement de tout, avec tout le monde. Enfin, à toujours traiter les choses,
Dieu avec prudence et non à la légère. Et à ne jamais s'écarter de son but, le bonheur ".
Le Galilée de l'éducation comme on le surnommait s'est posé une question à la fois très simple et
très révolutionnaire. Il s'était demandé en effet : "Comment faire en sorte que tous les hommes
accèdent à tout le savoir disponible ?"
Comment offrir à tous un panorama complet de ce que les hommes savent ?
" C'est de l'ignorance, et de l'ignorance seule que l'homme doit se libérer. " Disait .... ???
Ce qui fait écho à la Bible (mon peuple périt par manque de connaissance...)
Nelson MANDELA : " L'éducation est la plus grande puissance transformatrice de la société". |
L'occasion de faire le point sur l'actualité. | |
TP N°1 D’EDUCATION A LA PAIX Le Mahatma GANDHI KRAME KADURHA David (Matricule : 14167) Tech 1 - Génie Informatique Le 21 Août 2022 0.1 Introduction Le Mahatma Gandhi ! Qui ne connaît pas ce grand homme ? Sa pensée est connue et citée partout au monde. | TP N°1 D’EDUCATION A LA PAIX Le Mahatma GANDHI KRAME KADURHA David (Matricule : 14167) Tech 1 - Génie Informatique Le 21 Août 2022 0.1 Introduction Le Mahatma Gandhi ! Qui ne connaît pas ce grand homme ? Sa pensée est connue et citée partout au monde. |
Enfin, à toujours traiter les choses, les hommes et Dieu avec prudence et non à la légère.
Nous voulons qu'ils soient instruits parfaitement et formés non seulement sur tel ou tel point, mais également sur tout ce qui permet à l'homme de réaliser intégralement son essence.
D'apprendre à connaître la vérité, à ne pas être trompé par des faux semblants. | Nous voulons que tous les êtres humains, ensemble ou pris isolément, jeunes ou vieux, riches ou pauvres, nobles ou roturiers, hommes ou femmes, puissent pleinement s'instruire et devenir des êtres achevés. Nous voulons qu'ils soient instruits parfaitement et formés non seulement sur tel ou tel point, mais également sur tout ce qui permet à l'homme de réaliser intégralement son essence. D'apprendre à connaître la vérité, à ne pas être trompé par des faux semblants. A aimer le bien, à ne pas être séduit par le mal, à faire ce qu'on doit faire et à se garder de ce qu'il faut éviter. A parler sagement de tout, avec tout le monde. Enfin, à toujours traiter les choses, les hommes et Dieu avec prudence et non à la légère. Et à ne jamais s'écarter de son but, le bonheur. "Le Galilée" de l'éducation comme on le surnommait s'est posé une question à la fois très simple et très révolutionnaire. Il s'était demandé en effet : 'Comment faire en sorte que tous les hommes accèdent à tout le savoir disponible ?'Comment offrir à tous un panorama complet de ce que les hommes savent ?
Nous voulons que tous les êtres humains, ensemble ou pris isolément, jeunes ou vieux, riches ou pauvres, nobles ou roturiers, hommes ou femmes, puissent pleinement s'instruire et devenir des êtres achevés. Nous voulons qu'ils soient instruits parfaitement et formés non seulement sur tel ou tel point, mais également sur tout ce qui permet à l'homme de réaliser intégralement son essence. D'apprendre à connaître la vérité, à ne pas être trompé par des faux semblants. A aimer le bien, à ne pas être séduit par le mal, à faire ce qu'on doit faire et à se garder de ce qu'il faut éviter. A parler sagement de tout, avec tout le monde. |
La science a un contrat avec la société. Contrat qui consiste à faire avancer les connaissances.AMOS COMENIUS (père sprituel de l'UNESCO) : " Nous voulons que tous les êtres humains, ensemble ou pris isolément, jeunes ou vieux, riches ou pauvres, nobles ou roturiers, hommes ou femmes, puissent pleinement s'instruire et devenir des êtres achevés. Nous voulons qu'ils soient instruits parfaitement et formés non seulement sur tel ou tel point, mais également sur tout ce qui permet à l'homme de réaliser intégralement son essence.D'apprendre à connaître la vérité, à ne pas être trompé par des faux semblants. A aimer le bien, à ne pas être séduit par le mal, à faire ce qu'on doit faire et à se garder de ce qu'il faut éviter.A parler sagement de tout, avec tout le monde. Enfin, à toujours traiter les choses, les hommes et Dieu avec prudence et non à la légère. Et à ne jamais s'écarter de son but, le bonheur ".Le Galilée de l'éducation comme on le surnommait s'est posé une question à la fois très simple et très révolutionnaire. Il s'était demandé en effet : "Comment faire en sorte que tous les hommes accèdent à tout le savoir disponible ?"Comment offrir à tous un panorama complet de ce que les hommes savent ?" C'est de l'ignorance, et de l'ignorance seule que l'homme doit se libérer. " Disait .... ???Ce qui fait écho à la Bible (mon peuple périt par manque de connaissance...)Nelson MANDELA : " L'éducation est la plus grande puissance transformatrice de la société". | La science a un contrat avec la société. Contrat qui consiste à faire avancer les connaissances.AMOS COMENIUS (père sprituel de l'UNESCO) : " Nous voulons que tous les êtres humains, ensemble ou pris isolément, jeunes ou vieux, riches ou pauvres, nobles ou roturiers, hommes ou femmes, puissent pleinement s'instruire et devenir des êtres achevés. Nous voulons qu'ils soient instruits parfaitement et formés non seulement sur tel ou tel point, mais également sur tout ce qui permet à l'homme de réaliser intégralement son essence.D'apprendre à connaître la vérité, à ne pas être trompé par des faux semblants. A aimer le bien, à ne pas être séduit par le mal, à faire ce qu'on doit faire et à se garder de ce qu'il faut éviter.A parler sagement de tout, avec tout le monde. Enfin, à toujours traiter les choses, les hommes et Dieu avec prudence et non à la légère. Et à ne jamais s'écarter de son but, le bonheur ".Le Galilée de l'éducation comme on le surnommait s'est posé une question à la fois très simple et très révolutionnaire. Il s'était demandé en effet : "Comment faire en sorte que tous les hommes accèdent à tout le savoir disponible ?"Comment offrir à tous un panorama complet de ce que les hommes savent ?" C'est de l'ignorance, et de l'ignorance seule que l'homme doit se libérer. " Disait .... ???Ce qui fait écho à la Bible (mon peuple périt par manque de connaissance...)Nelson MANDELA : " L'éducation est la plus grande puissance transformatrice de la société". |
Gandhi est reconnu comme le Père de la Nation en Inde, où son anniversaire est une fête nationale. Gandhi est né à Porbandar (Gujarat) le 2 octobre 1869 et assassiné à Delhi le 30 janvier 1948. Il est communément connu et appelé en Inde et dans le monde sous le nom de Mahatma Gandhi (grande âme) | TP N°1 D’EDUCATION A LA PAIX Le Mahatma GANDHI KRAME KADURHA David (Matricule : 14167) Tech 1 - Génie Informatique Le 21 Août 2022 0.1 Introduction Le Mahatma Gandhi ! Qui ne connaît pas ce grand homme ? Sa pensée est connue et citée partout au monde. Plus d’un sont les hommes, et pas des moindres, qui se réclament de sa pensée. Il demeure une icône centrale de la non-violence et en est sans doute un parfait pionnier. La force de sa personnalité et des idées qu’il défend réside, non seulement en leur beauté mais surtout en leur pouvoir transformateur. Sa pratique d’une philosophie constamment mise à l’épreuve le distingue des idéalistes purs. Mais sa pensée toujours justifiée par des grands idéaux, le rapproche encore paradoxalement des idéalistes modérés. Son impact sur le monde a largement dépassé sa seule terre natale. 0.2 Brève biographie de Gandhi [1, 2] Mohandas Karamchand Gandhi est un dirigeant politique indien, important guide spirituel et icône de la non-violence. Né à Porbandar (Gujarat) le 2 octobre 1869 et mort assassiné à Delhi le 30 janvier 1948, il est communément connu et appelé en Inde et dans le monde comme Mahatma Gandhi (grande âme). Toutefois, il refusera le titre de Mahatma durant toute sa vie. Comme il a été élevé dans les valeurs hindouistes, il apprend à connaître les autres religions et la tolérance envers elles. D’ailleurs, la Baghavad-Gita est un texte de l’hindouisme qui aura une très grande influence sur lui. Suivant les coutumes de sa caste, il s’est marie à l’âge de 14 ans avec Kasturbai qui restera son épouse jusqu’à sa mort en 1942. Après ses études de droit à Londres, Gandhi est retourné dans son pays mais les affaires juridiques n’y tournent pas très bien pour lui. En 1893, il est employé comme conseiller juridique pour une société indienne en Afrique du Sud. Il y découvre comment les noirs ainsi que les indiens y sont privés de nombreux droits civiques et sont victimes de l’intolérance et du racisme. Il entreprend alors, pendant les vingt années qui suivent, un combat de résistance non violente et de non-coopération face aux autorités d’Afrique du Sud. Influsencé par l’écrivain américain Henry David Thoreau (1817-1862), il développe en 1909 ses théories du combat par la non-violence et la désobéissance civile de masse, la 2 0.3. PREMIERS PAS DANS LA NON VIOLENCE [?, ?] satyagraha, dans un ouvrage intitulé Hind Swaraj. L’Afrique du Sud a été à la foiscomme un terrain de croissance, de mûrissement, mais aussi de mise en pratique préparatoire des théories de non violence qu’il mettait au point. Ayant obtenu des avancées significatives en 1914 de la part du gouvernement sud-africain, Gandhi retourne en Inde, qu’il parcourt pour mieux la connaître. Après la Première Guerre mondiale, Gandhi, vite rejoint par des millions d’Indiens, s’oppose aux Britanniques en organisant la résistance civique et des campagnes de non-coopération (boycott des autorités, des tribunaux et des écoles,...). Gandhi conduisit ensuite aussi la marche du sel, célèbre opposition à la taxe sur le sel, et pendant la seconde guerre mondiale, refusant de soutenir les Britanniques sans la contrepartie d’indépendance immédiate, il lance un appel pour que ceux-ci quittent l’Inde : Quit India. Il s’ensuit la plus radicale révolte pour l’indépendance et de terribles répressions. Il fut emprisonné plusieurs fois en Afrique du Sud et en Inde pour ses activités ; il passa en tout six ans en prison. L’Inde accède finalement à l’indépendance le 15 Août 1947 malgré sa partition en Inde et Pakistan (partition à laquelle Gandhi s’oppose de toutes ses forces mais est obligé de l’accepter pour garantir la paix intérieure). Il ne peut empêcher le déchaînement de violence entre les musulmans et les hindous et meurt assassiné le 30 janvier 1948 par un fanatique hindou. Les combats non violents de Gandhi pour la défense des droits de l’homme eurent une influence importante sur les mouvements de libération et de défense des droits civiques dans le monde entier, notamment pour les noirs en Amérique du Nord avec Martin Luther King. Gandhi est reconnu comme le Père de la Nation en Inde, où son anniversaire est une fête nationale. Cette date a également été déclarée « Journée internationale de la non-violence » par l’Assemblée générale des Nations unies en 2007. 0.3 Premiers pas dans la non violence [1, 3] Lorsque Gandhi débarqua en Afrique du Sud, au mois de mai 1893, il avait uniquement pour mission de gagner un procès, de se procurer un peu d’argent et, peut-être, en fin de 3 compte, de commencer sa carrière : « Je tente ma chance dans l’Afrique du Sud. » Le procès exigeait la présence de Gandhi à Prétoria, capitale du Transvaal. On acheta pour lui à Durban un billet de première classe et il prit le train pour un voyage de nuit. A Maritzbourg, un blanc entra dans le compartiment et, voyant l’intrus à peau brune, se retira pour reparaître un moment plus tard avec deux employés du chemin de fer qui ordonnèrent à Gandhi de déménager dans le fourgon. Gandhi protesta en disant qu’il avait un billet de première. Cela ne fit aucun effet. Il fallait qu’il sortît. Il refusa et resta. Alors on alla chercher un policier qui le jeta dehors avec ses bagages. Gandhi aurait pu rentrer dans le train et trouver une place dans le wagon de troisième. Il préféra rester dans la salle d’attente. Il faisait froid dans ces montagnes. Son pardessus était dans sa valise que retenaient les gens de la gare; par peur d’être de nouveau injurié, il n’alla pas le réclamer. Il resta là assis toute la nuit, grelottant et dépité. Devait-il retourner aux Indes? Cet épisode était le reflet d’une situation bien plus importante. Fallait-il en prendre son parti ou simplement chercher une réparation pour son injure personnelle, terminer le procès et retourner chez lui dans l’Inde? Il s’était heurté au terrible fléau du préjugé de la couleur. Son devoir était de le combattre. Fuir en abandonnant ses compatriotes dans cette mauvaise situation aurait été lâche. Bien des années après, aux Indes, le Dr John R. Mott, un missionnaire chrétien, demanda à Gandhi : « Quelles ont été les expériences les plus décisives de toute votre vie? » En réponse, Gandhi lui raconta ce qui s’était passé cette nuit-là à la gare de Maritzbourg. Au cours de cette nuit glaciale à Maritzbourg le germe, de la protestation sociale était né en Gandhi. Mais il ne fit rien encore. Il poursuivit son travail à Prétoria. Une fois son procès terminé, Gandhi retourna à Durban et se prépara à prendre le bateau pour les Indes. Il avait séjourné dans l’Afrique du Sud douze mois environ. Avant son départ, ses associés donnèrent en son honneur une fête d’adieu. Pendant cette fête quelqu’un lui remit le Natal Mercury du jour, où il découvrit un bref écho concernant une loi proposée par le gouvernement de Natal en vue de priver les Indiens du droit d’élire les membres du corps législatif. Gandhi comprit la nécessité de résister à cette tendance. Ses amis y étaient 4 0.3. PREMIERS PAS DANS LA NON VIOLENCE [?, ?] disposés, mais sans lui, disaient-ils, « ils étaient ignorants, incapables et sans force ». Il consentit à rester un mois de plus. Il resta vingt ans, luttant pour la défense des droits des Indiens. Il remporta la victoire. Au début de la Deuxième Guerre des Boers, en 1899, Gandhi déclare que les Indiens doivent soutenir l’effort de guerre s’ils veulent légitimer leur demande de citoyenneté. Il organise un corps d’ambulanciers volontaires de 300 Indiens libres et de 800 coolies indiens, appelé le Indian Ambulance Corps, une des rares unités médicales qui secouraient les Sud-Africains noirs. Gandhi lui-même est porteur de civière à la bataille de Spion Kop. Il est décoré à cette occasion. Malgré tout, à la fin de la guerre, la situation des Indiens ne s’améliore pas, et continue même à se détériorer. En 1906, le gouvernement du Transvaal vote une nouvelle loi demandant l’enregistrement de toute la population indienne. Lors d’une rencontre de protestation à Johannesbourg le 11 septembre 1906, Gandhi met en pratique pour la première fois sa méthodologie du satyagraha (attachement à la vérité), ou protestation non violente, dont il avait exposé la théorie en 1904. Il appelle ses compagnons indiens à défier la nouvelle loi et à subir les punitions qui en résulteraient au lieu de résister par la violence. Il s’inspire en cela des préceptes, de son ami indien Shrimad Rajchandra, un ascète jaïn avec lequel il correspond jusqu’à la mort de celui-ci, et considéré comme son premier maître spirituel. Ce plan est adopté, ce qui mène à une lutte de sept ans au cours de laquelle des milliers d’Indiens et de Chinois sont emprisonnés (incluant Gandhi lui-même en de nombreuses occasions), fouettés ou même abattus pour avoir fait grève, refusé de s’enregistrer, brûlé leur carte d’enregistrement ou avoir résisté de manière non violente. C’est durant cette période que Gandhi entame une correspondance avec Léon Tolstoï, où ils échangent leurs vues sur la non-violence et la politique globale jusqu’à la mort de l’écrivain russe. La désobéissance civile culmine en 1913 avec une grève des mineurs et la marche des femmes indiennes. Bien que le gouvernement sud-africain réprime les manifestants indiens avec succès, l’opinion publique réagit violemment aux méthodes extrêmement dures employées contre les manifestants asiatiques pacifiques. Finalement le général Jan Christiaan Smuts est forcé de négocier un compromis avec Gandhi. Les mariages non chrétiens redeviennent 5 légaux et une taxe de trois livres qui représentait six mois de salaire, imposée aux Indiens qui voulaient devenir des travailleurs libres (c’est-à-dire les coolies), est abolie. C’étaient ses débuts dans la lutte non violente. L’Afrique du sud a servi de premier plateau d’application des principes qui mûrissaient en lui. 0.4 Approche de la lutte non violente [4, 5] La puissance du Mahatma prenait racine dans l’action. Il ne demandait jamais à quiconque de faire quoi que ce soit qu’il ne faisait pas lui-même. Il ne faisait que ce qu’il croyait devoir faire. Les exemples sont nombreux : la marche du sel, le rouet, le satyagraha, la destruction des vêtement de style européen, la libération des femmes et des intouchables... Il entraînait des millions de personnes dans son action. Il ne prêchait pas, il agissait, il faisait ce qu’il croyait devoir faire et les foules le suivaient par milliers, par million ou par centaines de millions. La pensée de Gandhi n’émerge pas de manière spontanée. Elle se nourrit notamment des ouvrages de Henry David Thoreau, de Léon Tolstoï ou encore de John Ruskin. Gandhi ne peut que se reconnaître dans l’expérience de Thoreau, incarcéré parce qu’il refusait de payer tout impôt à un État esclavagiste et portant la guerre au Mexique. Il reprend à son compte l’idée de désobéissance civile, laquelle résonne avec les moyens de lutte qu’il adopte en Afrique du Sud pendant le combat contre les lois sur l’immigration. Il la transforme aussi. Non sans grandes difficultés, il cherche à en faire une pratique collective. Il désire, en outre, la disjoindre absolument de toute violence, alors que l’écrivain américain, Thoreau, sans être un apôtre de la violence, n’hésitait aucunement à justifier son usage. Sur cette question, c’est l’influence de Tolstoï que l’on perçoit. Ne laissant planer aucun doute à ce propos, Gandhi affirme : « Lorsque je suis allé en Angleterre, j’étais un défenseur de la violence, je croyais en elle, et aucunement en la non-violence. Mais après que j’ai lu Le Royaume de Dieu est en vous de Tolstoï, cette absence de foi en la nonviolence s’est volatilisée. » En 1909, les deux hommes échangent quelques lettres. Dans la dernière de celles-ci, le romancier russe offre une véritable consécration à l’entreprise de 6 0.4. APPROCHE DE LA LUTTE NON VIOLENTE [?, ?] son correspondant : « Votre activité au Transvaal (Afrique du Sud), pays qui semble être aux confins de la Terre, est une réalisation centrale, l’accomplissement le plus important parmi tous ceux qui ont actuellement lieu dans le monde. » Quelque temps plus tard, Gandhi baptisera « ferme Tolstoï » son second projet de vie communautaire. On en arrive à Ruskin. Unto This Last est pour Gandhi une révélation. L’ouvrage le pousse à quitter la ville pour la campagne. En 1904, avec son ami Hermann Kallenbach, il acquiert à cette fin plusieurs hectares de terrain près de Durban et crée la communauté de Phoenix. Il s’agit là de faire l’expérience d’une vie collective où la simplicité règne. Les positions que chacun occupe au sein de la société doivent s’effacer, le travail agricole et artisanal doit acquérir une place centrale. Les locaux d’Indian Opinion sont aussi installés à cet endroit. Au fil des textes, on verra le choix d’un tel mode de vie se joindre à l’argumentaire sur le combat non violent ; il sera présenté comme son aspect constructif. Ces auteurs, Gandhi ne se contente pas de les lire : il étaie ses arguments en les citant abondamment et traduit certaines de leurs œuvres en gujarati. |
AMOS COMENIUS (père sprituel de l'UNESCO) : " Nous voulons que tous les êtres humains, ensemble ou pris isolément, jeunes ou vieux, riches ou pauvres, nobles ou roturiers, hommes ou femmes, puissent pleinement s'instruire et devenir des êtres achevés.
Nous voulons qu'ils soient instruits parfaitement et formés non seulement sur tel ou tel point, mais également sur tout ce qui permet à l'homme de réaliser intégralement son essence. | La science a un contrat avec la société. Contrat qui consiste à faire avancer les connaissances. AMOS COMENIUS (père sprituel de l'UNESCO) : " Nous voulons que tous les êtres humains, ensemble ou pris isolément, jeunes ou vieux, riches ou pauvres, nobles ou roturiers, hommes ou femmes, puissent pleinement s'instruire et devenir des êtres achevés. Nous voulons qu'ils soient instruits parfaitement et formés non seulement sur tel ou tel point, mais également sur tout ce qui permet à l'homme de réaliser intégralement son essence. D'apprendre à connaître la vérité, à ne pas être trompé par des faux semblants. A aimer le bien, à ne pas être séduit par le mal, à faire ce qu'on doit faire et à se garder de ce qu'il faut éviter. A parler sagement de tout, avec tout le monde. Enfin, à toujours traiter les choses, les hommes et Dieu avec prudence et non à la légère. Et à ne jamais s'écarter de son but, le bonheur ". Le Galilée de l'éducation comme on le surnommait s'est posé une question à la fois très simple et très révolutionnaire. Il s'était demandé en effet : "Comment faire en sorte que tous les hommes accèdent à tout le savoir disponible ?" Comment offrir à tous un panorama complet de ce que les hommes savent ? " C'est de l'ignorance, et de l'ignorance seule que l'homme doit se libérer. " |
La science a un contrat avec la société. Le but de l'UNESCO est d'apprendre à connaître la vérité, à ne pas être trompé par des faux semblants. | La science a un contrat avec la société. Contrat qui consiste à faire avancer les connaissances. AMOS COMENIUS (père sprituel de l'UNESCO) : " Nous voulons que tous les êtres humains, ensemble ou pris isolément, jeunes ou vieux, riches ou pauvres, nobles ou roturiers, hommes ou femmes, puissent pleinement s'instruire et devenir des êtres achevés. Nous voulons qu'ils soient instruits parfaitement et formés non seulement sur tel ou tel point, mais également sur tout ce qui permet à l'homme de réaliser intégralement son essence. D'apprendre à connaître la vérité, à ne pas être trompé par des faux semblants. A aimer le bien, à ne pas être séduit par le mal, à faire ce qu'on doit faire et à se garder de ce qu'il faut éviter. A parler sagement de tout, avec tout le monde. Enfin, à toujours traiter les choses, les hommes et Dieu avec prudence et non à la légère. Et à ne jamais s'écarter de son but, le bonheur ". Le Galilée de l'éducation comme on le surnommait s'est posé une question à la fois très simple et très révolutionnaire. Il s'était demandé en effet : "Comment faire en sorte que tous les hommes accèdent à tout le savoir disponible ?" Comment offrir à tous un panorama complet de ce que les hommes savent ? " C'est de l'ignorance, et de l'ignorance seule que l'homme doit se libérer. " |
Nous voulons que tous les êtres humains, ensemble ou pris isolément, jeunes ou vieux, riches ou pauvres, nobles ou roturiers, hommes ou femmes, puissent pleinement s'instruire et devenir des êtres achevés.
Nous voulons qu'ils soient instruits parfaitement et formés non seulement sur tel ou tel point, mais également sur tout ce qui permet à l'homme de réaliser intégralement son essence.
C'est de l'ignorance, et de l'ignorance seule que l'homme doit se libérer. | Nous voulons que tous les êtres humains, ensemble ou pris isolément, jeunes ou vieux, riches ou pauvres, nobles ou roturiers, hommes ou femmes, puissent pleinement s'instruire et devenir des êtres achevés. Nous voulons qu'ils soient instruits parfaitement et formés non seulement sur tel ou tel point, mais également sur tout ce qui permet à l'homme de réaliser intégralement son essence. D'apprendre à connaître la vérité, à ne pas être trompé par des faux semblants. A aimer le bien, à ne pas être séduit par le mal, à faire ce qu'on doit faire et à se garder de ce qu'il faut éviter. A parler sagement de tout, avec tout le monde. Enfin, à toujours traiter les choses, les hommes et Dieu avec prudence et non à la légère. Et à ne jamais s'écarter de son but, le bonheur. Le Galilée de l'éducation comme on le surnommait s'est posé une question à la fois très simple et très révolutionnaire. Il s'était demandé en effet : 'Comment faire en sorte que tous les hommes accèdent à tout le savoir disponible ?'Comment offrir à tous un panorama complet de ce que les hommes savent ? C'est de l'ignorance, et de l'ignorance seule que l'homme doit se libérer. Ce qui fait écho à la Bible (mon peuple périt par manque de connaissance...) |
TP N°1 D’EDUCATION A LA PAIX Le Mahatma GANDHI KRAME KADURHA David (Matricule : 14167) Tech 1 - Génie Informatique Le 21 Août 2022 0.1 Introduction Le Mahatma Gandhi ! Qui ne connaît pas ce grand homme ? Sa pensée est connue et citée partout au monde. Plus d’un sont les hommes, et pas des moindres, qui se réclament de sa pensée.Le Mahatma Gandhi ! Qui ne connaît pas ce grand homme ? Sa pensée est connue et citée partout au monde. Plus d’un sont les hommes, et pas des moindres, qui se réclament de sa pensée.Le Mahatma Gandhi ! Qui ne connaît pas ce grand homme ? Sa pensée est connue et citée partout au monde. Plus d’un sont les hommes, et pas des moindres, qui se réclament de sa pensée.Le Mahatma Gandhi ! Qui ne connaît pas ce grand homme ? Sa pensée est connue et citée partout au monde. Plus d’un sont les hommes, et pas des moindres, qui se réclament de sa pensée. TP N°1 D’EDUCATION A LA PAIX Le Mahatma GANDHI KRAME KADURHA David (Matricule : 14167) Tech 1 - Génie Informatique Le 21 Août 2022 0.1 Introduction Le Mahatma Gandhi ! Qui ne connaît pas ce grand homme ? Sa pensée est connue et citée partout au monde. Plus d’un sont les hommes, et pas des moindres, qui se réclament de sa pensée.Le Mahatma Gandhi ! Qui ne connaît pas ce grand homme ? Sa pensée est connue et citée partout au monde. Plus d’un sont les hommes, et pas des moindres, qui se réclament de sa pensée.Le Mahatma Gandhi ! Qui ne connaît pas ce grand homme ? Sa pensée est connue et citée partout au monde. Plus d’un sont les hommes, et pas des moindres, qui se réclament de sa pensée.Le Mahatma Gandhi ! Qui ne connaît pas ce grand homme ? Sa pensée est connue et citée partout au monde. Plus d’un sont les hommes, et pas des moindres, qui se réclament de sa pensée.11 | TP N°1 D’EDUCATION A LA PAIX Le Mahatma GANDHI KRAME KADURHA David (Matricule : 14167) Tech 1 - Génie Informatique Le 21 Août 2022 0.1 Introduction Le Mahatma Gandhi ! Qui ne connaît pas ce grand homme ? Sa pensée est connue et citée partout au monde. Plus d’un sont les hommes, et pas des moindres, qui se réclament de sa pensée.Le Mahatma Gandhi ! Qui ne connaît pas ce grand homme ? Sa pensée est connue et citée partout au monde. Plus d’un sont les hommes, et pas des moindres, qui se réclament de sa pensée.Le Mahatma Gandhi ! Qui ne connaît pas ce grand homme ? Sa pensée est connue et citée partout au monde. Plus d’un sont les hommes, et pas des moindres, qui se réclament de sa pensée.Le Mahatma Gandhi ! Qui ne connaît pas ce grand homme ? Sa pensée est connue et citée partout au monde. Plus d’un sont les hommes, et pas des moindres, qui se réclament de sa pensée. TP N°1 D’EDUCATION A LA PAIX Le Mahatma GANDHI KRAME KADURHA David (Matricule : 14167) Tech 1 - Génie Informatique Le 21 Août 2022 0.1 Introduction Le Mahatma Gandhi ! Qui ne connaît pas ce grand homme ? Sa pensée est connue et citée partout au monde. Plus d’un sont les hommes, et pas des moindres, qui se réclament de sa pensée.Le Mahatma Gandhi ! Qui ne connaît pas ce grand homme ? Sa pensée est connue et citée partout au monde. Plus d’un sont les hommes, et pas des moindres, qui se réclament de sa pensée.Le Mahatma Gandhi ! Qui ne connaît pas ce grand homme ? Sa pensée est connue et citée partout au monde. Plus d’un sont les hommes, et pas des moindres, qui se réclament de sa pensée.Le Mahatma Gandhi ! Qui ne connaît pas ce grand homme ? Sa pensée est connue et citée partout au monde. Plus d’un sont les hommes, et pas des moindres, qui se réclament de sa pensée.11 |
C’est ainsi que, des avancées récentes en traitement automatique du langage naturel ont prouvé que le traitement du texte par l’ordinateur peut être raffiné autant qu’on veut, dans les limites du possible.
Il est souvent inintéressant de passer du temps à lire des textes très longs, surtout quand on veut juste avoir une compréhension suffisante en peu de temps de ce qui est écrit, ou quand le sujet traité ne fait pas partie de notre domaine de prédilection.
L’inclusion des traitements basés sur l’intelligence artificielle dans les modules de synthèse est-elle obligatoire pour atteindre des bonnes performances ?
Étant donné que, par définition, le langage naturel est difficile à formaliser complètement, on ne pourrait pas se passer de l’intelligence artificielle pour parvenir à réaliser un système performant;
Cette recherche a pour objectif principal de concevoir et réaliser un système (une application web) qui facilitera la génération automatique des synthèses de niveau humain.
Dans ce chapitre, nous allons présenter brièvement le traitement automatique du langage naturel, ainsi que les techniques de traitement qui seront utiles pour la réalisation de l’objectif principal de ce travail.
Nous allons donc y présenter une vue d’ensemble des architectures généralement utilisées, en nous focalisant essentiellement sur l’aspect intelligence artificielle du NLP (Natural Language Processing).
C’est ainsi que des tâches comme la traduction automatique, la génération automatique des textes ou aussi la synthèse automatique qui va nous intéresser dans ce travail, produisent directement du texte en sortie.
On peut donc comprendre directement que le mot "naturel" est ici utilisé pour faire une distinction avec les langages formels.
C’est donc dans ce sens que toutes les langues parlées peuvent être vues comme des langages naturels.
Ainsi, les développements, récents d’ailleurs, des réseaux de neurone et du deep learning ont donné des nouveaux outils, pour approcher dans une large mesure les performances humaines en terme de traitement de langage.
A notre avis, ces techniques sont les plus adaptées car, tout d’abord elles se rapprochent beaucoup plus des méthodes de traitement d’information par le cerveau humain, et ensuite, il serait autrement très couteux, voir impossible, d’élaborer des modèles capables d’embrasser toute la complexité du langage humain.
Les stopwords sont, pour une langue donnée, des mots qui permettent de réaliser des phrases correctes mais qui n’apportent pas directement d’information significative sur l’ensemble (du point de vu traitement).
Elle réalise en fait ce qui n’est pas réalisé par le stemming en ce sens que lemmatiser un token consiste à la transformer en sa racine, et cette dernière doit être présente dans le dictionnaire.
Elle est fortement facilitée par des approches basées sur le deep learning comme c’est le cas aussi pour la reconnaissance d’entités nommées.
Nous allons passer sous silence certains autres concepts du NLP comme le sacs de mots et le word embeddings dont nous parlerons dans la partie qui va suivre et qui présentera le résumé automatique, en tant que tâche du NLP.
D’ailleurs, concernant ces dernières techniques, les modèles de l’état de l’art les plus adaptés sont les transformers et leur présentation exige une revue chronologique car en effet, pour y arriver, des modèles classiques basés sur des réseaux de neurones récurrents (RNN) ont été utilisés car plus adaptés aux données séquentielles que sont les textes.
Les réseaux de neurones artificiels (Artificial Neural Network ou ANN) sont un ensemble de neurones (artificiels) assemblés pour résoudre des tâches considérées comme requérant une certaine intelligence.
Il s’agit essentiellement d’une fonction d’agrégation ayant pour rôle de réaliser une somme pondérée des entrées qui lui sont présentées et d’une fonction d’activation qui formate la sortie de la fonction d’agrégation selon les valeurs attendues en sortie [12].
On n’entrera pas dans le détail, vu que ce n’est pas exactement le sujet du travail mais, pour entamer la partie qui suit, il nous faut préciser que, comme pour les réseaux de neurones simples, l’entraînement exige d’appliquer une fonction de différentiation sur l’erreur produite par le système.
Mais on doit aussi remarquer que, l’état est défini par deux paramètres au lieu d’un seul comme pour les RNN simples.
On sait aussi que, si on veut une mémoire à long terme contrôlée, la valeur finale de ct doit être mise à jour en repérant ce qui doit être oublié parmi les éléments qui étaient précédemment dans la mémoire, pour y ajouter ensuite ce qui est sélectionné comme pertinent à l’entrée.
Et de cela on peut conclure que c’est plus intéressant d’avoir Ft et It qui prennent des valeurs entre 0 et 1 (pour modéliser la sélection) et ct devra dépendre de ces deux éléments, avec aussi l’état précédent de la mémoire à long terme.
Les mécanismes d’attention sont en bref des techniques permettant de lutter contre la perte de mémoire qu’on constate par exemple dans les cellules récurrentes ci-haut décrites, en se focalisant sur des éléments les plus importants à chaque traitement.
Ainsi, si par exemple on est entrain de vouloir traduire une longue phrase, on peut finir par transmettre un vecteur de contexte qui a perdu toute information sur les premiers éléments de la séquence passée en entrée.
C’est pour cela qu’au lieu de passer un vecteur de contexte général, les mécanismes d’attention permettraient ici de ne se focaliser que sur certaines informations lors du traitement d’un élément particulier de la séquence (en ayant évidemment passé tous les états internes passés au décodeur).
Considérons que Ω, dont les termes sont représentés par wij, est la matrice des poids d’attention normalisés par une fonction softmax pour chaque ligne.
Et que Π, dont les termes sont représentés par αij, est la matrice des poids d’attention générée par le mécanismes avant normalisation.Si les éléments ci représentent à chaque fois le vecteur contexte final à l’étape i de décodage et les hj sont les vecteurs d’état interne de l’encodeur, l’attention globale revient à réaliser la manipulation suivante, pour formater le vecteur de contexte à prendre en compte pour l’élément en cours de traitement [30] :
Les transformers sont des modèles du type encodeur-décodeur comme on peut le constater sur la figure ci-dessus (bien que certaines implémentations n’en utilisent qu’une partie selon la tâche).
Un choix intuitif, et qui s’avère être performant, est de tout faire pour que si deux termes ont des sens proches, ils aient aussi des représentations vectorielles proches.
Cela est réalisé par différentes techniques que nous présenterons dans le chapitre suivant, mais c’est là le rôle de la couche d’enchâssement (embedding).
L’opération est réalisée pour permettre au modèle d’avoir une représentation de l’importance des termes dans la séquence d’entrée, les uns par rapport aux autres.
Il est important que ce lien soit implicitement présent dans les représentations, pour que le traitement soit efficace comme on l’a mentionné lors de la présentation des mécanismes d’attention.
En effet, très brièvement, l’idée du scaled dot-product attention consiste à opérer une recherche des termes sur lesquels focaliser l’attention de la même façon qu’on réalise la recherche de la signification d’un mot dans un dictionnaire.
Si on supposait qu’il existe plusieurs termes du dictionnaire qui s’orthographient presque de la même façon que le mot qu’on cherche, on devra passer par une mesure de similarité avant de se décider sur le sens le plus probable.
7°) Module linéaire final : Il s’agit d’un réseau de neurones classique pour réaliser la déduction finale, le tout étant passé à la fin à travers une opération softmax qui permet de transformer les résultats en probabilité d’éléments générés (cela permet de choisir le terme le plus vraisemblable à générer comme sortie).
Les transformers constituent un type de modèle qui s’avère être le plus adapté (pour le moment) au résumé automatique du texte et, dans le chapitre suivant, nous commencerons par présenter les diverses spécificités du résumé automatique comme tâche du NLP, pour finir par présenter l’architecture globale du système que nous comptons élaborer.
Nous allons ici présenter les théories sur la synthèse automatique des textes, en classifiant les diverses méthodes utilisées pour pouvoir situer notre système dans l’ensemble des travaux jusque-là menés sur ce sujet.
Ensuite, nous présenterons les diverses approches utilisées pour le résumé automatique, sans oublier d’approfondir notre présentation des modèles de type transformer adaptés à cette tâche, pour finalement mentionner le modèle que nous estimons le plus adapté concernant l’approche basée sur le deep-learning pour la synthèse automatique.
Une définition assez valable est celle de TORRES-MORENO Juan-Manuel qui dit qu’un résumé automatique est un texte généré par un logiciel, cohérent et contenant une partie importante des informations pertinentes de la source, et dont le taux de compression est inférieur au tiers de la taille du(des) document(s) source(s) [48].
L’intuition derrière cette approche est basée sur le constat que dans un texte, les éléments ne sont pas présentés de façon arbitraire.
Comme nous venons de l’introduire dans la section précédente, le résumé automatique est abordé essentiellement selon deux approches qui sont [31] :
L’approche qui se base naïvement sur la fréquence d’apparition des mots dans les textes pour juger de leur importance relative, accorde à chaque mot un poids égal à T F(i,j).
Après tout, on définit un seuil qui permet de soutirer les phrases selon leur pertinence ainsi évaluée (en considérant évidemment plus pertinente une phrase dont le résultat de la sommation des poids est élevé).
Même si, ces traitements peuvent être mélangés avec les techniques de résolution d’anaphores et les paraphrases pour obtenir des synthèses qui tendent vers la synthèse abstractive, nous devons souligner que les techniques jusque là les plus performantes pour la synthèse abstractive sont essentiellement basées sur le deep learning [36].
Une autre approche, plus classique, consiste à représenter chaque mot par un vecteur de dimension égale à la taille du dictionnaire et dont tous les termes sont nuls, sauf à la position, dans le dictionnaire, du mot qu’on est entrain de vouloir représenter (on parle du one-hot encoding).
Ainsi, tout mot est représenté en réalisant une statistique (implicitement bien sûr) sur les divers mots qui l’accompagnent souvent, de telle sorte que les mots aux sens proches aient aussi des vecteurs très proches.
Comme nous l’avons déjà bien mentionné au précédent chapitre, nous n’allons parler que des modèles Seq2Seq de type transformer car actuellement, ils sont les plus adaptés à la tâche que nous voulons réaliser (celle de synthèse automatique).
Les transformers (voir la figure I.7) sont un modèle très avantageux car en fait, au-delà de leurs performances et autres avantages, ils facilitent encore plus la recherche en NLP en rendant effectif le transfer learning (apprentissage par transfert) dans ce domaine.
Ces modèles sont très bons pour les tâches de compréhension du langage comme la classification par exemple.
Dans ce second chapitre, nous ne présenterons que les spécifications du système ainsi qu’une ébauche de conception avec une présentation de l’architecture globale.
Comme nous pouvons le voir, un traitement sera fait pour adapter les données reçues à ce qui peut être traité par le système.
Le chapitre suivant nous permettra donc finalement de préciser, réaliser et tester les méthodes que nous avons jusque-là adoptées pour la mise au point de notre système de synthèse automatique des documents.
Barry Schiffman, Ani Nenkova, and Kathleen McKeown. | UNIVERSITELIBREDESPAYSDESGRANDSLACS
FACULTE DES SCIENCES ET DES TECHNOLOGIES
APPLIQUEES
DEPARTEMENT DE GENIE ELECTRIQUE ET INFORMATIQUE
B.P 368 GOMA
www.ulpgl.net
CONCEPTION ET REALISATION D’UN
SYSTEME BASE SUR L’INTELLIGENCE
ARTIFICIELLE POUR RESUMER
AUTOMATIQUEMENT LES TEXTES
Par : KRAME KADURHA David
Travail présenté en vue de l’obtention du Diplôme d’ingénieur civil en génie électrique et informatique
Option : Génie informatique
Directeur : Prof BARAKA MUSHAGE Olivier
Encadreur : Ir MUHINDO WAMUHINDO Abdenego
ANNEE ACADEMIQUE 2021−2022
Dédicaces
Remerciements
Résumé
Sigles et abréviations
Table des matières
Dédicaces i
Remerciements ii
Résumé iii
Sigles et abréviations iv
Introduction générale 1
0.1 Contexte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
0.2 Identification et formulation du problème . . . . . . . . . . . . . . . . . . . 1
0.3 Questions de recherche . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
0.4 Hypothèses de travail . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
0.5 Justification du choix du sujet et motivations . . . . . . . . . . . . . . . . . 3
0.6 Objectifs de la recherche . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
0.6.1 Objectif général . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
0.6.2 Objectifs spécifiques . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
0.7 Méthodologie de recherche et délimitation du travail . . . . . . . . . . . . . 5
0.8 Subdivision du travail . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
Généralités sur le NLP 6
Introduction partielle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
Présentation et définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
Nécessité de l’approche par deep learning . . . . . . . . . . . . . . . . . . . 8
Quelques techniques courantes de traitement des textes . . . . . . . . . . . 9
La tokenisation (tokenization) . . . . . . . . . . . . . . . . . . . . . . 9
Les stopwords[44] . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
La racinisation (stemming) . . . . . . . . . . . . . . . . . . . . . . . . 10
La lemmatisation (lemmatization) . . . . . . . . . . . . . . . . . . . . 10
SYNTHESE AUTOMATIQUE DES TEXTES
Reconnaissance d’entités nommées (NER)[44] . . . . . . . . . . . . . 11
L’étiquetage morpho-syntaxique (POS tagging) . . . . . . . . . . . . 11
Approches du NLP . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
Les réseaux de neurones artificiels (ANN) . . . . . . . . . . . . . . . 12
Les réseaux de neurones récurrents (RNN) . . . . . . . . . . . . . . . 13
Mécanismes d’attention . . . . . . . . . . . . . . . . . . . . . . . . . 20
Les transformers . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
Conclusion partielle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
Résumé automatique et conception 29
Introduction partielle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
Présentation et définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
Catégorisation des résumés . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
Selon la fonction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
Selon le nombre de documents source . . . . . . . . . . . . . . . . . 32
Selon le genre des documents . . . . . . . . . . . . . . . . . . . . . . 32
Selon le type de sortie (résumé obtenu) . . . . . . . . . . . . . . . . . 33
Selon le type de résumeur . . . . . . . . . . . . . . . . . . . . . . . . 34
Selon le contexte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
Selon le destinataire du résumé . . . . . . . . . . . . . . . . . . . . . 35
Approches de résumé automatique . . . . . . . . . . . . . . . . . . . . . . . 35
Techniques intuitives de résumé [36] . . . . . . . . . . . . . . . . . . 35
Algorithmes classiques de résumé automatique . . . . . . . . . . . . 38
Modèles Seq2Seq . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
Methodes du Word-Embedding . . . . . . . . . . . . . . . . . . . . . 45
Modèles séquence-à-séquence proprement dits . . . . . . . . . . . . 46
Modèle BART pour la synthèse abstractive . . . . . . . . . . . . . . . 50
Conception de l’architecture globale du système . . . . . . . . . . . . . . . . 51
Spécifications du système . . . . . . . . . . . . . . . . . . . . . . . . 52
Présentation des éléments du système . . . . . . . . . . . . . . . . . 52
vi sur 68
TABLE DES MATIÈRES
Architecture du module de synthèse extractive . . . . . . . . . . . . 54
Architecture du module de synthèse abstractive . . . . . . . . . . . 56
Présentation des interfaces . . . . . . . . . . . . . . . . . . . . . . . . 58
Conclusion partielle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
Conception finale, réalisation et tests 60
Conclusion générale 61
Annexes 68
vii sur 68
Liste des figures
I.1 Réseau de neurones à une couche cachée et sans boucle [47] 13
I.2 Illustration de ce qu’est un RNN [22] 14
I.3 Comparaison entre cellules RNN classique et LSTM [18] 15
I.4 Vue fonctionnelle d’une cellule LSTM [18] 16
I.5 Cellule GRU [18] 19
I.6 Réseaux série-vers-série (en haut à gauche), série-vers-vecteur (en haut à
droite), vecteur-vers-série (en bas à gauche) et encodeur-décodeur (en bas àdroite) [16] 21
I.7 Architecture générique des transformers [50] 23
I.8 Vue éclatée d’un transformer [51] 27
II.1 Diagramme des fréquences des mots et le choix de Luhn [29] 40
II.2 Comparaison simplifiée entre BERT, GPT et BART [25] 50
II.3 Transformations de bruitage expérimentées pour BART [25] 50
II.4 Architecture globale de notre système 52
II.5 Architecture globale du système de synthèse abstractive 57
II.6 Architecture interne du modèle mentionné sur la figure II.5 57
II.7 Ébauche d’interface 58
viii
Introduction générale
0.1 Contexte
A l’ère du numérique, comme depuis l’invention de l’écriture, le texte est l’un des principaux moyens de communication et surtout, de transmission des connaissances.
Des livres aux SMS, en passant par diverses pages web, les données textuelles sont partout. En 2018, il s’agissait d’environs 80% de l’information qui circulait sur le web [23]. L’évolution de l’informatique continue à démontrer la possibilité de simplifier toujours grandement la vie de l’homme en automatisant de plus en plus l’accomplissement des tâches rébarbatives.
Certaines tâches comme celles liées explicitement à l’arithmétique semblent mieux se prêter à cette vague d’automatisation, les données numériques étant par essence celles prises en compte par les plateformes numériques.
Néanmoins, des transformations adéquates permettent de prendre en compte tout type de donnée, et le texte n’est pas exclu. C’est ainsi que, des avancées récentes en traitement automatique du langage naturel ont prouvé que le traitement du texte par l’ordinateur peut être raffiné autant qu’on veut, dans les limites du possible.
Cela est en fait une bonne nouvelle car, il s’avère que des nombreux sujets restent fermés à la majorité des gens suite au manque de temps, au regard de la quantité d’informations à consulter pour espérer avoir ne fusse qu’une lueur d’idée du domaine ou du sujet qu’on veut rapidement explorer.
C’est en ce sens que la mise au point des technologies pouvant faciliter l’exploration des connaissances présentées sous forme textuelle est salvatrice.
0.2 Identification et formulation du problème
Comme présenté dans la section précédente, la voie la plus privilégiée pour transmettre les connaissances est l’écriture. Mais, admettons que souvent, dans un long texte, la
1
SYNTHESE AUTOMATIQUE DES TEXTES
quantité d’information pertinente est moindre par rapport à la longueur du texte entier.
Comment faire donc pour identifier cette partie utile et gagner ainsi en temps ?
Il est souvent inintéressant de passer du temps à lire des textes très longs, surtout quand on veut juste avoir une compréhension suffisante en peu de temps de ce qui est écrit, ou quand le sujet traité ne fait pas partie de notre domaine de prédilection. Il est donc intéressant de mettre au point un système qui pourra assister l’homme dans la tâche de synthèse des connaissances afin de promouvoir par là-même un échange entre disciplines, ce qui est souvent très enrichissant.
0.3 Questions de recherche
Vu le problème que nous venons de présenter, une question se pose :
Est-il possible de mettre au point un système informatique capable de synthétiser les textes avec une performance de niveau humain ?
La précédente question nous amène aussi à nous demander ceci :
Un traitement purement linguistique ne pourrait-il pas nous permettre de générer des synthèses suffisamment bons pour atteindre notre objectif ?
L’inclusion des traitements basés sur l’intelligence artificielle dans les modules de synthèse est-elle obligatoire pour atteindre des bonnes performances ?
Quelle est l’architecture globale la plus adaptée pour réaliser un système de synthèse automatique performant ?
0.4 Hypothèses de travail
A la suite des questions que nous venons de soulever, nous postulons que :
Vu la complexité du langage naturel, un traitement purement linguistique ne nous permettrait pas de mettre au point un système de niveau humain en synthèse des textes;
0.5. JUSTIFICATION DU CHOIX DU SUJET ET MOTIVATIONS
Étant donné que, par définition, le langage naturel est difficile à formaliser complètement, on ne pourrait pas se passer de l’intelligence artificielle pour parvenir à réaliser un système performant;
Une architecture basé essentiellement sur des modèles du type transformer, joint à l’utilisation de quelques règles inspirées de la linguistique permettrait d’avoir un système de synthèse performant.
0.5 Justification du choix du sujet et motivations
Pour synthétiser un texte, il faut l’avoir aumoins lu! Et pourtant, pour lire un texte, il faut du temps, une denrée souvent rare.
Certains textes sont souvent fournis, accompagnés des synthèses qui sont parfois très bonnes, parfois incomplètes et parfois même très polarisées ou tout simplement mauvaises. Toutefois, avoir une synthèse à la demande serait mieux que de ne trouver que des synthèses de certains textes, sans d’ailleurs en avoir le plus souvent besoin. Nombreux sont des textes (livres, articles, pages web et autres documents) dont on voudrait avoir des bonnes synthèses, qu’on ne trouve que très rarement si on ne s’est pas découragé avant. C’est la raison pour laquelle, nous nous sommes fixé comme objectif de répondre à ce besoin précis en mettant au point une application web de synthèse des textes. Beaucoup de chercheurs en linguistique et en traitement automatique du langage naturel principalement se sont penché sur ce sujet [23, 48, 1, 21, 2].
Des solutions ont été proposées mais ne sont pas toujours à la hauteur de nos attentes (mettre au point un système de performance presqu’humaine en synthèse automatique des textes). Les plus prometteuses de ces solutions se limitent à des tailles bien réduites de texte, ce qui est déjà un grand pas mais pas suffisant évidemment. C’est pour cette raison qu’il nous semble pertinent d’étudier cette question en profondeur et de mettre au point un système complet et utilisable en dehors du monde de la recherche.
Socialement, la mise au point de ce système sera d’une très grande importance. Cela dans plusieurs axes dont principalement :
Pour les chercheurs, car il pourra faciliter le survol rapide des connaissances provenant SYNTHESE AUTOMATIQUE DES TEXTES
des filières liées à leurs domaines, sans être obligés de consulter à l’avance un tas de documents issus de ces domaines connexes;
Pour tout le monde alors, le système pourra permettre un gain de temps considérable chaque fois qu’il donnera la possibilité d’avoir accès à une synthèse de bonne qualité à la demande, en très peu de temps.
0.6 Objectifs de la recherche
Objectif général
Cette recherche a pour objectif principal de concevoir et réaliser un système (une application web) qui facilitera la génération automatique des synthèses de niveau humain.
Objectifs spécifiques
Pour arriver à bout de notre projet nous comptons :
Évaluer les failles et limites des techniques de synthèse automatique existantes;
Corriger les failles ou compléter les techniques de synthèse automatique existantes; • Établir des architectures logiques optimales pour obtenir des synthèses de qualité;
Élaborer une interface de programmation d’applications devant faciliter l’accès au service de synthèse automatique;
Mettre au point une base de données pour stocker les synthèses les mieux cotées par les usagers, en prévision d’une amélioration future du système;
Réaliser une interface web de qualité pour permettre l’accès au service par divers utilisateurs.
0.7. MÉTHODOLOGIE DE RECHERCHE ET DÉLIMITATION DU TRAVAIL
Méthodologie de recherche et délimitation du travail
Pour la mise au point du système, nous comptons utiliser les méthodes d’analyse moyennant les techniques expérimentale (pour vérifier l’adéquation du fonctionnement de l’application mise sur pied avec le problème posé), et documentaire (pour une vision approfondie des techniques couramment utilisées et d’éventuelles améliorations nécessaires).
Ce travail se focalisera sur la synthèse des documents du type informationnel (livres historiques, discours, articles de presse, lettres, nouvelles, romans et tout autre type de document ayant une faible densité d’expressions mathématiques) et il s’agira d’une synthèse mono-document.
Subdivision du travail
Excepté l’introduction et la conclusion générales, ce travail sera ainsi constitué :
Au premier chapitre, Généralités sur le traitement automatique du langage naturel, nous passerons en revu toute la théorie nécessaire à la compréhension de notre travail.
Au second chapitre, Présentation du résumé automatique et conception de l’architecture du système, nous y présenterons les aspects du résumé automatique essentiels à notre travail et y concevrons pas à pas le système de synthèse automatique des textes dans tous ses aspects (pas uniquement le côté synthèse).
Au troisième chapitre : Conception finale, réalisation et tests, nous y finaliserons la conception et expliquerons les points importants de l’implémentation en nous basant sur la conception faite, puis nous présenterons les résultats des tests que nous aurons effectué.
Chapitre I
Généralitéssurletraitementautomatique du langage naturel
Introduction partielle
Dans ce chapitre, nous allons présenter brièvement le traitement automatique du langage naturel, ainsi que les techniques de traitement qui seront utiles pour la réalisation de l’objectif principal de ce travail. Nous allons donc y présenter une vue d’ensemble des architectures généralement utilisées, en nous focalisant essentiellement sur l’aspect intelligence artificielle du NLP (Natural Language Processing).
Dans un premier temps, nous y présentons quelques techniques, souvent incontournables lorsqu’on veut réaliser une tâche de traitement du langage. Après cela, nous parcourons divers modèles qui nous permettrons d’aborder le modèle le plus adapté à la tâche de synthèse automatique des textes, qui est l’objectif de ce travail.
Présentation et définitions
Le NLP est une discipline rattachée à l’intelligence artificielle et ayant pour principal objectif, l’étude des possibilités du traitement du langage humain par des machines. La raison pour laquelle la discipline s’inscrit comme faisant partie du domaine d’intelligence artificielle est que le langage est considéré comme étant une aptitude centrale de l’intelligence humaine, étant donné que l’usage d’un langage si complexe est l’un des éléments distinctifs principaux entre humains et autres animaux.
Le NLP inclut l’ensemble d’algorithmes, des tâches et des problèmes prenant en entrée
6
I.2. PRÉSENTATION ET DÉFINITIONS
des textes produits par des humains, pour finalement ressortir des informations pertinentes à propos de ces derniers ou alors du texte modifié de façon approprié selon l’objectif poursuivi. C’est ainsi que des tâches comme la traduction automatique, la génération automatique des textes ou aussi la synthèse automatique qui va nous intéresser dans ce travail, produisent directement du texte en sortie.
Mais, dans tous les cas, la sortie est soit immédiatement utilisable, soit alors elle est prise comme entrée d’un autre système dans la chaîne de traitement du texte.
On peut toutefois se demander la raison pour laquelle on parle de traitement automatique du "langage naturel" (quitte à se demander ce qui distinguerait un langage naturel des autres langages).
Pour établir clairement cette différence, il est nécessaire de donner une définition de ce qu’est un langage formel. Pour caricaturer, un langage formel est celui pour lequel il existe un mécanisme fini, et explicite, permettant d’en faire une analyse, quand bien même il serait constitué d’un nombre infini de mots. Donc, c’est un ensemble de mots analysable par un automate (au sens mathématique du terme) [9].
On peut donc comprendre directement que le mot "naturel" est ici utilisé pour faire une distinction avec les langages formels. C’est donc dans ce sens que toutes les langues parlées peuvent être vues comme des langages naturels. Les langages formels ont une syntaxe précise et sont spécifiquement conçus pour des objectifs bien cernés (penser à tous les langages de programmation par exemple). Ils sont donc très précis tant au point de vu grammatical que sémantique.
Concernant les langues humaines usuellement utilisées, on ne peut pas dire, sans être démenti, qu’elles sont dénuées d’imprécisions. Elles regorgent en générale une grande richesse, ce qui a pour conséquence d’introduire très souvent une grande ambiguïté. Pour s’en convaincre, il suffirait par exemple de considérer la phrase suivante :
Je le vois avec mes jumelles.
Très vite on remarque que cette phrase peut s’interpréter selon le contexte. On ne sait pas, en effet, si le sujet affirme voir quelqu’un avec ses jumelles d’observation, se promenant avec ses enfants jumelles, ou si le sujet voit quelque chose en utilisant ses jumelles en tant qu’instrument.
Ceci n’est qu’un exemple particulier pour illustrer cette dichotomie inhérente à l’emploi de la langue quelle qu’elle soit, mais cela suffit pour qu’on s’aperçoive que le problème est bel et bien réel.
Ce n’est d’ailleurs pas juste au niveau des interprétations qu’on peut identifier ce problème. Il s’observe même quand on considère les règles de grammaire. Certaines règles sont ainsi admises par certains linguistes mais rejetées ou trouvées superflues par d’autres [20].
C’est tout ce qui précède qui rend le langage humain à la fois riche et challengeant quand il s’agit de doter les machines de cette aptitude. D’où la raison d’être d’une discipline à part entière dédiée à la mise au point des règles de traitement du langage naturel, le NLP
[17].
I.3 Nécessité de l’approche par deep learning
Avant l’avènement du deep learning, des techniques traditionnelles du NLP étaient utilisées pour des tâches comme la détection des spams, l’analyse des sentiments et le POS (Part Of Speech tagging). Ces approches utilisaient essentiellement des caractéristiques statistiques des séquences comme, la fréquence des mots et les co-occurences par exemple. Néanmoins, le principal désavantage de ces techniques était qu’elles ne parvenaient pas à capturer une grande partie de la complexité linguistique du langage humain, comme par exemple le contexte.
Ainsi, les développements, récents d’ailleurs, des réseaux de neurone et du deep learning ont donné des nouveaux outils, pour approcher dans une large mesure les performances humaines en terme de traitement de langage. A notre avis, ces techniques sont les plus adaptées car, tout d’abord elles se rapprochent beaucoup plus des méthodes de traitement d’information par le cerveau humain, et ensuite, il serait autrement très couteux, voir impossible, d’élaborer des modèles capables d’embrasser toute la complexité du langage humain.
Le deep learning pour le NLP est axé grosso-modo sur la représentation d’entités textu-
I.4. QUELQUES TECHNIQUES COURANTES DE TRAITEMENT DES TEXTES
elles et le traitement élaboré sur ces représentations, de manière à en tirer des informations pertinentes ou à réaliser des transformations appropriées. Cette représentation constitue d’ailleurs un problème fondamental car c’est d’elle que dépend toute la chaîne de traitement des systèmes de NLP [46].
I.4 Quelquestechniquescourantesdetraitementdestextes
Dans cette partie, nous allons présenter diverses techniques intervenant dans le traitement des données de langage naturel. Ces traitements seront présentés de manière à dégager un pattern presque récurrent en terme de structure de traitement pour divers systèmes de NLP. Pour cela, nous allons d’abord présenter certaines manipulations réalisées sur les données en guise de pré-traitement. Puis, nous évoquerons deux techniques utiles aux tâches relevant du NLU (Natural Language Understanding).
I.4.1 La tokenisation (tokenization)
Manipuler des longues chaînes de caractères ne serait pas envisageable. Mais en informatique on est habitué à traiter des structures en terme de listes, de tableaux, de vecteurs,... Le tout étant représenté numériquement. C’est pour cela que l’opération consistant à réduire un corpus de texte en ses tokens est centrale.
Dans notre contexte, la tokenisation est une opération qui consiste à décomposer un texte
(une suite de phrases) en ses phrases constitutives ou une phrase en ses mots constitutifs. Cela est une première étape pour diminuer la difficulté inhérente au traitement des textes. En considérant la décomposition en mots, pour diminuer au maximum les difficultés de traitement et l’ambiguïté, on ajoute à la tokenisation d’autres traitements qui sont en général : la désaccentuation, le passage aux minuscules, la suppression des stopwords, la racinisation et la lemmatisation appliqués aux tokens obtenus [22].
I.4.2 Les stopwords[44]
Les stopwords sont, pour une langue donnée, des mots qui permettent de réaliser des phrases correctes mais qui n’apportent pas directement d’information significative sur l’ensemble (du point de vu traitement). Il s’agit par exemple en français de mots comme de, la, le,... ce qui correspond en gros aux prépositions, aux articles, aux conjonctions,... Il faut néanmoins préciser qu’on peut très bien décider de ne pas supprimer certains stopwords.
I.4.3 La racinisation (stemming)
La racinisation ou stemming en anglais consiste à découper le token de manière à n’en conserver qu’une partie qui semble rendre mieux compte de ce dont dérive ledit token. Seulement, ceci est fait sans se fier à ce que le résultat obtenu en tant que racine fasse partie du dictionnaire de la langue considérée [44, 22].
Cela permet juste de maximiser la probabilité de confondre des mots semblables qui sont présentés différemment dans diverses phrases. C’est à des fins de comparaison de phrases et de réduction d’ambiguïté. Pour illustration, on voudrait par exemple que si on retrouve les éléments "manger", "mange", "mangeable", "mangeons" dans un corpus, qu’ils soient transformés en un seul terme "mange". Cela se fait en découpant tous les mots qui ajoutent
d’autres affixes au terme. C’est cela en bref le stemming et, contrairement à ce que le nom suggère, il ne s’agit pas exactement de trouver la racine des mots (les mots dont ils dérivent). L’opération consiste essentiellement à réaliser un découpage des mots de manière à en supprimer les affixes.
I.4.4 La lemmatisation (lemmatization)
La lemmatisation quant à elle est une opération plus soignée mais plus coûteuse en terme d’implémentation [44, 22]. Elle réalise en fait ce qui n’est pas réalisé par le stemming en ce sens que lemmatiser un token consiste à la transformer en sa racine, et cette dernière doit être présente dans le dictionnaire. Par exemple, pour un mot au pluriel, il s’agira de le remplacer par son singulier, un verbe conjugué, par son infinitif,... Pour illustration, la
I.4. QUELQUES TECHNIQUES COURANTES DE TRAITEMENT DES TEXTES
lemmatisation consisterait à transformer par exemple "va", "allions", "irons" et "allé" par "aller" et "une" et "des" par "un". Cette tâche est grandement facilitée par des techniques de deep learning.
L’obtention des tokens peut également conduire à des tâches plus élaborées comme la détection des entités nommées et l’étiquetage morpho-syntaxique. Il s’agit des tâches très importantes que nous devons nécessairement mentionner.
I.4.5 Reconnaissance d’entités nommées (NER)[44]
La détection des entités nommées (Named Entity Recognition ou NER) consiste à repérer tout ce qui correspond à des noms de personnes, des noms d’organisations ou d’entreprises, des noms de lieux, des quantités, des distances, des valeurs, des dates ou tout autre élément qui constitue une nomination d’une entité existante précise dans un texte donné. Cette tâche est visiblement très importante dans la phase d’interprétation des données textuelles et il s’agit d’un simple problème de classification.
I.4.6 L’étiquetage morpho-syntaxique (POS tagging)
Le Part-Of-Speech tagging est une tâche consistant en gros, à associer aux éléments des textes, des informations grammaticales. En général, il s’agit d’associer aux termes des textes, leur nature grammaticale. Cela consisterait à dire que tel élément est un nom, tel autre un verbe,...[44, 22]
Cette tâche n’est pas une fin en soi. En effet, c’est une première étape dans l’analyse structurelle des textes, permettant de déduire diverses dépendances du point de vu linguistique. Elle est fortement facilitée par des approches basées sur le deep learning comme c’est le cas aussi pour la reconnaissance d’entités nommées.
Nous allons passer sous silence certains autres concepts du NLP comme le sacs de mots et le word embeddings dont nous parlerons dans la partie qui va suivre et qui présentera le résumé automatique, en tant que tâche du NLP.
I.5 Approches du NLP
Comme cela a été maintes fois mentionné, deux approches majeures sont d’usage pour traiter automatiquement les données de langage naturel. Il s’agit de l’approche numérique et de l’approche symbolique ou linguistique. Mais les deux approches sont dans la majorité des cas complétées par certaines heuristiques [31].
En ce qui nous concerne, l’approche sera essentiellement numérique avec un penchant prononcé pour les techniques du deep learning. D’ailleurs, concernant ces dernières techniques, les modèles de l’état de l’art les plus adaptés sont les transformers et leur présentation exige une revue chronologique car en effet, pour y arriver, des modèles classiques basés sur des réseaux de neurones récurrents (RNN) ont été utilisés car plus adaptés aux données séquentielles que sont les textes. Ensuite, le constat de leur mémoire limitée a fait à ce qu’on les modifie pour obtenir des unités à mémoire plus large dont les LSTM(Long Short-Term Memory) et les GRU(Gated Recurrent Unit). Furent ensuite introduits les mécanismes d’attention qui améliorèrent les techniques, aboutissant finalement aux modèles dits transformers, plus adaptés à des tâches de NLP élaborées.
I.5.1 Les réseaux de neurones artificiels (ANN)
Les réseaux de neurones artificiels (Artificial Neural Network ou ANN) sont un ensemble de neurones (artificiels) assemblés pour résoudre des tâches considérées comme requérant une certaine intelligence. Le neurone artificiel est un algorithme élaboré en s’inspirant du modèle théorique simplifié d’un neurone naturel. Il s’agit essentiellement d’une fonction d’agrégation ayant pour rôle de réaliser une somme pondérée des entrées qui lui sont présentées et d’une fonction d’activation qui formate la sortie de la fonction d’agrégation selon les valeurs attendues en sortie [12].
Les neurones sont généralement assemblés par couche comme présenté sur la figure qui suit :
Figure I.1: Réseau de neurones à une couche cachée et sans boucle [47]
Ce qui vient d’être présenté est suffisant pour avoir une idée globale de ce qu’est réellement un réseau de neurones artificiel. Néanmoins, nous pousserons plus loin pour toucher le plus vite possible aux modèles qui nous intéressent dans ce travail.
I.5.2 Les réseaux de neurones récurrents (RNN)
Un RNN(Recurrent Neural Network) est un type de réseaux de neurones conçu en principe pour traiter les données séquentielles, comme les données textuelles,...
La principale différence structurelle entre les ANN simples et les RNN est l’existence des connexions de récurrence dans ces derniers. Il s’agit des boucles permettant la prise en compte des sorties passées dans le traitement final des données [16].
Pour l’illustrer, rien de mieux qu’une image représentant la structure fonctionnelle des réseaux de neurones récurrents :
Figure I.2: Illustration de ce qu’est un RNN [22]
Où xi, hi et A représentent respectivement les entrées (à chaque pas temporel i), les états internes qui en résultent et le module récurent utilisé.
Pour une meilleure compréhension, une présentation formelle serait plus commode : Soient Wx la matrice des poids associée au vecteur d’entrée x, Wy une matrice associée au vecteur de sortie y et Wh celle associée au vecteur représentant les états cachés du réseau, avec bh et by respectivement les vecteurs des biais des neurones pour l’état caché et pour la sortie. Si on nomme aussi par yt la sortie du réseau à un instant donné t, on aura [15] :
ht
yt
= fact (Wxxt +Whht−1 +bh)
= gact Wyht +by
(I.1)
On voit très bien que la sortie du système dépend non seulement de l’entrée, mais aussi de l’état du système (h).
Les fonctions d’activation fact et gact qui sont mentionnées dans les équations I.1 représentent respectivement la tangente hyperbolique tanh et la fonction dite sof tmax [15].
L’entraînement des réseaux de neurones récurrents se fait de la même façon que pour les réseaux de neurones simples (avec uniquement une différence due au fait que pour le RNN on prend en compte le temps). On n’entrera pas dans le détail, vu que ce n’est pas exactement le sujet du travail mais, pour entamer la partie qui suit, il nous faut préciser que, comme pour les réseaux de neurones simples, l’entraînement exige d’appliquer une fonction de différentiation sur l’erreur produite par le système. Il s’agit de la fonction gradient. Mais, comme ici le gradient tient compte des grandeurs précédentes dans le temps, il y a un certain nombre de termes multiplicatifs qui peuvent amener le modèle à ne jamais converger ou au contraire, à la saturation. C’est le problème classique d’évanouissement (disparition) des gradients ou d’explosion des gradients [15].
En réponse au problème de disparition des gradients, les cellules LSTM (Long Short-Term Memory) sont utilisées en lieu et place des cellules RNN normales.
Les cellules LSTM
Les cellules LSTM (pour Long Short-Term Memory) sont utilisées en lieu et place des cellules RNN classiques (dites vanilla) pour permettre au réseau de traiter des séquences de plus en plus longues sans perte rapide d’information [16]. Pour cela, des éléments de contrôle de la mémoire de la cellule sont ajoutés. Pour illustrer nos propos, voici une image qui nous permettra de différencier une cellule RNN classique d’une cellule LSTM :
Figure I.3: Comparaison entre cellules RNN classique et LSTM [18]
Présentée comme cela, la cellule LSTM semble superflue mais si on présentait les équations associées à un réseau fait de ces cellules, on se rendra compte que c’est plutôt intuitif. Pour aborder les équations associées, considérons l’image suivante :
Figure I.4: Vue fonctionnelle d’une cellule LSTM [18]
Une cellule LSTM se comprend en la considérant comme constituée d’un ensemble de portes avec des fonctions bien particulières. Il s’agit d’une porte d’entrée, une porte d’oubli et une porte de sortie.
Il est évident que, pour chacune de ces portes que nous nommerons, à un instant t donné par It, Ft et Ot, le système doit apprendre ses paramètres en fonction de l’entrée et de l’état interne. Mais on doit aussi remarquer que, l’état est défini par deux paramètres au lieu d’un seul comme pour les RNN simples. Il s’agit, à un instant t donné, de ht (considéré comme état à court terme) et de ct (qui est un état à long terme mais dont le contenu est contrôlé, au vu de l’architecture de la cellule).
De ce que nous venons de dire, nous pouvons conclure que Ft, It et Ot sont des fonctions de Xt et de ht−1 aux poids près. On sait aussi que, si on veut une mémoire à long terme contrôlée, la valeur finale de ct doit être mise à jour en repérant ce qui doit être oublié parmi les éléments qui étaient précédemment dans la mémoire, pour y ajouter ensuite ce qui est sélectionné comme pertinent à l’entrée. Cela revient à utiliser Ft et It comme des portes de contrôle (ou de sélection). Et de cela on peut conclure que c’est plus intéressant d’avoir Ft et It qui prennent des valeurs entre 0 et 1 (pour modéliser la sélection) et ct devra dépendre de ces deux éléments, avec aussi l’état précédent de la mémoire à long terme.
Il est aussi vraisemblable que, l’état à court terme doit provenir de la mémoire à long terme (ça correspondra à une sélection de ce qui doit être pris en compte directement dans la mémoire à long terme). Cet état ht doit par conséquent dépendre de ct (il faut néanmoins noter qu’une autre approche serait possible ici, mais celle-ci est déjà pertinente). Finalement, on sait que la sortie finale doit nécessairement dépendre de l’état interne de la cellule. Il va ici s’agir de ht vu que la cellule est développée par analogie avec le processus de mémorisation des systèmes naturels (mémoire à court terme correspondant à la mémoire de travail).
De ce qu’on vient de dire on peut tirer que, fondamentalement on doit avoir :
F
t
I t
O
t
c t
h t
y t
= F (Xt,ht−1) = G(Xt,ht−1) = J (Xt,ht−1)
= K(ct−1,Xt,ht−1)
= L(ct)
= M(ht)
(I.2)
Avec F ,G,J ,K,L,M des fonctions dépendant des coefficients considérés (poids et/ou éléments de sélection qui sont les diverses portes définies).
Une implémentation classique de ce raisonnement se présente comme suit [16, 15] :
F
t
I t
O
t
c t
h t
y t
= σ Wf xXt +Wf hht−1 +bf
= σ WixXt +Wf iht−1 +bi
= σ (WoxXt +Wohht−1 +bo)
= Ft ◦ct−1 +It ◦tanh(WcxXt +Wchht−1 +bc)
= Ot ◦tanh(ct)
= Wyhht +by
(I.3)
Il faut remarquer qu’on a utilisé la fonction sigmoïde σ pour restreindre les valeurs des sélecteurs (portes) entre 0 et 1, puis on a utilisé le produit de Hadamard (produit terme à terme des matrices) pour réaliser effectivement la sélection grâce aux portes, en diminuant les termes dont les valeurs correspondantes des portes sont proches de 0 et en essayant de conserver ceux dont les valeurs correspondantes des portes sont proches de 1.
Cette implémentation peut être modifiée, surtout en ce qui concerne les fonctions d’activation utilisées (σ et tanh), et en particulier la fonction d’activation de finalisation tanh ici, mais c’est l’une des plus optimales.
Le seul problème qui demeure est que le nombre de termes à apprendre est très grand. Cela a fait à ce qu’on puisse essayer de le diminuer en implémentant le GRU (Gated Recurrent Unit) poussant un peu plus loin l’abstraction des portes pour diminuer le nombre de paramètres.
Les cellules GRU
Les cellules GRU (Gated Recurrent Unit) sont une autre implémentation des cellules des réseaux de neurones récurrents comme les LSTM à la différence près que, bien que partant de la même idée fondamentale évoquée précédemment, les GRU apparaissent comme une simplification des LSTM.
Elles possèdent néanmoins des performances comparables en ce qui concerne la prédiction des séries temporelles,... Les simplifications sont réalisées au niveau des états cachés et des portes. On conserve un seul état caché h (quitte à le contrôler à l’interne pour implémenter la mémorisation à long terme et à court terme). Et pour les portes, on fusionne les portes de sélection des entrées avec celle des éléments à oublier (donc les portes I et F) pour former une porte dite de mise à jour (porte qui sera appelée update ou U). La porte de sélection des éléments de sortie quant à elle, est transformée en porte de réinitialisation.
Ces deux portes (de mise à jour et de réinitialisation) sont en fait implémentées de façon identique que celles des cellules LSTM. La particularité des GRU se situe principalement au niveau de la gestion de la mémoire (l’implémentation du processus de mémorisation) car, ayant supprimé la distinction long-terme/court-terme, il fallait bien trouver un mécanisme devant permettre de bien gérer les deux aspects de la mémoire avec un seul état interne conservé.
C’est ainsi que, la porte de mise à jour (porte U) est introduite dans le calcul de l’état h pour assurer la sélection du type de mise à jour à effectuer. Il s’agit de faire en sorte que, selon l’état interne et l’entrée, tout l’état interne précédent soit considéré mais que certains éléments soient complètement modifiés, selon le besoin, et d’autres presque conservés.
Ainsi donc, h devient une combinaison d’éléments provenant de l’état interne précédent avec ceux provenant des nouveaux calculs effectués par la cellule (en fonction de l’entrée et de l’état interne précédent). Le comportement est alors le suivant :
Quand le vecteur de mise à jour a un terme proche de 1, cet état interne est presque conservé. Par conséquent, sa mise à jour est presque ignorée. Quand c’est plutôt 0, l’état interne précédent est presque ignorée et une mise à jour complète de cet état est effectuée.
La formulation mathématique permet de mieux en saisir le fonctionnement [16, 15] :
U
t
R
t
h t
y t
= σ (WuxXt +Wuhht−1 +bu)
= σ (WrxXt +Wriht−1 +br)
= Ut ◦ht−1 +(1−Ut)◦tanh(WhxXt +Whr (Rtht−1)+bc)
= Wyhht +by
(I.4)
Et pour illustration, on peut considérer l’image suivante :
Figure I.5: Cellule GRU [18]
Il faut noter que sur cette image (figure I.5), l’implémentation de la mise à jour est l’inverse de celle que nous avons décrit par les équations I.4. C’est-à-dire que les termes Ut et (1−Ut) sont permutés. Mais aussi, ici Zt représente Ut.
Ces modèles fonctionnent très bien et certaines implémentations permettent d’améliorer encore leurs performances. Ils sont néanmoins lents à entraîner, surtout à cause de l’aspect temporel. Parmi les techniques d’amélioration des performances, une peut être considérée car elle a un rapport direct avec notre travail. Il s’agit des mécanismes d’attention [3].
I.5.3 Mécanismes d’attention
Les mécanismes d’attention sont en bref des techniques permettant de lutter contre la perte de mémoire qu’on constate par exemple dans les cellules récurrentes ci-haut décrites, en se focalisant sur des éléments les plus importants à chaque traitement. Le travail consiste donc à repérer, pour chaque entrée, les éléments sur lesquels se focaliser.
C’est là qu’interviennent donc ces mécanismes.
L’une des implémentations les plus commodes est l’attention globale [30].
Pour l’expliquer, nous allons considérer une architecture jusque là passée sous silence, mais qui permet aux modèles introduits là haut de s’utiliser efficacement pour les tâches courantes du NLP en particulier. Il s’agit des modèles dits encodeur-décodeur.
En effet, lorsqu’on a un modèle à séquence fonctionnel, les objectifs peuvent être multiples. On peut vouloir :
1°) fournir une série d’éléments en entrée et ressortir une autre série (utile pour la prédiction de la valeur des actions par exemple,... );
2°) fournir un série en entrée mais faire ressortir un seul élément ou vecteur (utile pour la classification des textes, l’analyse des sentiments,...);
3°) fournir un vecteur plusieurs fois en entrée et produire une série (pour la génération des légendes pour des images par exemple,...);
4°) on peut aussi avoir un réseau série-vers-vecteur, appelé encodeur, suivi d’un réseau vecteur-vers-série, appelé décodeur (très utile pour la traduction et la synthèse automatique par exemple,...). Il s’agit du modèle encodeur-décodeur.
Une illustration par image sera suffisante :
Figure I.6: Réseaux série-vers-série (en haut à gauche), série-vers-vecteur (en haut à
droite), vecteur-vers-série (en bas à gauche) et encodeur-décodeur (en bas à droite) [16]
.
L’élément (le vecteur d’état) passé entre l’encodeur et le décodeur est dit vecteur de contexte. Il représente en quelques sortes un condensé des informations passés à l’entrée de l’encodeur. Toutefois, plus la séquence d’entrée est longue, plus le risque que la mémoire de certaines séquences puisse s’étioler devient grand. Ainsi, si par exemple on est entrain de vouloir traduire une longue phrase, on peut finir par transmettre un vecteur de contexte qui a perdu toute information sur les premiers éléments de la séquence passée en entrée. C’est pour cela qu’au lieu de passer un vecteur de contexte général, les mécanismes d’attention permettraient ici de ne se focaliser que sur certaines informations lors du traitement d’un élément particulier de la séquence (en ayant évidemment passé tous les états internes passés au décodeur). Pour le réaliser concrètement, le mécanisme d’attention global consiste à formater le vecteur de contexte en fonction des éléments de l’encodeur à prendre en compte lors du traitement par le décodeur.
Considérons que Ω, dont les termes sont représentés par wij, est la matrice des poids d’attention normalisés par une fonction softmax pour chaque ligne. Et que Π, dont les termes sont représentés par αij, est la matrice des poids d’attention générée par le mécanismes avant normalisation.Si les éléments ci représentent à chaque fois le vecteur contexte final à l’étape i de décodage et les hj sont les vecteurs d’état interne de l’encodeur, l’attention globale revient à réaliser la manipulation suivante, pour formater le vecteur de contexte à prendre en compte pour l’élément en cours de traitement [30] :
wij = sof tmax(αij) = Pekαeijαik (I.5)
ci = Pj wijhj
La dernière relation du système I.5 revient à réaliser une somme pondérée des vecteurs d’état internes passés de l’encodeur, selon l’importance de chaque état pour le traitement en cours. De ces équations il faut aussi remarquer que la notation des sommations n’est pas rigoureuse. Cela est volontaire car c’est intuitif (on réalise des sommations sur tous les éléments).
Plusieurs techniques arrivant à réaliser l’attention existent. En général, comme on peut d’ailleurs le déduire des relations de l’attention globale, ces mécanismes étaient utilisés dans le cadre des réseaux récurrents. Une question s’est toutefois naturellement posée : ne pourrait-on pas se passer des RNN pour mettre au point des réseaux complètement basés sur l’attention ?. La réponse est oui, avec des ajustements adéquats pour résoudre les faiblesses des modèles classiques dans le traitement des données séquentielles. C’est cela qui a conduit aux modèles dits transformers [50].
I.5.4 Les transformers
Il s’agit des modèles dont l’architecture générique se présente comme suit :
Figure I.7: Architecture générique des transformers [50]
Les transformers sont des modèles du type encodeur-décodeur comme on peut le constater sur la figure ci-dessus (bien que certaines implémentations n’en utilisent qu’une partie selon la tâche). Ils sont essentiellement basé sur les mécanismes d’attention, se passant de la récurrence [16, 15].
Nous donnerons une explication succincte de chacun des modules présents dans l’image I.7. En effet, présentons les modules selon l’ordre dans lequel les données traversent le modèle :
1°) Moduled’embedding : Nous savons que les données textuelles doivent être présentées au modèle sous forme numérique. Elles doivent donc être transformées avant de les passer aux parties suivantes. Néanmoins, vu que la représentation des entrées a
un impact significatif sur les performances d’un modèle, cette représentation doit être bien choisie. Un choix intuitif, et qui s’avère être performant, est de tout faire pour que si deux termes ont des sens proches, ils aient aussi des représentations vectorielles proches. Cela est réalisé par différentes techniques que nous présenterons dans le chapitre suivant, mais c’est là le rôle de la couche d’enchâssement (embedding).
2°) L’encodage positionnel (positionnal encoding) : Ce module ajoute l’information sur la position relative de chacun des éléments placés en entrée par rapport aux autres. Cela pallie au problème de perte d’information sur la position des mots quand on utilise un réseau non séquentiel comme les réseaux récurrents. Donc, la position de chaque terme de la séquence placée en entrée est encodée dans un vecteur puis ajoutée à l’encodage global du terme. L’un des encodages les plus utilisés est celui basé sur les fonctions trigonométriques tel qu’introduit dans [50].
3°) Module d’auto-attention : La couche d’attention, présentée en première position dans la boîte de l’encodeur, est en fait une couche dite de self-attention car elle opère sur la même séquence d’entrée. L’opération est réalisée pour permettre au modèle d’avoir une représentation de l’importance des termes dans la séquence d’entrée, les uns par rapport aux autres.
Pour illustration, considérons la phrase suivante : Walter est malade, il préfère se reposer.
Dans cette phrase, l’un des constats qu’on peut faire est que, le nom "Walter" est beaucoup plus lié au pronom "il" qu’au verbe "préférer". C’est à l’établissement des tels liens dans les représentations que sert le module d’auto-attention ici présenté. Il est important que ce lien soit implicitement présent dans les représentations, pour que le traitement soit efficace comme on l’a mentionné lors de la présentation des mécanismes d’attention. Donc cette couche est en fait un prolongement de celle d’embedding. Ici, le mécanisme d’attention utilisé est différent de celui qui a été présenté là-haut (attention globale). Il s’agit ici d’un mécanisme plutôt basé sur le produit scalaire mis à l’échelle (scaled dot-product). En effet, très brièvement, l’idée du scaled dot-product attention consiste à opérer une recherche des termes sur lesquels focaliser l’attention de la même façon qu’on réalise la recherche de la signification d’un mot dans un dictionnaire. Supposons qu’on veuille avoir la signification d’un mot dont on ne connaît pas l’orthographe exacte. Pour retrouver ce dernier dans un dictionnaire, il suffit de rechercher le mot qui ressemble le plus à l’orthographe que nous estimons être la plus vraisemblable. Mathématiquement, cette recherche de similitude correspond à un produit scalaire.
Similairement, le scaled dot-product consiste à générer trois éléments qui sont la clé ou key k, la valeur ou value v et la requête ou query q. La requête correspond au mot
qu’on cherche (orthographié selon ce que nous pensons), la clé correspond au mot présent dans le dictionnaire et la valeur correspond à la signification associée. Si on supposait qu’il existe plusieurs termes du dictionnaire qui s’orthographient presque de la même façon que le mot qu’on cherche, on devra passer par une mesure de similarité avant de se décider sur le sens le plus probable. Cela correspond à réaliser le produit de tous les k par les q présents, puis à normaliser l’ensemble des résultats de manière à ce qu’ils représentent des mesures de probabilité, et finir par choisir le sens v le plus probable.
Pour aller plus vite, on implémente ce processus en considérant tous les k, q et v au même moment de manière à réaliser le calcul une fois pour toutes. Cela revient à regrouper tous les k, q et v dans des matrices K, Q et V . Ce qui donne la relation qui définit l’attention par produit scalaire mis à l’échelle [50] :
Q ·KT
Attention(Q,K,V ) = sof tmax p ·V (I.6) dk
Dans cette relation, expression I.6, le terme pdk permet de mettre à l’échelle le résultat du produit scalaire de Q par K, c’est-à-dire Q·KT . Il faut noter que dk est la dimension d’une clé, et que cette normalisation permet d’améliorer les performances du modèle mais elle n’est pas la seule envisageable.
Il est aussi important de remarquer que la couche d’attention utilise trois termes pour arriver à bout du problème. Ces trois termes sont obtenus par une transformation linéaire dont les poids sont appris à travers un réseau de neurones simple.
Il faut aussi noter que l’on utilise parallèlement plusieurs modules d’attention pour capture toutes les caractéristiques des séquences (on parle de multi-head attention). Pour une plus ample illustration, voir la figure I.8.
4°) Le module feed-forward : Il s’agit en fait d’un réseau de neurones de propagation avant classique (réseau à couches ajoutées de façon séquentielle). Il permet de réaliser le traitement qui fait suite à l’attention.
5°) Couche d’attention encodeur-décodeur : Il s’agit de la couche qui reçoit les données en provenance de l’encodeur. Il s’agit ici d’une couche d’attention et non d’autoattention comme c’était le cas pour la première couche de l’encodeur. En effet, contrairement à la couche de self-attention, pour laquelle tous les trois paramètres sont calculés à partir de la même séquence, la couche d’attention ici prend les clés K et valeurs V provenant de l’encodeur mais une requête Q provenant du décodeur.
Une autre couche feed-forward suit celle-ci et a le même rôle que celle de l’encodeur.
6°) Module d’attention masquée : Il s’agit de la première couche du décodeur. C’est aussi un module de self-attention auquel on ajoute le masquage. Ce module est dit masqué suite au fait que, comme le décodeur est un module de génération, on ne regarde que les termes précédemment générés, en masquant les termes qui seront probablement générés aux pas d’après. Cela est réalisé en rendant juste leurs probabilités nulles.
7°) Module linéaire final : Il s’agit d’un réseau de neurones classique pour réaliser la déduction finale, le tout étant passé à la fin à travers une opération softmax qui permet de transformer les résultats en probabilité d’éléments générés (cela permet de choisir le terme le plus vraisemblable à générer comme sortie).
Cette explication simplifiée se comprend mieux si on y joint la vue éclatée suivante :
I.6. CONCLUSION PARTIELLE
Figure I.8: Vue éclatée d’un transformer [51]
Les transformers, ici succinctement présentés, sont un modèle très adapté aux tâches de traitement automatique du langage naturel. C’est un modèle incontournable vu aussi que ses traitements peuvent être facilement parallélisés. Cela est rendu possible par le fait que l’architecture des transformers est parallèle par essence.
I.6 Conclusion partielle
Nous venons de réaliser une vue d’ensemble du domaine de traitement automatique du langage naturel, ainsi que diverses techniques couramment utilisées. Pour cela, nous avons tout d’abord justifié la préséance des modèles basés sur le deep learning pour diverses tâches du NLP.
Ensuite, nous avons évoqué les technique de pré-traitement des textes, souvent incontournables, comme la réduction des séquences en leurs tokens constitutifs, la suppression des mots fréquents mais n’apportant pas assez d’informations et la réduction des mots en leurs racines respectives. Nous y avons aussi joint quelques techniques utiles à la compréhension du langage humain comme le POS tagging et la reconnaissance d’entités nommées. Ce qui précède nous a finalement conduit à présenter les modèles courants du NLP basés sur les RNNs et, nous avons terminé par la présentation de l’architecture transformer, modèle que nous utiliserons pour ce travail (les précisions sur les modèles particuliers seront données au chapitre suivant).
Les transformers constituent un type de modèle qui s’avère être le plus adapté (pour le moment) au résumé automatique du texte et, dans le chapitre suivant, nous commencerons par présenter les diverses spécificités du résumé automatique comme tâche du NLP, pour finir par présenter l’architecture globale du système que nous comptons élaborer.
Chapitre II
Présentation du résumé automatique et conception du système
II.1 Introduction partielle
Le résumé automatique étant le sujet principal de ce mémoire, dans cette partie nous le présentons alors en détail en tant que discipline et tâche du NLP. Nous allons ici présenter les théories sur la synthèse automatique des textes, en classifiant les diverses méthodes utilisées pour pouvoir situer notre système dans l’ensemble des travaux jusque-là menés sur ce sujet.
Ensuite, nous présenterons les diverses approches utilisées pour le résumé automatique, sans oublier d’approfondir notre présentation des modèles de type transformer adaptés à cette tâche, pour finalement mentionner le modèle que nous estimons le plus adapté concernant l’approche basée sur le deep-learning pour la synthèse automatique. Enfin, nous allons réaliser une conception rapide mais suffisante de l’architecture globale de notre système, tout en précisant le rôle et le fonctionnement de chaque partie.
II.2 Présentation et définitions
Selon Le Petit Robert, résumer c’est reprendre en plus court un discours, le présenter brièvement en conservant l’essentiel. En d’autres termes, c’est l’abréger, l’écourter, le réduire. De même, en tant qu’exercice intellectuel, le résumé, consiste à réduire un texte tout en lui restant fidèle. Il exige donc de restituer les idées en un nombre déterminé de mots, en évitant au mieux de recopier le texte à résumer. Il faut alors composer un texte
29
plus court qui contienne l’essentiel du message initial.
De cela on tire que le résumé devient automatique s’il est généré par un logiciel ou un système informatique.
Cette définition est en fait correcte bien qu’elle ne soit assez précise pour notre contexte. Il nous faut une définition assez générale et précise, embrassant au mieux l’aspect automatique, ou mieux, l’aspect informatique, qui nous intéresse dans ce mémoire. Une définition assez valable est celle de TORRES-MORENO Juan-Manuel qui dit qu’un résumé automatique est un texte généré par un logiciel, cohérent et contenant une partie importante des informations pertinentes de la source, et dont le taux de compression est inférieur au tiers de la taille du(des) document(s) source(s) [48].
L’introduction du taux de compression dans la définition n’est pas anodine car, on s’est très vite rendu compte que la performance d’un système de résumé automatique dépendait fortement du taux de compression. En effet, les études de [26] montrent que les meilleures performances des systèmes de résumé automatique sont généralement atteintes pour des taux de compression compris entre 15 et 30% [48].
Nous allons adopter, dans ce travail, la définition de TORRES-MORENO Juan-Manuel ci-haut présentée.
Toutefois, on ne doit pas manquer de signaler que la génération automatique des résumés est un problème complexe en soi, tout comme l’évaluation des résultats. Le résumé est en effet une tâche cognitive requérant la compréhension du texte considéré et, les humains n’étant pas toujours bons dans les tâches de synthèse, le manque d’étalon explique qu’il y ait également une difficulté d’automatisation du processus.
II.3 Catégorisation des résumés
Les résumés peuvent être classifiés selon différents critères tels que leur fonction, le nombre de documents source, le genre de document, le type de résumé, le type de résumeur, le contexte,...
II.3. CATÉGORISATION DES RÉSUMÉS
Parcourons de manière succincte ces différents critères de classification [36, 31, 32, 38, 37, 48] :
II.3.1 Selon la fonction
Selon leur fonction, on classifie les résumés en deux groupes qui sont le résumé indicatif et le résumé informatif.
Résumé indicatif
Tel une table des matières, un résumé indicatif renseigne le lecteur sur les thèmes abordés dans un document. Il liste donc les sujets les plus importants évoqués par le texte. Certains systèmes de résumé guidé génèrent un résumé indicatif du texte comme étape initiale, l’utilisateur choisit alors parmi les sujets proposés par le résumé ceux qui l’intéressent et le système produit enfin un résumé informatif du texte guidé par la requête de l’utilisateur. La requête dans ce cas est l’ensemble des sujets sélectionnés à partir du résumé indicatif.
Résumé informatif
Il s’agit d’un modèle rétréci du texte d’origine, relatant le plus largement possible les informations contenues dans celui-ci. Ce type de résumé répond souvent à une attente en résumant de plus le contenu. La problématique ici est donc double : comprendre ce qui n’est pas information dans un texte et connaître le besoin de l’utilisateur final. Néanmoins, si on n’a pas de requête spécifique de la part de l’utilisateur, le résumé informatif est réalisé en veillant à ce que l’ensemble des principaux sujets du texte d’origine soit rapporté. Ainsi, les sujets principaux qui sont rappelés dans le résumé sont répartis de manière fidèle par rapport à l’organisation initiale afin de donner un juste aperçu du texte source.
II.3.2 Selon le nombre de documents source
Selon le nombre de documents source on a les résumés mono-document et multidocument.
Résumé mono-document
Il consiste à résumer un document isolé. Le corpus de documents source est donc ici constitué d’un seul et unique document.
Résumé multi-document
Il s’agit d’un résumé de plusieurs documents (un groupe de documents), très souvent liés thématiquement, en faisant attention à ne pas insérer des informations déjà évoquées.
II.3.3 Selon le genre des documents
Résumé des documents journalistiques
Il s’agit de résumer les documents du type article de presse (sachant qu’ils ont une structure particulière). En effet, on sait par exemple que dans le domaine journalistique, les informations les plus importantes sont souvent mentionnées au début du texte.[36]
Résumé des documents spécialisés
Il s’agit de résumer des documents en provenance d’un domaine précis (géologie, médecine, mathématique,...), fortement spécialisé.
Résumé des documents littéraires
C’est le résumé de documents du type narratif, des textes littéraires, des textes argumentatifs, ...
II.3. CATÉGORISATION DES RÉSUMÉS
Résumé des documents encyclopédiques
Ici il s’agit de résumer des documents de type encyclopédique (en général multithématiques de toute évidence) à l’exemple de Wikipédia...
II.3.4 Selon le type de sortie (résumé obtenu)
Cette classification est très importante et très utilisée. Il s’agit des :
Résumés extractifs (extractive summarization)
Le résumé extrait est formé de segments de texte extraits du(des) document(s) source(s). Ces segments peuvent être des phrases, des propositions ou n’importe quelle unité textuelle présent dans le(s) document(s) à résumer. Le problème consiste donc à repérer les segments de texte qui semblent être les plus pertinents pour faire partie du résumé final. Les éléments obtenus à la fin sont donc explicitement présents dans le(s) document(s) source(s).
Résumés abstractifs (abstractive summarization)
Les méthodes de résumé abstractives imitent, jusqu’à un certain degré, le processus naturel accompli par l’homme pour résumer un document. Par conséquent, elles produisent des résumés plus similaires aux résumés manuels (humains). Ce processus peut être décrit par deux étapes majeures : la compréhension du texte source et la génération du résumé. La première étape vise à analyser sémantiquement le contenu du texte et à identifier les parties à exprimer dans le résumé. C’est en quelques sortes une tâche d’extraction d’information liée au domaine abordé ou de regroupement des phrases du texte source. Vient ensuite la génération du texte.
Bref, on produit un résumé rapportant le contenu du(des) texte(s) source(s) en utilisant un vocabulaire différent et plus concis.
Il existe aussi des résumés dits semi-extractifs, et même aussi des résumés dits par compression [48] mais nous estimons inutile de les décrire ici étant donné que la distinction abstractif-extractif suffit pour notre contexte.
II.3.5 Selon le type de résumeur
Le résumeur est le système qui réalise le résumé. Il peut s’agir d’une entité naturelle (un humain) ou artificielle (un logiciel). On a donc essentiellement les deux cas suivants :
Résumé humain (manuel)
Il s’agit d’un résumé réalisé par un humain. Il peut être fait par l’auteur même du document (on parle souvent de résumé d’auteur), par un expert du domaine traité (on parle souvent de résumé d’expert) ou par un professionnel de résumé (on parle de résumé professionnel).
Résumé automatique
Il s’agit, comme on l’a maintes fois mentionné, d’un résumé fait par un système informatique.
II.3.6 Selon le contexte
Résumé générique
Ici on résume le document sans prendre en compte les besoins d’information de l’utilisateur. On produit juste un résumé complet et le plus mieux fait possible.
Résumé guidé
Pour ces types de résumé, l’utilisateur commande la génération du résumé en précisant les types d’information dont il a besoin.
Résumé mis à jour
Il s’agit d’un résumé de type dynamique par essence. Ici, un ensemble de documents sources est résumé en veillant minutieusement à ce que le document dont le résumé est ajouté à la suite d’un précédent résumé ne puisse pas créer une répétition d’information.
Il y a donc un contrôle de nouveauté.
II.3.7 Selon le destinataire du résumé
On peut aussi classifier un résumé selon le public auquel il est destiné.
Résumé sans profil
Il s’agit d’un résumé qui ne tient pas compte d’un quelconque profil utilisateur. Le résumé est donc généré sans tenir compte de la personnalité des utilisateurs.
Résumé avec profil
Il s’agit d’un résumé dont l’un des éléments guides (requête) est le profil des individus auxquels le résumé est destiné.
En ce qui concerne notre système, nous implémenterons à la fois un résumeur abstractif et un résumeur extractif et ce sera mono-document. En plus de cela, le résumé ne sera pas guidé, il s’agira de produire des résumés génériques, pour des documents de type littéraire (documents du type narratif, des textes littéraires, des textes argumentatifs,...).
II.4 Approches de résumé automatique
Nous allons présenter ici diverses approches algorithmiques pour résumer les documents textuels. Les approches seront abordées en supposant que les résumés sont principalement classés en abstractif et extractif.
II.4.1 Techniques intuitives de résumé [36]
Avec des critères centrés sur le contenu des textes, il existe un grand nombre d’algorithmes assez triviaux de résumé, qui sont basés entre autres sur : • La fréquence d’occurrence des mots et
• L’annotation en rôle sémantique.
Ces critères mettent l’accent sur le contenu du texte et le message qu’il communique.
Fréquence d’occurrence des mots
L’idée majeure des techniques qui utilisent ce critère consiste à considérer que les mots les plus fréquents sont les plus liés au sujet principal du texte à résumer. Cette approche assez simpliste mais fonctionnelle fut introduite en 1958 par Luhn [29], une première tentative de résumé automatique.
On affecte des scores aux phrases présentes dans le texte, en additionnant chaque fois les poids des mots les constituant (on attribue ce poids en fonction de la fréquence d’apparition du mot considéré dans le texte entier). Et, à la fin, le résumé est constitué avec les phrases extraites du texte source, et dont le score dépasse un certain seuil dépendant de la taille maximale imposée pour le résumé. Le tout est finalement réarrangé selon l’ordre d’apparition (des phrases sélectionnées) dans le texte d’origine.
L’annotation en rôle sémantique
Ici, l’idée est simple. En utilisant des techniques de repérage d’entités nommées (voir le chapitre précédent), on identifie les entités présentes dans le document. Après cela, l’entité la plus fréquente est identifiée et considérée comme entité principale. Par la suite, les phrases contenant cette entité sont sélectionnées. Enfin, seules les phrases où l’entité principale possède un rôle sémantique fondamental (non auxiliaire) sont gardées pour le résumé.
L’un des moyens les plus simples pour repérer les entités nommées est de passer par l’apprentissage profond comme on l’a précédemment mentionné.
Il existe tout de même des techniques qui ne se fient qu’à la forme et à la structure du texte, sans en considérer le contenu. L’intuition derrière cette approche est basée sur le constat que dans un texte, les éléments ne sont pas présentés de façon arbitraire. De manière usuelle, les techniques utilisées se basent sur :
La position des phrases;
La similarité avec le titre
La longueur des phrases ou sinon,
Les mots indices (cue word)
La position des phrases
Cette approche est à appliquer en fonction de la nature du document et de son genre. Pour certains types de documents (documents journalistiques par exemple), les phrases se trouvant au début sont généralement plus informatives et décrivent le sujet principal du document. De plus, les phrases situées au début de chaque paragraphe tendent à apporter plus d’informations pertinentes. Le résumé des articles scientifiques par contre, peut essentiellement se former en se basant sur les contenus des parties résumé et introduction (sous l’hypothèse que ces dernières parties sont bien faites). En revanche, dans le cas des revues intégratives (critique et comparaison des études), les phrases les mieux notées sont celles des parties résultats et discussion et conclusion.
Ces exemples suffisent pour illustrer dans quelle mesure cette approche peut s’appliquer.
La similarité avec le titre
Cette approche part du principe selon lequel un bon titre doit informer de manière brève du contenu principal du texte qu’il encadre. Cela permet alors de fixer comme mesure de pertinence des phrases, leur similarité avec les titres. Toute la problématique se réduit donc à la construction d’algorithmes capables de capturer efficacement la similarité.
La longueur des phrases
L’approche consistant à se baser sur la longueur des phrases est assez naïve mais fonctionnelle.
En effet, la longueur moyenne d’une phrase dans un texte dépend de son genre. Généralement, les phrases très courtes sont considérées comme peu informatives alors que les phrases très longues sont présumées favoriser la redondance. Cette caractéristique est exploitée en fixant un intervalle de longueur (entre 15 et 30 mots). Une phrase ayant une longueur en dehors de cet intervalle est pénalisée [45].
Les mots indices
Ici, on considère une liste de mots, constituée manuellement, et qui a comme rôle de permettre de se décider si une phrase doit être prise dans le résumé ou rejetée, selon qu’elle contient ou non un(des) mot(s) de la liste qualifié(s) inhibiteur(s) ou valorisant(s). Comme exemple des mots ou groupes de mots inhibiteurs on trouve : par exemple, accessoirement, ... Et pour les mots valorisants on peut citer : notez bien, ...
Nous devons quand même préciser encore une fois que tout dépend de celui qui écrit la liste.
Les méthodes que nous venons de présenter sont assez intuitives mais constituent la base des processus de synthèse. En effet, synthétiser un texte revient au fond à implémenter un certain nombre de règles, dont font parties évidemment celles que nous venons de mentionner. Néanmoins, ce que nous venons de présenter est décrit en se basant sur le concept de résumé extractif. Nous devons toutefois signaler que les résumés abstractifs se basent au fond sur les mêmes principes, soit en partant des résumés extractifs pour ensuite réaliser des paraphrases, insérer des connecteurs appropriés et éliminer les références anaphoriques dans les résumés, soit en implémentant indirectement toutes ces techniques à travers un modèle d’apprentissage automatique ou un modèle basé sur les graphes capables de capturer d’un seul coup tous ces aspects (ou une grande partie d’entre-eux). Les techniques intuitives ci-haut présentées ne sont pas les seules. Il en existe également d’autres, basées essentiellement sur les théories linguistiques. Entre autres les méthodes d’analyse du discours (par exemple la RST [31] ou Rhetorical Structure Theory)...
II.4.2 Algorithmes classiques de résumé automatique
Comme nous venons de l’introduire dans la section précédente, le résumé automatique est abordé essentiellement selon deux approches qui sont [31] :
1°) Les approches numériques, fondées sur les techniques à base des scores (poids), et
2°) Les approches symboliques fondées sur les techniques purement linguistiques, basées en premier sur une étude sémantique.
Il faut noter qu’on peut considérer aussi des approches basées sur la théorie des graphes comme intégrant les idées de ces deux approches de façon implicite, tout comme celles basées sur l’apprentissage automatique. Mais, dans tous les cas, une vue sur quelques heuristiques (méthodes basées sur le bon sens) est toujours à considérer (surtout en amont, puis en aval du processus de synthèse).
Ici, nous allons présenter les approches essentiellement numériques (on va y inclure celles basées sur l’apprentissage automatique et celles basées sur la théorie des graphes).
Algorithme de Luhn [29]
Il s’agit d’une méthode heuristique pour la synthèse des documents. C’est la plus ancienne méthode de résumé automatique (au sens moderne du terme).
Cette approche n’est pas considérée comme très bien formalisée. Elle exécute implicitement l’approche du TfIdf que nous allons décrire dans la sous-section qui suit celle-ci (sous-section II.4.2).
La sélection (des mots ici) se fait en considérant les hypothèses qui suivent :
la synthèse consiste à supprimer certains mots pour n’en conserver que les plus importants;
les mots se trouvant au début sont probablement importants;
les autres mots utiles respectent une certaine distribution. La figure II.1 montre, selon Luhn, comment choisir ces mots importants (partie hachurée de la courbe).
Figure II.1: Diagramme des fréquences des mots et le choix de Luhn [29]
Cette approche, comme on l’a mentionné au début, est assez moins précise et empirique, mais elle sous-entend les idées fondamentales appliquées plus tard.
Algorithme TF-IDF
Le tf-idf (time-frequency inverse document frequency est une approche essentiellement utilisée pour le résumé extractif. Il s’agit d’une correction de l’approche naïve consistant à poser que plus un mot est répété dans un corpus de texte, plus il y est important.
Soit donc un corpus constitué de D documents et Nj le nombre total de mots (termes) présents dans un document j donné du corpus. Nommons Freq(i,j) le nombre de fois qu’un terme i apparaît dans le document j.
On définit classiquement la fréquence d’apparition par :
Freq(i,j)
T F(i,j) = (II.1)
Nj
L’approche qui se base naïvement sur la fréquence d’apparition des mots dans les textes pour juger de leur importance relative, accorde à chaque mot un poids égal à T F(i,j). La grande faiblesse de cette approche est d’inclure ainsi des termes sans grande pertinence informationnelle comme des prépositions, des articles,... très présents au sein des documents.
Pour corriger cette faiblesse, on pose l’hypothèse que les termes importants apparaissent plusieurs fois dans un document (ou juste dans peu de documents du corpus) et non pas dans plusieurs documents. Puisque dans ce second cas, il est souvent question des éléments communs du langage, sans grande utilité informationnelle. Ceci constitue en fait la loi de Zipt [55] et c’est le fondement de l’approche du tf-idf.
A cet effet, on définit DFi comme étant le nombre de documents dans le corpus, qui contiennent le terme numéro i. Cela permet d’affecter alors le poids selon la formule [5] :
D !
T FIDF(i,j) = log(1+T F(i,j))·log (II.2)
DFi
Dans l’expression, II.2, en supposant que N est le dictionnaire des termes présents dans l’ensemble des documents, il faut noter que : i ∈ {1,...,N} et j ∈ {1,...,D}.
D’où finalement, le poids d’un terme i dans un document j est donné par :
wij = T FIDF(i,j) (II.3)
Pour notre cas, l’application de cette approche consiste à décomposer un long texte en ses phrases et de considérer que chacune de ces phrases est un document et que le texte entier constitue le corpus.
Plusieurs définitions des éléments T F(ij) et IDFi formant l’expression II.2 sont toutefois possibles selon les besoins en terme de performance.
Mais, dans l’ensemble, l’idée de base demeure la même car il ne s’agit en général que de changement des types de normalisation [55].
L’application de cette méthode pour le résumé consiste finalement à calculer le poids de chaque phrase en additionnant les poids des termes la constituant, puis à normaliser le résultat en fonction de la taille de la phrase considérée. Après tout, on définit un seuil qui permet de soutirer les phrases selon leur pertinence ainsi évaluée (en considérant évidemment plus pertinente une phrase dont le résultat de la sommation des poids est élevé).
Algorithme TextRank
TextRank est un algorithme de résumé extractif, basé sur la théorie des graphes et qui s’inspire de l’algorithme PageRank de Google [8, 4].
A la base, on considère un ensemble de N phrases donné, et on calcule les coefficients de liaison de chaque phrase aux N −1 autres. A la fin, on peut obtenir une matrice M de taille N ×N dont chaque terme Mij représente le degré de liaison entre la phrase numéro i et la numéro j. Il s’agit en fait d’une matrice d’adjacence dans laquelle on pose au préalable que Mii = 0, pour tout i (c’est la même idée pour l’algorithme PageRank étant donné qu’il est logique de considérer qu’une page ne peut s’auto-référencer).
Soit donc i ∈ {1,...,N}. Appelons P hri la phrase numéro i du corpus. Cela veut dire qu’on peut écrire :
Liaison P hri ↭ P hrj = Mij = Mji (II.4)
Les valeurs de Mij sont calculées au choix, selon le programmeur. Ce dernier implémente en effet une mesure de similarité selon sa définition de la liaison entre phrases et les besoins en performance.
C’est ainsi qu’on peut utiliser par exemple une mesure de similarité classique nommée similarité cosinus en la basant par exemple sur T FIDF [19].
Pour représenter les mots à comparer, on utilise les méthodes classiques de vectorisation des mots (word embedding). Nous esquisserons ces méthodes dans les sections qui vont suivre, parlant du word embedding ( II.5 ).
Le rang des phrases sont alors calculés de manière itérative en s’inspirant de la formule [33] :
N
Xh i
T extRank(P hri) = (1−K)+K · T extRank(P hrj) ·Mij (II.5)
j=1 j,i
Dans cette formule, K est une constante comprise entre 0 et 1.
Initialement, on prend en général une valeur identique de T extRank(P hri) pour toutes les phrases (souvent T extRank(P hri) = 1), mais la valeur initiale prise n’affecte pas les valeurs finales, juste le temps de convergence [33].
La formule II.5 n’est pas arbitraire, elle est d’ailleurs triviale si on s’inspire de l’algorithme de PagePank la plus simple. Pour cet algorithme (PageRank), on avait pris à l’origine K = 0.85 [8].
Justification de la formule Le principe de PageRank consiste à se dire que, si une page
P agi contient Ni références vers d’autres pages, la probabilité qu’on aille vers l’une de ces pages référencées est de N1i (avec l’hypothèse que les références ne sont pas répétées et que la distribution de leur importance est uniforme). On sait tout de même que plus une page est référencée, plus on doit lui donner de l’importance.
Si alors on pose que l’importance de la page P agi est connue, le calcul de l’importance d’une page P agj vers laquelle elle pointe se calculera logiquement par :
X 1
Importance(P agj) = Importance(P agi)· (II.6) i Ni
Avec i appartenant à l’ensemble des pages qui mentionnent la page P agj en leur sein.
Malheureusement, pour les phrases non référencées (pages dites isolées), on trouve une importance nulle. Pour lutter contre cela, la formule II.6 est un peu modifiée en y introduisant adéquatement une constante non nulle K.
Ce qui donne l’expression [8] :
X 1
Importance(P agj) = (1−K)+K · Importance(P agi)· (II.7) i Ni
On voit alors qu’il s’agit belle et bien de la formule utilisée pour TextRank (formule II.5).
Après initialisation des rangs de chaque phrase du texte ( les T extRank(P hri)) et après calcul de la matrice d’adjacence M. On applique la formule II.5 itérativement et à la convergence, on choisit les phrases qui vont former le résumé selon leur importance ( valeurs des T extRank(P hri) pour toute valeur de i).
A la fin, les phrases sélectionnées sont réarrangées pour former un résumé extrait plus ou moins cohérent.
Il existe également un algorithme nommé LexRank [14] qui est assez similaire à TextRank ici décrit, à la différence près que :
Il prend essentiellement en compte les métriques de similarité robustes;
Il considère la position et la longueur des phrases dans le calcul de leur pertinence; - Il est optimisé pour le résumé multi-document.
Plusieurs autres algorithmes populaires existent, par exemple les algorithmes LSA (Latent Semantic Analysis ou Analyse Sémantique Latente) et LDA (Latent Dirichlet Allocation ou Allocation Latente de Dirichlet) [5].
Le premier, la LSA, est un algorithme statistique, basé sur l’algorithme SVD (Singular Value Decomposition ou décomposition en valeurs singulières). Seulement, cette technique est très gourmande en ressources suite à la complexité de l’algorithme qui implémente le SVD. Le second, la LDA, basé sur la détection des thématiques, peut aussi être utilisé.
Toutefois, il faut remarquer que les algorithmes ici présentés sont essentiellement adaptés à la synthèse extractive. Même si, ces traitements peuvent être mélangés avec les techniques de résolution d’anaphores et les paraphrases pour obtenir des synthèses qui tendent vers la synthèse abstractive, nous devons souligner que les techniques jusque là les plus performantes pour la synthèse abstractive sont essentiellement basées sur le deep learning [36]. Le deep learning peut également être utilisé pour la synthèse extractive, permettant ainsi la génération des synthèses extraites plus cohérentes (avec résolution d’anaphores). Ainsi donc, nous abordons les méthodes de deep learning utilisées pour cet effet dans les parties qui suivent.
II.5 Modèles Seq2Seq
II.5.1 Methodes du Word-Embedding
Tout traitement commence par une représentation numérique des termes (des mots ici) pour qu’ils soient assimilables par le modèle. Une approche naïve consisterait à regrouper tous les mots de notre vocabulaire dans une liste (un dictionnaire) et de les représenter chacun par un nombre unique (un identifiant). Une autre approche, plus classique, consiste à représenter chaque mot par un vecteur de dimension égale à la taille du dictionnaire et dont tous les termes sont nuls, sauf à la position, dans le dictionnaire, du mot qu’on est entrain de vouloir représenter (on parle du one-hot encoding).
Ces représentations, et toutes celles qui s’y apparentent, ont la grande faiblesse d’être peu informatives (au point de vu sémantique). Étant artificiellement construites, sans tenir compte du sens des mots, ni de leur contexte, ces méthodes de représentation rendent la tâche de découverte des caractéristiques par les systèmes de machine learning encore plus difficile. D’ailleurs, l’une des faiblesses de la seconde méthode décrite (le one-hot encoding) est que les vecteurs sont creux (une majorité de valeurs nulles) et de dimension inutilement très grande. On pourrait directement songer à une représentation plus judicieuse pour éviter ces deux soucis, et qui consisterait à réaliser une représentation binaire des termes mais, le problème de la sémantique sera toujours là.
On recourt donc à des méthodes de représentation plus élaborées, partant du principe selon lequel le contexte d’un mot suffit pour en appréhender le sens. Ainsi, tout mot est représenté en réalisant une statistique (implicitement bien sûr) sur les divers mots qui l’accompagnent souvent, de telle sorte que les mots aux sens proches aient aussi des vecteurs très proches. Bref, on en arrive à réaliser la proposition : "Similarité sémantique implique similarité de représentation". Ce sont les méthodes classiques du word embedding (ou plongement lexical). Il s’agit par exemple des méthodes comme le Word2Vec [34, 35], Glove [39], fastText [6]...
II.5.2 Modèles séquence-à-séquence proprement dits
S’agissant des modèles séquence-à-séquence (Seq2Seq), ils ont été présentés dans la section I.5.3 (voir particulièrement la figure I.6). Il s’agit bel et bien des modèles adaptés aux tâches de synthèse, vu qu’en entrée on reçoit une séquence pour ressortir une autre séquence en sortie.
Comme nous l’avons déjà bien mentionné au précédent chapitre, nous n’allons parler que des modèles Seq2Seq de type transformer car actuellement, ils sont les plus adaptés à la tâche que nous voulons réaliser (celle de synthèse automatique). Les transformers (voir la figure I.7) sont un modèle très avantageux car en fait, au-delà de leurs performances et autres avantages, ils facilitent encore plus la recherche en NLP en rendant effectif le transfer learning (apprentissage par transfert) dans ce domaine.
L’entraînement des transformers est semi-supervisé. Il se fait en deux crans (nous les décrirons dans le cadre du NLP) :
1°) Pré-entraînement : il s’agit d’un apprentissage non supervisé, qui consiste à donner au modèle une masse colossale de données textuelles, non étiquetées, pour qu’il développe une compréhension statistique du langage qu’on veut qu’il puisse assimiler.
Au final, on obtient un modèle pré-entraîné.
2°) Affinage de l’apprentissage (fine-tuning) : Ça consiste à finaliser l’apprentissage du modèle pré-entraîné de manière supervisée pour qu’il soit en mesure de réaliser une tâche donnée du NLP (il s’agit du transfer learning en fait). Cette spécialisation, requiert une très faible quantité de données car le modèle aura déjà une représentation assez bonne de la langue. Cela pallie à la fois au problème de manque des données labellisées en NLP et de la consommation en terme de ressource énergétique des gros modèles lors de leur entraînement.
Les méthodes de pré-entraînement sont très déterminantes pour les performances finales du modèle. Ce premier entraînement du modèle a pour rôle de l’amener à construire un modèle de langage [25].
Il existe ainsi plusieurs objectifs de de pré-entraînement (pour construire le modèle de langue). On peut par exemple entraîner le modèle à :
Prédire le mot suivant : donc, lors de cet entraînement non supervisé, on fournit chaque fois au modèle une séquence de mots en lui demandant de prédire le suivant. Il s’agit d’un objectif d’entraînement dit NSP (Next Sentence Prediction) visant à transformer implicitement le transformer en un modèle de langue [11];
Deviner le mot caché (masqué) : on fournit au modèle du texte dont certaines parties (mots ou suite de mots) sont cachées. L’objectif assigné au modèle est alors de retrouver les mots masqués. On parle du MMLMasked Language Modelling [11].
Ainsi, au fur et à mesure, les paramètres du modèle s’affinent, le transformant en un modèle de langue performant. Mais, à part les deux que nous venons de mentionner, il existe d’autres objectifs de pré-entraînement [25, 54] selon les variantes de transformers et les objectifs finaux de spécialisation du modèle.
Bien que la forme classique des transformers est bel et bien celle de la figure I.7, il existe 3 types d’implémentation selon les types de tâche visées en dernier lieu :
1°) Modèles à encodeur seul : on supprime la partie décodeur. Ces modèles sont très bons pour les tâches de compréhension du langage comme la classification par exemple.
2°) Modèles à décodeur seul : on supprime alors la partie décodeur du modèle. Ils sont bons pour les tâches de génération de texte.
3°) Modèles encodeur-décodeur : ou encore modèles seq2seq proprement-dits. Ils sont bons pour les tâches demandant à la fois la compréhension et la génération des textes.
Pour illustrer ce fait, on va considérer donc 3 types de transformers [49, 52] :
1°) Like-BERT : semblables au transformer dénommé BERT Bidirectional Encoder Representations from Transformers. Ce sont des modèles du type encodeur seul. Ils sont également bidirectionnels. Donc, les phrases sont lues dans les deux sens pour mieux saisir tout le contexte.
2°) Like-GPT : donc semblables au transformer dénommé GPT (Generative Pre-trained Transformer) qui n’ont que la partie décodeur et sont dits auto-regressifs car, seules les parties précédant le mot en cours de traitement sont connues du modèle et il y a chaque fois réinjection des sorties à l’entrée.
3° Like-BART/T5 : semblables à BART (Bidirectional and Auto-Regressive Transformers) ou à T5 (Text-To-Text Transfer Transformer). C’est donc ceux du type encodeur-décodeur.
Modèles encodeurs (encoder-model) : Comme on l’a dit, pour ces modèles, on n’implé-
mente que la partie encodeur du transformer d’origine (celui de Vaswani et al. [50]). En plus de cela, ces modèles ont une couche d’attention bidirectionnelle et sont généralement appelés auto-encodeurs (auto-encoding model). Ces modèles sont principalement bons pour les tâches de NLU (Natural Language Understanding) comme la classification, le NER (Name Entity Recognition), l’extractive question-answering,...
Dans ce groupe, les modèles les plus connus sont :
ALBERT [24],
BERT [11],
DistilBERT [43],
RoBERTA [28],
Etc.
Modèles décodeurs (decoder-models): Utilisent seulement la partie décodeur, sont auto-
regressifs et par conséquent les têtes de self-attention n’accèdent qu’aux mots précédant l’étape à laquelle elles sont (pas de regard dans le futur) comme on l’a déjà un peu mentionné. Ces modèles sont particulièrement bons pour les tâches liées fortement au NLG (Natural Language Generation).
Dans ce groupe, les modèles les plus connus sont :
Les GPT (1, 2 et 3) [41],
TransformerXL [10],
Etc.
Modèles encodeur-décodeur (sequence-to-sequence models): Ces modèles utilisent l’in-
tégralité de l’architecture des transformers et sont ainsi bons pour les tâches demandant à la fois du NLU et du NLG comme la synthèse automatique abstractive, le generative question-answering et la traduction automatique.
Ici nous pouvons particulièrement mentionner les modèles comme :
BART [25],
mBART [27],
BARThez [13],
T5 [42],
mT5 [53], • PEGASUS [54],
Etc.
II.5.3 Modèle BART pour la synthèse abstractive
Le modèle BART est comme une combinaison de BERT [11] et de GPT-2 [40, 41] en terme
d’architecture et d’objectif de pré-entraînement, avec quelques optimisations supplémentaires [25]. Pour illustration, voici une image de comparaison :
Figure II.2: Comparaison simplifiée entre BERT, GPT et BART [25]
L’image II.2 étant claire, nous pouvons illustrer les diverses corruptions que peuvent subir les données pour le pré-entraînement. L’image ci-dessous l’illustre :
Figure II.3: Transformations de bruitage expérimentées pour BART [25]
Le modèle BART est bien adapté à la tâche de synthèse abstractive. C’est celui que nous
allons privilégier (les modèles dérivés de BART principalement) pour réaliser cette tâche dans notre système.
Justification du choix de BART
Le choix de BART est dû au fait que c’est le modèle que nous avons trouvé réalisant un bon compromis poids-performances. Aussi, après quelques tests, ses résultats nous ont paru être plus intéressants. En outre, l’objectif d’entraînement utilisé pour BART nous paraît assez général pour construire un modèle de langage performant. Nous justifierons plus précisément ce choix dans le chapitre qui suit, en présentant également quelques résultats des tests.
II.6 Conception de l’architecture globale du système
Il existe un large éventail des méthodes de développement des systèmes informatiques mais, en règle générale, toutes suivent les étapes suivantes [7] :
1°) Spécifications : on définit avec précision ce que fera le système (à quoi est-il destiné?);
2°) Conception et mise en oeuvre : on conçoit et on réalise le système;
3°) Validation : on teste le système pour voir s’il correspond aux objectifs précisés dans les spécifications;
4°) Évolution : ça correspond à tout ce qui vient après la livraison du produit (versionning, maintenances,...).
Ici, on ne va pas utiliser une méthode de conception particulière. Pour pouvoir tout de même y aller méthodiquement, nous nous inspirerons de ces étapes classiquement suivies lors de la conception des systèmes informatiques.
Dans ce second chapitre, nous ne présenterons que les spécifications du système ainsi qu’une ébauche de conception avec une présentation de l’architecture globale. La suite sera traitée dans le chapitre suivant.
II.6.1 Spécifications du système
Le système devra pouvoir permettre de réaliser ce qui suit :
Synthétiser les textes qui lui sont fournis en entrée (saisis directement ou importés dans fichiers .pdf non scannés, des fichiers .docx et .txt);
Servir les synthèses directement ou à travers un fichier .pdf à télécharger;
Obtenir des synthèses produites par plusieurs algorithmes et les évaluer;
Stocker les couples document-synthèse;
Faciliter le parcours des documents en soulignant les parties saillantes;
Permettre l’affinage d’un modèle de synthèse automatique (ici nous réaliserons le fine-tuning du modèle mBART ou du modèle mT5 selon celui qui se prêtera mieux à cet affinage).
C’est cela le minimum de besoins que le système devra être capable de combler.
II.6.2 Présentation des éléments du système
L’architecture globale de notre système est un trois-tiers classique. Elle se présente comme sur la figure II.4 :
Figure II.4: Architecture globale de notre système
La figure II.4 presente l’architéture du système qui est d’une architecture 3 − tiers classique. Il y a toutefois une partie qui n’est pas ici représentée car nous voulons nous donner une grande liberté de conception à son sujet. Il s’agit en fait de l’interface d’accès à l’API (Application Programming Interface), qui permettra aux développeurs de s’authentifier et générer éventuellement un token à utiliser pour implémenter leur propres interfaces devant permettre d’utiliser les services de cette API. Il s’agit donc d’une API privée.
Cette interface permettra aussi de voir toute la documentation de l’API (pour les développeurs) pour mieux utiliser ses services.
Quant au bloc interface que nous venons de présenter sur la figure II.4, c’est en nous mettant à la place d’un développeur lambda qui exploite les services de l’API.
Notre API quant à elle, est une API REST (REpresentationnal State Transfer qui aura 4 end-points principaux dédiés à la synthèse automatique (selon les besoins d’implémentation, on pourra en insérer d’autres mais qui ne concernerons probablement pas la synthèse).
Module de synthèse extraite : ce module réalisera une synthèse en combinant divers résultats d’algorithmes de synthèse extraite. Nous prévoyons, dans un premier temps, ne l’utiliser que pour des petits documents (la taille optimale sera déterminée avec les expérimentations au chapitre suivant).
Module de synthèse abstraite : ce module donnera une synthèse abstraite en utilisant l’un des transformers affinés pour la synthèse ou bien par le module qui sera en train de s’auto-améliorer au cours de l’utilisation du système (on l’a nommé expérimental, voir la figure II.7). Comme les transformers réalisent des synthèses de documents de taille généralement limitée à environ une page, nous mettrons au point, dans cette partie, une pipeline qui nous permettra d’augmenter le nombre de pages (nous pensons à 100 pages mais les expérimentations nous permettrons de choisir une taille optimale, tenant compte surtout de la rapidité).
Module de synthèse extrait simplifié : Il s’agira d’un module qui permettra la réalisation de la synthèse mais en utilisant l’un des algorithmes de synthèse extraite implémentés (soit de manière aléatoire, soit par choix de l’utilisateur).
Module expérimental : Il s’agira d’un module de synthèse abstraite qui sera essentiellement utilisé pour la synthèse des petits documents (quelques pages). Pour ce module, nous comptons mettre au point une routine d’entraînement à partir des synthèses collectées par le système, pour améliorer au fur et à mesure les performances de ce module. Nous comptons réaliser l’entraînement par transfer learning avec les transformers mT5[53] ou mBART [27] comme base. N’ayant pas encore testé cette partie, nous serons fixé sur la méthode à utiliser ainsi que le modèle de base à choisir au chapitre suivant, après les expérimentations.
On peut aussi remarquer qu’il y a un module pre-processing dans la partie interfaces. C’est par suite du fait que, pour des raisons de performance, on devra envoyer à l’API le fichier sous un format particulier. Il faudra réaliser l’acquisition des données dans divers formats (pdf,docx,...) mais les données acquises seront envoyées dans un format plus léger à l’API (du JSON pour notre cas).
La base des données, que nous avons mentionné dans la figure II.4, a un double rôle :
1°) Le stockage des données de l’utilisateur (il s’agira en fait des identifiants des interfaces qui utiliseront l’API);
2°) Le stockage des paires document-synthèse, ainsi que l’appréciation de l’utilisateur (évaluation par les utilisateurs).
II.6.3 Architecture du module de synthèse extractive
Le module de synthèse extractive se présente comme suit :
Comme nous pouvons le voir, un traitement sera fait pour adapter les données reçues à ce qui peut être traité par le système. Ce traitement consistera à ne retenir que des symboles alphanumériques, à réaliser la tokenisation des textes (chaque token sera une phrase pour cette partie) et à affecter un identifiant unique à chaque phrase.
Après cela, les données seront invariablement passées aux algorithmes de synthèse extractive, qui générerons chacun un groupe de poids des phrases. Après cela, le module de pondération et sélection réalisera successivement ce qui suit :
Acquisition des sorties de chaque algorithme de synthèse extractive (il s’agira des dictionnaires dont les clés seront les identifiant uniques des phrases et les valeurs seront les poids affectés par l’algorithme). A chaque algorithme, on donnera un poids qu’on nommera WNomdel′algo compris entre 0 et 1, selon la confiance qu’on lui porte (la somme des poids sera égale à 1 et par défaut, tous les algorithmes pourront avoir le même poids) ;
Élimination des phrases de poids faible (avec comme seuil, la taille maximale de résumé précisée par l’utilisateur);
Réarrangement de chaque dictionnaire obtenu après expulsion des phrases non significatives (les éléments seront arrangés par ordre décroissant des poids pour chaque sortie);
Donner des propabilités aux espaces des poids de chaque dictionnaire par application d’un softmax sur chacun d’eux. Ce qui donnera, pour chaque phrase de chaque dictionnaire, un nouveau poids ωphri, avec i le numéro du dictionnaire et phr le numéro de la phrase considérée dans ce dictionnaire ;
Listage complet des éléments (leurs identifiants) de tous les dictionnaires.
Pour chaque élément de la liste globale ainsi établie, appliquer la formule suivante pour obtenir un nouveau poids :
X
W = Wi ·ωphri (II.8) j
i∈D
Avec Wj le nouveau poids affecté à la phrase ayant un identifiant global j (l’identifiant là d’origine) et D la liste des dictionnaires (les sorties de chaque algorithme);
Arranger toutes les phrases par ordre décroissant dans une unique liste et sélectionner les plus haut dans la liste jusqu’à atteindre le seuil fixé (nombre de mots fixé pour la synthèse).
Constituer une liste avec les éléments sélectionnés.
Réarranger les phrases de la liste selon leur ordre de succession dans le texte d’origine.
Constituer la synthèse extraite.
Ce qui précède constitue en fait l’algorithme que nous allons implémenter pour le module de pondération et sélection.
II.6.4 Architecture du module de synthèse abstractive
Le module de synthèse abstraite n’est pas unique. Nous implémenterons plusieurs modèles (BART, BARThez, PEGASUS, mBART ou mT5 entraîné avec nos données, ainsi que tous ceux qui nous paraîtrons utiles durant les essais); Chaque module de synthèse se présentera néanmoins comme suit :
Figure II.5: Architecture globale du système de synthèse abstractive
Comme nous pouvons le remarquer, il y a toujours un module de mise en forme initial (pre-processing) qui nous permettra en gros de supprimer tous les caractères que nous ne pourrons pas gérer. Vient ensuite le module de tokenisation (le tokenizer ou tokeniseur) [49] qui consistera ici à diviser tout le texte en ses mots constitutifs et à leur affecter des identifiants numériques. Ce sont ces identifiants qui seront fournis au modèle et transformés en vecteurs par la couche d’embedding du modèle.
Le modèle quant à lui, aura toujours une architecture pareille :
Figure II.6: Architecture interne du modèle mentionné sur la figure II.5
Il s’agit en effet de l’architecture classique d’un transformer, comme présenté sur la figure I.7 à l’exception du fait qu’ici on fait explicitement apparaître l’existence de la sortie du modèle. Ça correspond au réseau linéaire suivi d’une couche de softmax tel que présenté sur la figure
I.7. Cette partie, que nous avons nommé head est différente selon les tâches [52], c’est pourquoi nous avons voulu la mentionner explicitement car, selon le besoin, on peut la modifier.
Nous devons finalement mentionner que les modules de tokenisation (nommés tokenizer en anglais) dépendront explicitement des modèles utilisés.
II.6.5 Présentation des interfaces
La partie interface nous permettra juste d’utiliser le service que nous aurons élaboré et d’évaluer par la même occasion ses performances. Elle n’est pas donc cruciale. Toutefois, voici une ébauche d’interface que nous comptons utiliser pour exploiter le service :
Figure II.7: Ébauche d’interface
Avec cette interface, on a une idée générale de la manière dont nous comptons servir le système aux utilisateurs.
II.7. CONCLUSION PARTIELLE II.7 Conclusion partielle
Dans cette partie, nous venons de présenter le résumé automatique des textes, tout en réalisant une vue d’ensemble des méthodes utilisées dans la littérature à cet effet. Nous avons mentionné que la classification des résumés que nous utiliserons sera celle les départageant en abstractive summarization et extractive summarization et que, pour notre cas, il s’agira de réaliser un système de résumé mono-document, avec une partie abstractive et une autre extractive, générant un résumé générique pour des documents de type narratif et argumentatifs.
Nous avons également listé les divers modèles de transformer adaptés à la tâche de synthèse automatique abstraite, et nous avons mentionné devoir privilégier les modèles du type BART pour des raisons qui serons précisées dans le chapitre suivant.
Enfin, nous avons réalisé la conception préliminaire du système tout en précisant que, concernant l’API, la BD (Base des Données) et les interfaces, les détails d’implémentation utiles seront précisés dans la partie dédiée à la conception proprement dite et aux tests, c’est-à-dire au chapitre suivant. Le chapitre suivant nous permettra donc finalement de préciser, réaliser et tester les méthodes que nous avons jusque-là adoptées pour la mise au point de notre système de synthèse automatique des documents.
GENERALEMENT
Place les références là où il le faut STP. Même si c’est une interpretation personnelle, elle tire la source quelque part.
Verifie aussi tous les commentaires que j’ai placé aux différents niveaux du texte
Chapitre III
Conception finale, réalisation et tests
Conclusion générale
Bibliographie
D. Adams. Combining State-of-the-art Models for Multi-document Summarization Using Maximal Marginal Relevance. University of Lethbridge, 2021.
Stergos D. Afantenos, Vangelis Karkaletsis, and Panagiotis Stamatopoulos. Summarization from medical documents: A survey. CoRR, abs/cs/0504061, 2005.
Dzmitry Bahdanau, Kyunghyun Cho, and Yoshua Bengio. Neural machine translation by jointly learning to align and translate. arXiv preprint arXiv:1409.0473, 2014.
Catherine Benincasa, Adena Calden, Emily Hanlon, Matthew Kindzerske, Kody Law, Eddery Lam, John Rhoades, Ishani Roy, Michael Satz, Eric Valentine, et al. Page rank algorithm. Department of Mathematics and Statics, University of Massachusetts, Amherst, Research, 2006.
Michael W Berry and Jacob Kogan. Text mining: applications and theory. John Wiley & Sons, 2010.
Piotr Bojanowski, Edouard Grave, Armand Joulin, and Tomas Mikolov. Enriching word vectors with subword information. Transactions of the association for computational linguistics, 5:135–146, 2017.
Boudjemaa Boudaa. Cours de génie logiciel (avec exercices résolus). Université IbnKhaldoun-Tiaret, Algérie, 02 2020.
Sergey Brin and Lawrence Page. The anatomy of a large-scale hypertextual web search engine. Computer networks and ISDN systems, 30(1-7):107–117, 1998.
O. Carton and D. Perrin. Langages formels : calculabilité et complexité : cours et exercices corrigés. Vuibert, 2014.
Zihang Dai, Zhilin Yang, Yiming Yang, Jaime Carbonell, Quoc V Le, and Ruslan Salakhutdinov. Transformer-xl: Attentive language models beyond a fixed-length context. arXiv preprint arXiv:1901.02860, 2019.
Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. Bert: Pretraining of deep bidirectional transformers for language understanding. arXiv preprint arXiv:1810.04805, 2018.
Youcef Djeriri. Les Réseaux de Neurones Artificiels. 09 2017.
Moussa Kamal Eddine, Antoine J-P Tixier, and Michalis Vazirgiannis. Barthez:
a skilled pretrained french sequence-to-sequence model. arXiv preprint arXiv:2010.12321, 2020.
Günes Erkan and Dragomir R Radev. Lexrank: Graph-based lexical centrality as salience in text summarization. Journal of artificial intelligence research, 22:457–479, 2004.
Thushan Ganegedara. Natural Language Processing with TensorFlow: Teach language to machines using Python’s deep learning library. Packt Publishing Ltd, 2018.
A. Géron. Deep Learning avec Keras et TensorFlow: Mise en oeuvre et cas concrets. Dunod, 2020.
M. Hagiwara. Real-World Natural Language Processing: Practical Applications with Deep Learning. Manning, 2021.
Patrick Hairy. Les réseaux de neurones récurrents pour les séries temporelles, Septembre 2021.
Nitin Indurkhya and Fred J Damerau. Handbook of natural language processing.
Chapman and Hall/CRC, 2010.
D. Jurafsky and J.H. Martin. Speech and Language Processing. Always learning.
Pearson, 2014.
SYNTHESE AUTOMATIQUE DES TEXTES
Min-Yen Kan, Kathleen R. McKeown, and Judith L. Klavans. Applying natural language generation to indicative summarization. CoRR, cs.CL/0107019, 2001.
Akshay Kulkarni and Adarsha Shivananda. Natural language processing recipes. Springer, 2019.
S. Lamsiyah, S. Ouatik El Alaoui, and B Espinasse. Résumé automatique guidé de textes: Etat de l’art et perspectives (guided summarization : State-of-the-art and perspectives ). In Actes de la Conférence TALN. Volume 2 - Démonstrations, articles des Rencontres Jeunes Chercheurs, ateliers DeFT, pages 55–72, Rennes, France, 5 2018. ATALA.
Zhenzhong Lan, Mingda Chen, Sebastian Goodman, Kevin Gimpel, Piyush Sharma, and Radu Soricut. Albert: A lite bert for self-supervised learning of language representations. arXiv preprint arXiv:1909.11942, 2019.
Mike Lewis, Yinhan Liu, Naman Goyal, Marjan Ghazvininejad, Abdelrahman Mohamed, Omer Levy, Ves Stoyanov, and Luke Zettlemoyer. Bart: Denoising sequence-to-sequence pre-training for natural language generation, translation, and comprehension. arXiv preprint arXiv:1910.13461, 2019.
Chin-Yew Lin. Training a selection function for extraction. In CIKM ’99, 1999.
Yinhan Liu, Jiatao Gu, Naman Goyal, Xian Li, Sergey Edunov, Marjan Ghazvininejad, Mike Lewis, and Luke Zettlemoyer. Multilingual denoising pre-training for neural machine translation. Transactions of the Association for Computational Linguistics, 8:726–742, 2020.
Yinhan Liu, Myle Ott, Naman Goyal, Jingfei Du, Mandar Joshi, Danqi Chen, Omer Levy, Mike Lewis, Luke Zettlemoyer, and Veselin Stoyanov. Roberta: A robustly optimized bert pretraining approach. arXiv preprint arXiv:1907.11692, 2019.
H. P. Luhn. The automatic creation of literature abstracts. IBM Journal of Research and Development, 2(2):159–165, 1958.
Minh-Thang Luong, Hieu Pham, and Christopher D Manning. Effective approaches to attention-based neural machine translation. arXiv preprint arXiv:1508.04025, 2015.
Mohamed Hedi Maaloul. Approche hybride pour le résumé automatique de textes. Application à la langue arabe. Theses, Université de Provence - Aix-Marseille I, December 2012. Date Soutenance 18-12-2012.
Inderjeet Mani. Automatic summarization, volume 3. John Benjamins Publishing, 2001.
Rada Mihalcea and Paul Tarau. Textrank: Bringing order into text. In Proceedings of the 2004 conference on empirical methods in natural language processing, pages 404– 411, 2004.
Tomas Mikolov, Kai Chen, Greg Corrado, and Jeffrey Dean. Efficient estimation of word representations in vector space. arXiv preprint arXiv:1301.3781, 2013.
Tomas Mikolov, Ilya Sutskever, Kai Chen, Greg S Corrado, and Jeff Dean. Distributed representations of words and phrases and their compositionality. Advances in neural information processing systems, 26, 2013.
Maali Mnasri. Résumé automatique multi-document dynamique. Theses, Université Paris-Saclay, September 2018.
Marie-Francine Moens. Automatic indexing and abstracting of document texts. Computational Linguistics, 27(1):149–149, 2001.
Ani Nenkova and Rebecca Passonneau. Evaluating content selection in summarization: The pyramid method. In HLT-NAACL 2004 - Human Language Technology Conference of the North American Chapter of the Association for Computational Linguistics, Proceedings of the Main Conference, HLT-NAACL 2004 Human Language Technology Conference of the North American Chapter of the Association for Computational Linguistics, Proceedings of the Main Conference, pages 145–152. Association for Computational Linguistics (ACL), 2004.
SYNTHESE AUTOMATIQUE DES TEXTES
Jeffrey Pennington, Richard Socher, and Christopher D Manning. Glove: Global vectors for word representation. In Proceedings of the 2014 conference on empirical methods in natural language processing (EMNLP), pages 1532–1543, 2014.
Alec Radford, Karthik Narasimhan, Tim Salimans, Ilya Sutskever, et al. Improving language understanding by generative pre-training. 2018.
Alec Radford, Jeffrey Wu, Rewon Child, David Luan, Dario Amodei, Ilya Sutskever, et al. Language models are unsupervised multitask learners. OpenAI blog, 1(8):9, 2019.
Colin Raffel, Noam Shazeer, Adam Roberts, Katherine Lee, Sharan Narang, Michael Matena, Yanqi Zhou, Wei Li, Peter J Liu, et al. Exploring the limits of transfer learning with a unified text-to-text transformer. J. Mach. Learn. Res., 21(140):1–67, 2020.
Victor Sanh, Lysandre Debut, Julien Chaumond, and Thomas Wolf. Distilbert, a distilled version of bert: smaller, faster, cheaper and lighter. arXiv preprint arXiv:1910.01108, 2019.
D. Sarkar. Text Analytics with Python: A Practitioner’s Guide to Natural Language Processing. Apress, 2019.
Barry Schiffman, Ani Nenkova, and Kathleen McKeown. Experiments in multidocument summarization. In Proceedings of the Second International Conference on Human Language Technology Research, HLT ’02, page 52–58, San Francisco, CA, USA, 2002. Morgan Kaufmann Publishers Inc.
S. Srivastava. Natural Language Processing with Python: Hands-On Labs to Apply Deep Learning Architectures to NLP Applications. Independently Published, 2021.
Brahim Tlili. Identification et commande des systèmes non linéaires : Utilisation des modèles de type NARMA. Theses, Ecole Nationale d’Ingénieurs de Tunis, July 2008.
Juan-Manuel Torres-Moreno. Automatic text summarization. John Wiley & Sons, 2014.
Lewis Tunstall, Leandro von Werra, and Thomas Wolf. Natural language processing with transformers. " O’Reilly Media, Inc.", 2022.
Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, Łukasz Kaiser, and Illia Polosukhin. Attention is all you need. Advances in neural information processing systems, 30, 2017.
Lilian Weng. Les réseaux de neurones récurrents pour les séries temporelles, Avril 2020.
Thomas Wolf, Lysandre Debut, Victor Sanh, Julien Chaumond, Clement Delangue, Anthony Moi, Pierric Cistac, Tim Rault, Rémi Louf, Morgan Funtowicz, et al. Transformers: State-of-the-art natural language processing. In Proceedings of the 2020 conference on empirical methods in natural language processing: system demonstrations, pages 38–45, 2020.
Linting Xue, Noah Constant, Adam Roberts, Mihir Kale, Rami Al-Rfou, Aditya Siddhant, Aditya Barua, and Colin Raffel. mt5: A massively multilingual pre-trained text-to-text transformer. arXiv preprint arXiv:2010.11934, 2020.
Jingqing Zhang, Yao Zhao, Mohammad Saleh, and Peter Liu. Pegasus: Pretraining with extracted gap-sentences for abstractive summarization. In International Conference on Machine Learning, pages 11328–11339. PMLR, 2020.
Jan Žižka, František Dařena, and Arnošt Svoboda. Text mining with machine learning:
principles and techniques. CRC Press, 2019.
Annexes
68 |
Après ses études de droit à Londres, Gandhi est retourné dans son pays mais les affaires juridiques n’y tournent pas très bien pour lui.
Il entreprend alors, pendant les vingt années qui suivent, un combat de résistance non violente et de non-coopération face aux autorités d’Afrique du Sud. Influsencé par l’écrivain américain Henry David Thoreau (1817-1862), il développe en 1909 ses théories du combat par la non-violence et la désobéissance civile de masse, la satyagraha, dans un ouvrage intitulé "Hind Swaraj".
L’Afrique du Sud a été à la fois comme un terrain de croissance, de mûrissement, mais aussi de mise en pratique préparatoire des théories de non violence qu’il mettait au point.
L’Inde accède finalement à l’indépendance le 15 Août 1947 malgré sa partition en Inde et Pakistan (partition à laquelle Gandhi s’oppose de toutes ses forces mais est obligé de l’accepter pour garantir la paix intérieure).
Les combats non violents de Gandhi pour la défense des droits de l’homme eurent une influence importante sur les mouvements de libération et de défense des droits civiques dans le monde entier, notamment pour les noirs en Amérique du Nord avec Martin Luther King.
Ce plan est adopté, ce qui mène à une lutte de sept ans au cours de laquelle des milliers d’Indiens et de Chinois sont emprisonnés (incluant Gandhi lui-même en de nombreuses occasions), fouettés ou même abattus pour avoir fait grève, refusé de s’enregistrer, brûlé leur carte d’enregistrement ou avoir résisté de manière non violente.
C’est durant cette période que Gandhi entame une correspondance avec Léon Tolstoï, où ils échangent leurs vues sur la non-violence et la politique globale jusqu’à la mort de l’écrivain russe.
Comme déjà mentionné, Gandhi a toujours été une source d’inspiration sans précédent pour tout adepte de la non violence et l’écho de sa pensée est toujours présent aujourd’hui.
Bien que sa pensée ne s’applique explicitement ni directement par ceux qui se réclament de lui, c’est une icône mondiale centrale dans la lutte non violente. | TP N°1 D’EDUCATION A LA PAIX
Le Mahatma GANDHI
KRAME KADURHA David (Matricule : 14167)
Tech 1 - Génie Informatique
Le 21 Août 2022
0.1 Introduction
Le Mahatma Gandhi ! Qui ne connaît pas ce grand homme ? Sa pensée est connue et citée partout au monde. Plus d’un sont les hommes, et pas des moindres, qui se réclament de sa pensée. Il demeure une icône centrale de la non-violence et en est sans doute un parfait pionnier.
La force de sa personnalité et des idées qu’il défend réside, non seulement en leur beauté mais surtout en leur pouvoir transformateur. Sa pratique d’une philosophie constamment mise à l’épreuve le distingue des idéalistes purs. Mais sa pensée toujours justifiée par des grands idéaux, le rapproche encore paradoxalement des idéalistes modérés.
Son impact sur le monde a largement dépassé sa seule terre natale.
0.2 Brève biographie de Gandhi [1, 2]
Mohandas Karamchand Gandhi est un dirigeant politique indien, important guide spirituel et icône de la non-violence. Né à Porbandar (Gujarat) le 2 octobre 1869 et mort assassiné à Delhi le 30 janvier 1948, il est communément connu et appelé en Inde et dans le monde comme Mahatma Gandhi (grande âme). Toutefois, il refusera le titre de Mahatma durant toute sa vie.
Comme il a été élevé dans les valeurs hindouistes, il apprend à connaître les autres religions et la tolérance envers elles. D’ailleurs, la Baghavad-Gita est un texte de l’hindouisme qui aura une très grande influence sur lui. Suivant les coutumes de sa caste, il s’est marie à l’âge de 14 ans avec Kasturbai qui restera son épouse jusqu’à sa mort en 1942.
Après ses études de droit à Londres, Gandhi est retourné dans son pays mais les affaires juridiques n’y tournent pas très bien pour lui. En 1893, il est employé comme conseiller juridique pour une société indienne en Afrique du Sud. Il y découvre comment les noirs ainsi que les indiens y sont privés de nombreux droits civiques et sont victimes de l’intolérance et du racisme. Il entreprend alors, pendant les vingt années qui suivent, un combat de résistance non violente et de non-coopération face aux autorités d’Afrique du Sud. Influsencé par l’écrivain américain Henry David Thoreau (1817-1862), il développe en 1909 ses théories du combat par la non-violence et la désobéissance civile de masse, la satyagraha, dans un ouvrage intitulé "Hind Swaraj".
L’Afrique du Sud a été à la fois comme un terrain de croissance, de mûrissement, mais aussi de mise en pratique préparatoire des théories de non violence qu’il mettait au point. Ayant obtenu des avancées significatives en 1914 de la part du gouvernement sud-africain, Gandhi retourne en Inde, qu’il parcourt pour mieux la connaître. Après la Première Guerre mondiale, Gandhi, vite rejoint par des millions d’Indiens, s’oppose aux
Britanniques en organisant la résistance civique et des campagnes de non-coopération (boycott des autorités, des tribunaux et des écoles,...). Gandhi conduisit ensuite aussi la marche du sel, célèbre opposition à la taxe sur le sel, et pendant la seconde guerre mondiale, refusant de soutenir les Britanniques sans la contrepartie d’indépendance immédiate, il lance un appel pour que ceux-ci quittent l’Inde : "Quit India". Il s’ensuit la plus radicale révolte pour l’indépendance et de terribles répressions. Il fut emprisonné plusieurs fois en Afrique du Sud et en Inde pour ses activités ; il passa en tout six ans en prison.
L’Inde accède finalement à l’indépendance le 15 Août 1947 malgré sa partition en Inde et Pakistan (partition à laquelle Gandhi s’oppose de toutes ses forces mais est obligé de l’accepter pour garantir la paix intérieure). Il ne peut empêcher le déchaînement de violence entre les musulmans et les hindous et meurt assassiné le 30 janvier 1948 par un fanatique hindou.
Les combats non violents de Gandhi pour la défense des droits de l’homme eurent une influence importante sur les mouvements de libération et de défense des droits civiques dans le monde entier, notamment pour les noirs en Amérique du Nord avec Martin Luther King. Gandhi est reconnu comme le Père de la Nation en Inde, où son anniversaire est une fête nationale. Cette date a également été déclarée « Journée internationale de la non-violence » par l’Assemblée générale des Nations unies en 2007.
0.3 Premiers pas dans la non violence [1, 3]
Lorsque Gandhi débarqua en Afrique du Sud, au mois de mai 1893, il avait uniquement pour mission de gagner un procès, de se procurer un peu d’argent et, peut-être, en fin de compte, de commencer sa carrière : « Je tente ma chance dans l’Afrique du Sud. »
Le procès exigeait la présence de Gandhi à Prétoria, capitale du Transvaal. On acheta pour lui à Durban un billet de première classe et il prit le train pour un voyage de nuit. A Maritzbourg, un blanc entra dans le compartiment et, voyant 1’intrus à peau brune, se retira pour reparaître un moment plus tard avec deux employés du chemin de fer qui ordonnèrent à Gandhi de déménager dans le fourgon. Gandhi protesta en disant qu’il avait un billet de première. Cela ne fit aucun effet. Il fallait qu’il sortît. Il refusa et resta. Alors on alla chercher un policier qui le jeta dehors avec ses bagages.
Gandhi aurait pu rentrer dans le train et trouver une place dans le wagon de troisième. Il préféra rester dans la salle d’attente. Il faisait froid dans ces montagnes. Son pardessus était dans sa valise que retenaient les gens de la gare; par peur d’être de nouveau injurié, il n’alla pas le réclamer. Il resta là assis toute la nuit, grelottant et dépité.
Devait-il retourner aux Indes? Cet épisode était le reflet d’une situation bien plus importante. Fallait-il en prendre son parti ou simplement chercher une réparation pour son injure personnelle, terminer le procès et retourner chez lui dans l’Inde? Il s’était heurté au terrible fléau du préjugé de la couleur.
Son devoir était de le combattre. Fuir en abandonnant ses compatriotes dans cette mauvaise situation aurait été lâche.
Bien des années après, aux Indes, le Dr John R. Mott, un missionnaire chrétien, demanda à Gandhi : « Quelles ont été les expériences les plus décisives de toute votre vie? » En réponse, Gandhi lui raconta ce qui s’était passé cette nuit-là à la gare de Maritzbourg. Au cours de cette nuit glaciale à Maritzbourg, le germe de la protestation sociale était né en Gandhi.
Mais il ne fit rien encore. Il poursuivit son travail à Prétoria. Une fois son procès terminé, Gandhi retourna à Durban et se prépara à prendre le bateau pour les Indes. Il avait séjourné dans l’Afrique du Sud douze mois environ. Avant son départ, ses associés donnèrent en son honneur une fête d’adieu. Pendant cette fête quelqu’un lui remit le Natal Mercury du jour, où il découvrit un bref écho concernant une loi proposée par le gouvernement de Natal en vue de priver les Indiens du droit d’élire les membres du corps législatif. Gandhi comprit la nécessité de résister à cette tendance. Ses amis y étaient disposés, mais sans lui, disaient-ils, « ils étaient ignorants, incapables et sans force ». Il consentit à rester un mois de plus. Il resta vingt ans, luttant pour la défense des droits des Indiens. Il remporta la victoire.
Au début de la Deuxième Guerre des Boers, en 1899, Gandhi déclare que les Indiens doivent soutenir l’effort de guerre s’ils veulent légitimer leur demande de citoyenneté. Il organise un corps d’ambulanciers volontaires de 300 Indiens libres et de 800 coolies indiens, appelé le Indian Ambulance Corps, une des rares unités médicales qui secouraient les Sud-Africains noirs. Gandhi lui-même est porteur de civière à la bataille de Spion Kop. Il est décoré à cette occasion. Malgré tout, à la fin de la guerre, la situation des Indiens ne s’améliore pas, et continue même à se détériorer.
En 1906, le gouvernement du Transvaal vote une nouvelle loi demandant l’enregistrement de toute la population indienne. Lors d’une rencontre de protestation à Johannesbourg le 11 septembre 1906, Gandhi met en pratique pour la première fois sa méthodologie du satyagraha (attachement à la vérité), ou protestation non violente, dont il avait exposé la théorie en 1904. Il appelle ses compagnons indiens à défier la nouvelle loi et à subir les punitions qui en résulteraient au lieu de résister par la violence. Il s’inspire en cela des préceptes, de son ami indien Shrimad Rajchandra, un ascète jaïn avec lequel il correspond jusqu’à la mort de celui-ci, et considéré comme son premier maître spirituel. Ce plan est adopté, ce qui mène à une lutte de sept ans au cours de laquelle des milliers d’Indiens et de Chinois sont emprisonnés (incluant Gandhi lui-même en de nombreuses occasions), fouettés ou même abattus pour avoir fait grève, refusé de s’enregistrer, brûlé leur carte d’enregistrement ou avoir résisté de manière non violente. C’est durant cette période que Gandhi entame une correspondance avec Léon Tolstoï, où ils échangent leurs vues sur la non-violence et la politique globale jusqu’à la mort de l’écrivain russe. La désobéissance civile culmine en 1913 avec une grève des mineurs et la marche des femmes indiennes.
Bien que le gouvernement sud-africain réprime les manifestants indiens avec succès, l’opinion publique réagit violemment aux méthodes extrêmement dures employées contre les manifestants asiatiques pacifiques. Finalement le général Jan Christiaan Smuts est forcé de négocier un compromis avec Gandhi. Les mariages non chrétiens redeviennent légaux et une taxe de trois livres qui représentait six mois de salaire, imposée aux Indiens qui voulaient devenir des travailleurs libres (c’est-à-dire les coolies), est abolie. C’étaient ses débuts dans la lutte non violente. L’Afrique du sud a servi de premier plateau d’application des principes qui mûrissaient en lui.
0.4 Approche de la lutte non violente [4, 5]
La puissance du Mahatma prenait racine dans l’action. Il ne demandait jamais à quiconque de faire quoi que ce soit qu’il ne faisait pas lui-même. Il ne faisait que ce qu’il croyait devoir faire. Les exemples sont nombreux : la marche du sel, le rouet, le satyagraha, la destruction des vêtement de style européen, la libération des femmes et des intouchables... Il entraînait des millions de personnes dans son action.
Il ne prêchait pas, il agissait, il faisait ce qu’il croyait devoir faire et les foules le suivaient par milliers, par million ou par centaines de millions.
La pensée de Gandhi n’émerge pas de manière spontanée. Elle se nourrit notamment des ouvrages de Henry David Thoreau, de Léon Tolstoï ou encore de John Ruskin.
Gandhi ne peut que se reconnaître dans l’expérience de Thoreau, incarcéré parce qu’il refusait de payer tout impôt à un État esclavagiste et portant la guerre au Mexique. Il reprend à son compte l’idée de désobéissance civile, laquelle résonne avec les moyens de lutte qu’il adopte en Afrique du Sud pendant le combat contre les lois sur l’immigration. Il la transforme aussi. Non sans grandes difficultés, il cherche à en faire une pratique collective. Il désire, en outre, la disjoindre absolument de toute violence, alors que l’écrivain américain, Thoreau, sans être un apôtre de la violence, n’hésitait aucunement à justifier son usage.
Sur cette question, c’est l’influence de Tolstoï que l’on perçoit. Ne laissant planer aucun doute à ce propos, Gandhi affirme : « Lorsque je suis allé en Angleterre, j’étais un défenseur de la violence, je croyais en elle, et aucunement en la non-violence. Mais après que j’ai lu Le Royaume de Dieu est en vous de Tolstoï, cette absence de foi en la nonviolence s’est volatilisée. » En 1909, les deux hommes échangent quelques lettres. Dans la dernière de celles-ci, le romancier russe offre une véritable consécration à l’entreprise de son correspondant : « Votre activité au Transvaal (Afrique du Sud), pays qui semble être aux confins de la Terre, est une réalisation centrale, l’accomplissement le plus important parmi tous ceux qui ont actuellement lieu dans le monde. » Quelque temps plus tard, Gandhi baptisera « ferme Tolstoï » son second projet de vie communautaire.
On en arrive à Ruskin. Unto This Last est pour Gandhi une révélation. L’ouvrage le pousse à quitter la ville pour la campagne. En 1904, avec son ami Hermann Kallenbach, il acquiert à cette fin plusieurs hectares de terrain près de Durban et crée la communauté de Phoenix. Il s’agit là de faire l’expérience d’une vie collective où la simplicité règne. Les positions que chacun occupe au sein de la société doivent s’effacer, le travail agricole et artisanal doit acquérir une place centrale. Les locaux d’Indian Opinion sont aussi installés à cet endroit. Au fil des textes, on verra le choix d’un tel mode de vie se joindre à l’argumentaire sur le combat non violent ; il sera présenté comme son aspect constructif.
Ces auteurs, Gandhi ne se contente pas de les lire : il étaie ses arguments en les citant abondamment et traduit certaines de leurs œuvres en gujarati.
La traduction, chez Gandhi, n’est pas simplement une pratique textuelle, c’est aussi l’une des opérations fondamentales grâce auxquelles les concepts s’affinent et la pensée chemine. Pour qualifier la lutte qu’il invite à mener en Afrique du Sud, il parle d’abord de « résistance passive ». Mais l’expression, selon lui trop étriquée, a des connotations ambiguës : elle semble désigner « l’arme des faibles ». Invoquer, à l’instar de Thoreau, la « désobéissance civile » s’avère plus pertinent. Une telle appellation, néanmoins, malgré le génie de son auteur, ne suffit pas à décrire toute la portée de la révolte en cours. Comme « résistance passive », en outre, elle provient de la langue des colons. Si Gandhi utilise abondamment l’anglais, c’est à son grand dam ! Le respect de sa langue maternelle et de la pensée qui s’y déploie lui commande de ne pas employer de termes qui ne s’y laisseraient traduire. Gandhi organise donc en 1907, prix à la clef, un concours dans lequel il invite à trouver des équivalents à « résistance passive », « désobéissance civile » et leurs dérivés. L’appel est lancé, en gujarati, dans Indian Opinion. Avec sa précision de juriste, Gandhi commente l’ensemble des propositions qui lui sont faites, et n’en retient qu’une : la sienne. Satyagraha [être arrimé à la vérité], ainsi seront condensés en un mot les multiples aspects de la lutte non violente qu’il entend mener. Ironie de l’histoire, celui-là sonnera si juste à ses oreilles que fréquemment, lorsqu’il s’exprimera en anglais, il le restituera tel quel. Il en viendra même à distinguer satyagraha et désobéissance civile, invitant à imaginer le premier comme un arbre et la seconde comme l’une de ses multiples branches.
En bref donc, par satyagraha on entend le refus de se soumettre à une loi, un règlement ou aux autorités, tout en menant un combat et une action pacifiques. Le but d’une « action de satyagraha » est de vaincre l’injustice et de se libérer de l’oppresseur. L’idéologie non violente de Gandhi revient à rejeter tout ce qui détruit la personne humaine. Pour ce faire, elle emprunte plusieurs voies : la vérité, la justice, l’amour et le sacrifice de soi. Cette forme de résistance a été instaurée par Gandhi afin de lutter pour la libération de son peuple face à la couronne britannique et de la diaspora indienne, victime d’apartheid, en Afrique du Sud. Gandhi perçoit la lutte armée comme un acte de barbarie car celle-ci utilise la force des armes afin de faire taire l’adversaire ou de lui imposer son point de vue. Cause de souffrances et de nuisances, la violence est l’expression du mal. Elle entraîne une réplique de la part de celui qui la subit, s’engage alors un cycle infernal de violences successives. A l’inverse, la non-violence prônée par le Mahatma Gandhi est l’absence totale de malveillance à l’égard de tout ce qui vit. Par sa stratégie, Gandhi propose une autre façon de résoudre les conflits.
Pourtant l’homme accorde aujourd’hui encore une plus grande confiance dans la lutte armée. Peut-on au contraire considérer avec Gandhi que la non-violence est une forme de lutte plus efficace que la lutte armée ? Selon Gandhi, la non-violence est préférable à la lutte armée évidemment car toute violence, de quelque nature qu’elle soit, est contraire à la vérité.
0.5 Retombées sur le plan politique et social [6]
L’importance et l’influence de Gandhi sur le monde contemporain ne font aucun doute. Il est parmi les personnes ayant marqué le XXe siècle et cette influence ne s’est pas tarie avec le temps. Il s’agit d’une pensée riche et complexe qui n’a pas encore été totalement épuisée malgré les très nombreux commentaires dont elle n’a cessé de faire l’objet.
Si l’on considère Gandhi comme l’homme qui a mené le pays à l’indépendance et voulait proposer un mode original de développement du pays, force est de déplorer un bilan plus que négatif. La condamnation à mort et l’exécution de ses assassins constituaient en elles-mêmes les preuves d’un rejet de ses idées. Au sens strict, l’Inde n’a adopté aucune des options politiques, économiques et sociales propres à la pensée de Gandhi : si l’on s’en tient à ce constat, on peut légitimement parler d’échec. Néanmoins, de son vivant, il a énormément réussi. De l’abolition des lois ségrégationnistes à l’égard des indiens en Afrique du Sud à l’indépendance de son pays, en passant par l’obtention d’une adoption unanime de ses vues, Gandhi a énormément aidé son peuple et l’humanité en général, par l’espoir qu’il fit renaître auprès des opprimés.
La pensée de Ganghi est une inépuisable source de réflexion pour des millions de gens et, parmi ces derniers, de très nombreuses personnalités de toute sorte, qu’elles soient activistes, philosophes voire politiques. Parmi ces derniers, une figure vient immédiatement à l’esprit dont l’action et la personnalité furent inlassablement associées à Gandhi. Aux États-Unis, en effet, Martin Luther King est considéré comme une personnalité de premier plan et la pensée gandhienne est très présente dans son approche, justifiée aussi par les évangiles. Il fut impliqué dans le mouvement d’émancipation des noirs américains et y joua un rôle remarquable. On peut également évoquer Nelson Mandela, une autre grande figure de la non violence et de la libération des peuples. Ainsi, l’héritage de Gandhi n’est pas moindre.
Une autre grande figure, et pas des moindres, inspiré fortement de la pensée gandienne est léconomiste Ernst Friedrich Schumacher. Selon Schumacher, l’économie doit se plier aux besoins de la nation et le libéralisme n’est pas adapté aux pays en développement. Elle doit aussi tenir compte de l’ensemble des ressources de la planète et c’est ainsi qu’il fut un des premiers à parler de « développement durable », concept qui fait florès aujourd’hui. Gandhi, poursuit-il, proposait trois remèdes à la maladie de l’économie : taille réduite (smallness), simplicité et non-violence. Et il prend pour autre fondement ce principe énoncé par Gandhi lui-même : « La Terre fournit assez pour satisfaire les besoins de chaque homme, mais pas pour l’avidité de chacun ». C’est encore Gandhi qui considérait qu’il fallait privilégier la production pour les masses davantage que la production de masse. Schumacher montre surtout que les principes gandhiens de l’économie fondent les besoins de l’économie moderne pour un développement durable. Il faut, par exemple, recentrer le transport et la distribution sur le local pour éviter des coûts humains et environnementaux excessifs. Comme déjà mentionné, Gandhi a toujours été une source d’inspiration sans précédent pour tout adepte de la non violence et l’écho de sa pensée est toujours présent aujourd’hui. Bien que sa pensée ne s’applique explicitement ni directement par ceux qui se réclament de lui, c’est une icône mondiale centrale dans la lutte non violente.
0.6 Conclusion
La pensée de Gandhi est très profonde et ne se limite pas à l’aspect pratique qui l’a accompagnée. En fait, au-delà d’être une pensée en mouvement, une pensée mise directement en pratique par son auteur, la pensée gandhienne est tout d’abord une idéologie forte. Cette pensée tient beaucoup plus compte de la source profonde des principes véhiculées que de leur mise en pratique qui peut être victime des aléas de la vie. Toute la pensée de Gandhi tourne autour de la vérité. Il dit d’ailleurs que, s’il devait choisir entre non-violence et vérité, il choisirait cette dernière en lieu et place de celle-là [5]. C’est en ce sens que, paradoxalement, bien que s’étant réclamé inspiré de l’hindouisme, Gandhi peut être considéré comme un disciple directe de la pensée de Jésus.
Bibliographie
Wikipedia.org. https://fr.wikipedia.org/wiki/Gandhi, 2022.
La toupie.org. https://www.toupie.org/Biographies/Gandhi.htm, 2022.
Louis Fischer. La Vie du Mahâtma Gandhi. Paris, 1983.
Ridoré Cécile Woodlyne et Vincent Nyrkah Brice Arnaud Hello, Dieumercy Junie Edwina. L’idéologie non violente de gandhi, 2014.
Mohandas Karamchand Gandhi, Krishna Kripalani, Guy Vogelweith, Sarvepalli Radhakrishnan, and Sarvepalli Radhakrishnan. La voie de la non-violence. Gallimard, 2004.
Robert Deliège. https://books.openedition.org/septentrion/13949, 2022. |
Contrat qui consiste à faire avancer les connaissances.
AMOS COMENIUS (père sprituel de l'UNESCO) : " Nous voulons que tous les êtres humains, ensemble
parfaitement et formés non seulement sur tel ou tel point, mais également sur tout ce qui permet
Le Galilée de l'éducation comme on le surnommait s'est posé une question à la fois très simple et
Il s'était demandé en effet : "Comment faire en sorte que tous les hommes
Comment offrir à tous un panorama complet de ce que les hommes savent ?
" C'est de l'ignorance, et de l'ignorance seule que l'homme doit se libérer. | La science a un contrat avec la société. Contrat qui consiste à faire avancer les connaissances.
AMOS COMENIUS (père sprituel de l'UNESCO) : " Nous voulons que tous les êtres humains, ensemble
ou pris isolément, jeunes ou vieux, riches ou pauvres, nobles ou roturiers, hommes ou femmes,
puissent pleinement s'instruire et devenir des êtres achevés. Nous voulons qu'ils soient instruits
parfaitement et formés non seulement sur tel ou tel point, mais également sur tout ce qui permet
à l'homme de réaliser intégralement son essence.
D'apprendre à connaître la vérité, à ne pas être trompé par des faux semblants. A aimer le bien,
à ne pas être séduit par le mal, à faire ce qu'on doit faire et à se garder de ce qu'il faut éviter.
A parler sagement de tout, avec tout le monde. Enfin, à toujours traiter les choses, les hommes et
Dieu avec prudence et non à la légère. Et à ne jamais s'écarter de son but, le bonheur ".
Le Galilée de l'éducation comme on le surnommait s'est posé une question à la fois très simple et
très révolutionnaire. Il s'était demandé en effet : "Comment faire en sorte que tous les hommes
accèdent à tout le savoir disponible ?"
Comment offrir à tous un panorama complet de ce que les hommes savent ?
" C'est de l'ignorance, et de l'ignorance seule que l'homme doit se libérer. " Disait .... ???
Ce qui fait écho à la Bible (mon peuple périt par manque de connaissance...)
Nelson MANDELA : " L'éducation est la plus grande puissance transformatrice de la société". |
Des livres aux SMS, en passant par diverses pages web, les données textuelles sont partout.
Néanmoins, des transformations adéquates permettent de prendre en compte tout type de donnée, et le texte n’est pas exclu.
C’est ainsi que, des avancées récentes en traitement automatique du langage naturel ont prouvé que le traitement du texte par l’ordinateur peut être raffiné autant qu’on veut, dans les limites du possible.
Cela est en fait une bonne nouvelle car, il s’avère que des nombreux sujets restent fermés à la majorité des gens suite au manque de temps, au regard de la quantité d’informations à consulter pour espérer avoir ne fusse qu’une lueur d’idée du domaine ou du sujet qu’on veut rapidement explorer.
Comme présenté dans la section précédente, la voie la plus privilégiée pour transmettre les connaissances est l’écriture.
Il est souvent inintéressant de passer du temps à lire des textes très longs, surtout quand on veut juste avoir une compréhension suffisante en peu de temps de ce qui est écrit, ou quand le sujet traité ne fait pas partie de notre domaine de prédilection.
Il est donc intéressant de mettre au point un système qui pourra assister l’homme dans la tâche de synthèse des connaissances afin de promouvoir par là-même un échange entre disciplines, ce qui est souvent très enrichissant.
Est-il possible de mettre au point un système informatique capable de synthétiser les textes avec une performance de niveau humain ?
Un traitement purement linguistique ne pourrait-il pas nous permettre de générer des synthèses suffisamment bons pour atteindre notre objectif ?
L’inclusion des traitements basés sur l’intelligence artificielle dans les modules de synthèse est-elle obligatoire pour atteindre des bonnes performances ?
Quelle est l’architecture globale la plus adaptée pour réaliser un système de synthèse automatique performant ?
Vu la complexité du langage naturel, un traitement purement linguistique ne nous permettrait pas de mettre au point un système de niveau humain en synthèse des textes;
Étant donné que, par définition, le langage naturel est difficile à formaliser complètement, on ne pourrait pas se passer de l’intelligence artificielle pour parvenir à réaliser un système performant;
Une architecture basé essentiellement sur des modèles du type transformer, joint à l’utilisation de quelques règles inspirées de la linguistique permettrait d’avoir un système de synthèse performant.
Certains textes sont souvent fournis, accompagnés des synthèses qui sont parfois très bonnes, parfois incomplètes et parfois même très polarisées ou tout simplement mauvaises.
Toutefois, avoir une synthèse à la demande serait mieux que de ne trouver que des synthèses de certains textes, sans d’ailleurs en avoir le plus souvent besoin.
Nombreux sont des textes (livres, articles, pages web et autres documents) dont on voudrait avoir des bonnes synthèses, qu’on ne trouve que très rarement si on ne s’est pas découragé avant.
C’est la raison pour laquelle, nous nous sommes fixé comme objectif de répondre à ce besoin précis en mettant au point une application web de synthèse des textes.
Des solutions ont été proposées mais ne sont pas toujours à la hauteur de nos attentes (mettre au point un système de performance presqu’humaine en synthèse automatique des textes).
Les plus prometteuses de ces solutions se limitent à des tailles bien réduites de texte, ce qui est déjà un grand pas mais pas suffisant évidemment.
Pour tout le monde alors, le système pourra permettre un gain de temps considérable chaque fois qu’il donnera la possibilité d’avoir accès à une synthèse de bonne qualité à la demande, en très peu de temps.
Cette recherche a pour objectif principal de concevoir et réaliser un système (une application web) qui facilitera la génération automatique des synthèses de niveau humain.
Mettre au point une base de données pour stocker les synthèses les mieux cotées par les usagers, en prévision d’une amélioration future du système;
Pour la mise au point du système, nous comptons utiliser les méthodes d’analyse moyennant les techniques expérimentale (pour vérifier l’adéquation du fonctionnement de l’application mise sur pied avec le problème posé), et documentaire (pour une vision approfondie des techniques couramment utilisées et d’éventuelles améliorations nécessaires).
Ce travail se focalisera sur la synthèse des documents du type informationnel (livres historiques, discours, articles de presse, lettres, nouvelles, romans et tout autre type de document ayant une faible densité d’expressions mathématiques) et il s’agira d’une synthèse mono-document.
Au premier chapitre, Généralités sur le traitement automatique du langage naturel, nous passerons en revu toute la théorie nécessaire à la compréhension de notre travail.
Au second chapitre, Présentation du résumé automatique et conception de l’architecture du système, nous y présenterons les aspects du résumé automatique essentiels à notre travail et y concevrons pas à pas le système de synthèse automatique des textes dans tous ses aspects (pas uniquement le côté synthèse).
Au troisième chapitre : Conception finale, réalisation et tests, nous y finaliserons la conception et expliquerons les points importants de l’implémentation en nous basant sur la conception faite, puis nous présenterons les résultats des tests que nous aurons effectué.
Dans ce chapitre, nous allons présenter brièvement le traitement automatique du langage naturel, ainsi que les techniques de traitement qui seront utiles pour la réalisation de l’objectif principal de ce travail.
Nous allons donc y présenter une vue d’ensemble des architectures généralement utilisées, en nous focalisant essentiellement sur l’aspect intelligence artificielle du NLP (Natural Language Processing).
Dans un premier temps, nous y présentons quelques techniques, souvent incontournables lorsqu’on veut réaliser une tâche de traitement du langage.
Après cela, nous parcourons divers modèles qui nous permettrons d’aborder le modèle le plus adapté à la tâche de synthèse automatique des textes, qui est l’objectif de ce travail.
Le NLP est une discipline rattachée à l’intelligence artificielle et ayant pour principal objectif, l’étude des possibilités du traitement du langage humain par des machines.
La raison pour laquelle la discipline s’inscrit comme faisant partie du domaine d’intelligence artificielle est que le langage est considéré comme étant une aptitude centrale de l’intelligence humaine, étant donné que l’usage d’un langage si complexe est l’un des éléments distinctifs principaux entre humains et autres animaux.
des textes produits par des humains, pour finalement ressortir des informations pertinentes à propos de ces derniers ou alors du texte modifié de façon approprié selon l’objectif poursuivi.
C’est ainsi que des tâches comme la traduction automatique, la génération automatique des textes ou aussi la synthèse automatique qui va nous intéresser dans ce travail, produisent directement du texte en sortie.
Mais, dans tous les cas, la sortie est soit immédiatement utilisable, soit alors elle est prise comme entrée d’un autre système dans la chaîne de traitement du texte.
On peut toutefois se demander la raison pour laquelle on parle de traitement automatique du "langage naturel" (quitte à se demander ce qui distinguerait un langage naturel des autres langages).
Pour caricaturer, un langage formel est celui pour lequel il existe un mécanisme fini, et explicite, permettant d’en faire une analyse, quand bien même il serait constitué d’un nombre infini de mots.
On peut donc comprendre directement que le mot "naturel" est ici utilisé pour faire une distinction avec les langages formels.
C’est donc dans ce sens que toutes les langues parlées peuvent être vues comme des langages naturels.
Les langages formels ont une syntaxe précise et sont spécifiquement conçus pour des objectifs bien cernés (penser à tous les langages de programmation par exemple).
Ceci n’est qu’un exemple particulier pour illustrer cette dichotomie inhérente à l’emploi de la langue quelle qu’elle soit, mais cela suffit pour qu’on s’aperçoive que le problème est bel et bien réel.
Ces approches utilisaient essentiellement des caractéristiques statistiques des séquences comme, la fréquence des mots et les co-occurences par exemple.
Néanmoins, le principal désavantage de ces techniques était qu’elles ne parvenaient pas à capturer une grande partie de la complexité linguistique du langage humain, comme par exemple le contexte.
Ainsi, les développements, récents d’ailleurs, des réseaux de neurone et du deep learning ont donné des nouveaux outils, pour approcher dans une large mesure les performances humaines en terme de traitement de langage.
A notre avis, ces techniques sont les plus adaptées car, tout d’abord elles se rapprochent beaucoup plus des méthodes de traitement d’information par le cerveau humain, et ensuite, il serait autrement très couteux, voir impossible, d’élaborer des modèles capables d’embrasser toute la complexité du langage humain.
Cette représentation constitue d’ailleurs un problème fondamental car c’est d’elle que dépend toute la chaîne de traitement des systèmes de NLP [46].
Dans cette partie, nous allons présenter diverses techniques intervenant dans le traitement des données de langage naturel.
Pour cela, nous allons d’abord présenter certaines manipulations réalisées sur les données en guise de pré-traitement.
C’est pour cela que l’opération consistant à réduire un corpus de texte en ses tokens est centrale.
Dans notre contexte, la tokenisation est une opération qui consiste à décomposer un texte
Cela est une première étape pour diminuer la difficulté inhérente au traitement des textes.
En considérant la décomposition en mots, pour diminuer au maximum les difficultés de traitement et l’ambiguïté, on ajoute à la tokenisation d’autres traitements qui sont en général : la désaccentuation, le passage aux minuscules, la suppression des stopwords, la racinisation et la lemmatisation appliqués aux tokens obtenus [22].
Les stopwords sont, pour une langue donnée, des mots qui permettent de réaliser des phrases correctes mais qui n’apportent pas directement d’information significative sur l’ensemble (du point de vu traitement).
Cela permet juste de maximiser la probabilité de confondre des mots semblables qui sont présentés différemment dans diverses phrases.
Pour illustration, on voudrait par exemple que si on retrouve les éléments "manger", "mange", "mangeable", "mangeons" dans un corpus, qu’ils soient transformés en un seul terme "mange".
C’est cela en bref le stemming et, contrairement à ce que le nom suggère, il ne s’agit pas exactement de trouver la racine des mots (les mots dont ils dérivent).
Elle réalise en fait ce qui n’est pas réalisé par le stemming en ce sens que lemmatiser un token consiste à la transformer en sa racine, et cette dernière doit être présente dans le dictionnaire.
Cette tâche est grandement facilitée par des techniques de deep learning.
La détection des entités nommées (Named Entity Recognition ou NER) consiste à repérer tout ce qui correspond à des noms de personnes, des noms d’organisations ou d’entreprises, des noms de lieux, des quantités, des distances, des valeurs, des dates ou tout autre élément qui constitue une nomination d’une entité existante précise dans un texte donné.
Cette tâche est visiblement très importante dans la phase d’interprétation des données textuelles et il s’agit d’un simple problème de classification.
Le Part-Of-Speech tagging est une tâche consistant en gros, à associer aux éléments des textes, des informations grammaticales.
En effet, c’est une première étape dans l’analyse structurelle des textes, permettant de déduire diverses dépendances du point de vu linguistique.
Elle est fortement facilitée par des approches basées sur le deep learning comme c’est le cas aussi pour la reconnaissance d’entités nommées.
Nous allons passer sous silence certains autres concepts du NLP comme le sacs de mots et le word embeddings dont nous parlerons dans la partie qui va suivre et qui présentera le résumé automatique, en tant que tâche du NLP.
Comme cela a été maintes fois mentionné, deux approches majeures sont d’usage pour traiter automatiquement les données de langage naturel.
Mais les deux approches sont dans la majorité des cas complétées par certaines heuristiques [31].
En ce qui nous concerne, l’approche sera essentiellement numérique avec un penchant prononcé pour les techniques du deep learning.
D’ailleurs, concernant ces dernières techniques, les modèles de l’état de l’art les plus adaptés sont les transformers et leur présentation exige une revue chronologique car en effet, pour y arriver, des modèles classiques basés sur des réseaux de neurones récurrents (RNN) ont été utilisés car plus adaptés aux données séquentielles que sont les textes.
Ensuite, le constat de leur mémoire limitée a fait à ce qu’on les modifie pour obtenir des unités à mémoire plus large dont les LSTM(Long Short-Term Memory) et les GRU(Gated Recurrent Unit).
Furent ensuite introduits les mécanismes d’attention qui améliorèrent les techniques, aboutissant finalement aux modèles dits transformers, plus adaptés à des tâches de NLP élaborées.
Les réseaux de neurones artificiels (Artificial Neural Network ou ANN) sont un ensemble de neurones (artificiels) assemblés pour résoudre des tâches considérées comme requérant une certaine intelligence.
Il s’agit essentiellement d’une fonction d’agrégation ayant pour rôle de réaliser une somme pondérée des entrées qui lui sont présentées et d’une fonction d’activation qui formate la sortie de la fonction d’agrégation selon les valeurs attendues en sortie [12].
Les neurones sont généralement assemblés par couche comme présenté sur la figure qui suit :
Ce qui vient d’être présenté est suffisant pour avoir une idée globale de ce qu’est réellement un réseau de neurones artificiel.
Néanmoins, nous pousserons plus loin pour toucher le plus vite possible aux modèles qui nous intéressent dans ce travail.
Un RNN(Recurrent Neural Network) est un type de réseaux de neurones conçu en principe pour traiter les données séquentielles, comme les données textuelles,...
La principale différence structurelle entre les ANN simples et les RNN est l’existence des connexions de récurrence dans ces derniers.
Les fonctions d’activation fact et gact qui sont mentionnées dans les équations I.1 représentent respectivement la tangente hyperbolique tanh et la fonction dite sof tmax [15].
L’entraînement des réseaux de neurones récurrents se fait de la même façon que pour les réseaux de neurones simples (avec uniquement une différence due au fait que pour le RNN on prend en compte le temps).
On n’entrera pas dans le détail, vu que ce n’est pas exactement le sujet du travail mais, pour entamer la partie qui suit, il nous faut préciser que, comme pour les réseaux de neurones simples, l’entraînement exige d’appliquer une fonction de différentiation sur l’erreur produite par le système.
Mais, comme ici le gradient tient compte des grandeurs précédentes dans le temps, il y a un certain nombre de termes multiplicatifs qui peuvent amener le modèle à ne jamais converger ou au contraire, à la saturation.
Les cellules LSTM (pour Long Short-Term Memory) sont utilisées en lieu et place des cellules RNN classiques (dites vanilla) pour permettre au réseau de traiter des séquences de plus en plus longues sans perte rapide d’information [16].
Présentée comme cela, la cellule LSTM semble superflue mais si on présentait les équations associées à un réseau fait de ces cellules, on se rendra compte que c’est plutôt intuitif.
Une cellule LSTM se comprend en la considérant comme constituée d’un ensemble de portes avec des fonctions bien particulières.
Il est évident que, pour chacune de ces portes que nous nommerons, à un instant t donné par It, Ft et Ot, le système doit apprendre ses paramètres en fonction de l’entrée et de l’état interne.
Mais on doit aussi remarquer que, l’état est défini par deux paramètres au lieu d’un seul comme pour les RNN simples.
On sait aussi que, si on veut une mémoire à long terme contrôlée, la valeur finale de ct doit être mise à jour en repérant ce qui doit être oublié parmi les éléments qui étaient précédemment dans la mémoire, pour y ajouter ensuite ce qui est sélectionné comme pertinent à l’entrée.
Et de cela on peut conclure que c’est plus intéressant d’avoir Ft et It qui prennent des valeurs entre 0 et 1 (pour modéliser la sélection) et ct devra dépendre de ces deux éléments, avec aussi l’état précédent de la mémoire à long terme.
Il est aussi vraisemblable que, l’état à court terme doit provenir de la mémoire à long terme (ça correspondra à une sélection de ce qui doit être pris en compte directement dans la mémoire à long terme).
Cet état ht doit par conséquent dépendre de ct (il faut néanmoins noter qu’une autre approche serait possible ici, mais celle-ci est déjà pertinente).
Il va ici s’agir de ht vu que la cellule est développée par analogie avec le processus de mémorisation des systèmes naturels (mémoire à court terme correspondant à la mémoire de travail).
Avec F ,G,J ,K,L,M des fonctions dépendant des coefficients considérés (poids et/ou éléments de sélection qui sont les diverses portes définies).
Cette implémentation peut être modifiée, surtout en ce qui concerne les fonctions d’activation utilisées (σ et tanh), et en particulier la fonction d’activation de finalisation tanh ici, mais c’est l’une des plus optimales.
Et pour les portes, on fusionne les portes de sélection des entrées avec celle des éléments à oublier (donc les portes I et F) pour former une porte dite de mise à jour (porte qui sera appelée update ou U).
Ces deux portes (de mise à jour et de réinitialisation) sont en fait implémentées de façon identique que celles des cellules LSTM.
C’est ainsi que, la porte de mise à jour (porte U) est introduite dans le calcul de l’état h pour assurer la sélection du type de mise à jour à effectuer.
Ainsi donc, h devient une combinaison d’éléments provenant de l’état interne précédent avec ceux provenant des nouveaux calculs effectués par la cellule (en fonction de l’entrée et de l’état interne précédent).
Il faut noter que sur cette image (figure I.5), l’implémentation de la mise à jour est l’inverse de celle que nous avons décrit par les équations I.4.
C’est-à-dire que les termes Ut et (1−Ut) sont permutés.
Parmi les techniques d’amélioration des performances, une peut être considérée car elle a un rapport direct avec notre travail.
Les mécanismes d’attention sont en bref des techniques permettant de lutter contre la perte de mémoire qu’on constate par exemple dans les cellules récurrentes ci-haut décrites, en se focalisant sur des éléments les plus importants à chaque traitement.
Le travail consiste donc à repérer, pour chaque entrée, les éléments sur lesquels se focaliser.
L’une des implémentations les plus commodes est l’attention globale [30].
Pour l’expliquer, nous allons considérer une architecture jusque là passée sous silence, mais qui permet aux modèles introduits là haut de s’utiliser efficacement pour les tâches courantes du NLP en particulier.
4°) on peut aussi avoir un réseau série-vers-vecteur, appelé encodeur, suivi d’un réseau vecteur-vers-série, appelé décodeur (très utile pour la traduction et la synthèse automatique par exemple,...).
Ainsi, si par exemple on est entrain de vouloir traduire une longue phrase, on peut finir par transmettre un vecteur de contexte qui a perdu toute information sur les premiers éléments de la séquence passée en entrée.
C’est pour cela qu’au lieu de passer un vecteur de contexte général, les mécanismes d’attention permettraient ici de ne se focaliser que sur certaines informations lors du traitement d’un élément particulier de la séquence (en ayant évidemment passé tous les états internes passés au décodeur).
Pour le réaliser concrètement, le mécanisme d’attention global consiste à formater le vecteur de contexte en fonction des éléments de l’encodeur à prendre en compte lors du traitement par le décodeur.
Considérons que Ω, dont les termes sont représentés par wij, est la matrice des poids d’attention normalisés par une fonction softmax pour chaque ligne.
Et que Π, dont les termes sont représentés par αij, est la matrice des poids d’attention générée par le mécanismes avant normalisation.Si les éléments ci représentent à chaque fois le vecteur contexte final à l’étape i de décodage et les hj sont les vecteurs d’état interne de l’encodeur, l’attention globale revient à réaliser la manipulation suivante, pour formater le vecteur de contexte à prendre en compte pour l’élément en cours de traitement [30] :
La dernière relation du système I.5 revient à réaliser une somme pondérée des vecteurs d’état internes passés de l’encodeur, selon l’importance de chaque état pour le traitement en cours.
Cela est volontaire car c’est intuitif (on réalise des sommations sur tous les éléments).
En général, comme on peut d’ailleurs le déduire des relations de l’attention globale, ces mécanismes étaient utilisés dans le cadre des réseaux récurrents.
Une question s’est toutefois naturellement posée : ne pourrait-on pas se passer des RNN pour mettre au point des réseaux complètement basés sur l’attention ?.
La réponse est oui, avec des ajustements adéquats pour résoudre les faiblesses des modèles classiques dans le traitement des données séquentielles.
Les transformers sont des modèles du type encodeur-décodeur comme on peut le constater sur la figure ci-dessus (bien que certaines implémentations n’en utilisent qu’une partie selon la tâche).
1°) Moduled’embedding : Nous savons que les données textuelles doivent être présentées au modèle sous forme numérique.
un impact significatif sur les performances d’un modèle, cette représentation doit être bien choisie.
Un choix intuitif, et qui s’avère être performant, est de tout faire pour que si deux termes ont des sens proches, ils aient aussi des représentations vectorielles proches.
Cela est réalisé par différentes techniques que nous présenterons dans le chapitre suivant, mais c’est là le rôle de la couche d’enchâssement (embedding).
Cela pallie au problème de perte d’information sur la position des mots quand on utilise un réseau non séquentiel comme les réseaux récurrents.
L’un des encodages les plus utilisés est celui basé sur les fonctions trigonométriques tel qu’introduit dans [50].
3°) Module d’auto-attention : La couche d’attention, présentée en première position dans la boîte de l’encodeur, est en fait une couche dite de self-attention car elle opère sur la même séquence d’entrée.
L’opération est réalisée pour permettre au modèle d’avoir une représentation de l’importance des termes dans la séquence d’entrée, les uns par rapport aux autres.
Dans cette phrase, l’un des constats qu’on peut faire est que, le nom "Walter" est beaucoup plus lié au pronom "il" qu’au verbe "préférer".
C’est à l’établissement des tels liens dans les représentations que sert le module d’auto-attention ici présenté.
Il est important que ce lien soit implicitement présent dans les représentations, pour que le traitement soit efficace comme on l’a mentionné lors de la présentation des mécanismes d’attention.
En effet, très brièvement, l’idée du scaled dot-product attention consiste à opérer une recherche des termes sur lesquels focaliser l’attention de la même façon qu’on réalise la recherche de la signification d’un mot dans un dictionnaire.
Pour retrouver ce dernier dans un dictionnaire, il suffit de rechercher le mot qui ressemble le plus à l’orthographe que nous estimons être la plus vraisemblable.
Si on supposait qu’il existe plusieurs termes du dictionnaire qui s’orthographient presque de la même façon que le mot qu’on cherche, on devra passer par une mesure de similarité avant de se décider sur le sens le plus probable.
Cela correspond à réaliser le produit de tous les k par les q présents, puis à normaliser l’ensemble des résultats de manière à ce qu’ils représentent des mesures de probabilité, et finir par choisir le sens v le plus probable.
Pour aller plus vite, on implémente ce processus en considérant tous les k, q et v au même moment de manière à réaliser le calcul une fois pour toutes.
Il faut noter que dk est la dimension d’une clé, et que cette normalisation permet d’améliorer les performances du modèle mais elle n’est pas la seule envisageable.
Il est aussi important de remarquer que la couche d’attention utilise trois termes pour arriver à bout du problème.
Ces trois termes sont obtenus par une transformation linéaire dont les poids sont appris à travers un réseau de neurones simple.
Il faut aussi noter que l’on utilise parallèlement plusieurs modules d’attention pour capture toutes les caractéristiques des séquences (on parle de multi-head attention).
En effet, contrairement à la couche de self-attention, pour laquelle tous les trois paramètres sont calculés à partir de la même séquence, la couche d’attention ici prend les clés K et valeurs V provenant de l’encodeur mais une requête Q provenant du décodeur.
Ce module est dit masqué suite au fait que, comme le décodeur est un module de génération, on ne regarde que les termes précédemment générés, en masquant les termes qui seront probablement générés aux pas d’après.
7°) Module linéaire final : Il s’agit d’un réseau de neurones classique pour réaliser la déduction finale, le tout étant passé à la fin à travers une opération softmax qui permet de transformer les résultats en probabilité d’éléments générés (cela permet de choisir le terme le plus vraisemblable à générer comme sortie).
Les transformers, ici succinctement présentés, sont un modèle très adapté aux tâches de traitement automatique du langage naturel.
Nous venons de réaliser une vue d’ensemble du domaine de traitement automatique du langage naturel, ainsi que diverses techniques couramment utilisées.
Pour cela, nous avons tout d’abord justifié la préséance des modèles basés sur le deep learning pour diverses tâches du NLP.
Ensuite, nous avons évoqué les technique de pré-traitement des textes, souvent incontournables, comme la réduction des séquences en leurs tokens constitutifs, la suppression des mots fréquents mais n’apportant pas assez d’informations et la réduction des mots en leurs racines respectives.
Ce qui précède nous a finalement conduit à présenter les modèles courants du NLP basés sur les RNNs et, nous avons terminé par la présentation de l’architecture transformer, modèle que nous utiliserons pour ce travail (les précisions sur les modèles particuliers seront données au chapitre suivant).
Les transformers constituent un type de modèle qui s’avère être le plus adapté (pour le moment) au résumé automatique du texte et, dans le chapitre suivant, nous commencerons par présenter les diverses spécificités du résumé automatique comme tâche du NLP, pour finir par présenter l’architecture globale du système que nous comptons élaborer.
Le résumé automatique étant le sujet principal de ce mémoire, dans cette partie nous le présentons alors en détail en tant que discipline et tâche du NLP.
Nous allons ici présenter les théories sur la synthèse automatique des textes, en classifiant les diverses méthodes utilisées pour pouvoir situer notre système dans l’ensemble des travaux jusque-là menés sur ce sujet.
Ensuite, nous présenterons les diverses approches utilisées pour le résumé automatique, sans oublier d’approfondir notre présentation des modèles de type transformer adaptés à cette tâche, pour finalement mentionner le modèle que nous estimons le plus adapté concernant l’approche basée sur le deep-learning pour la synthèse automatique.
Enfin, nous allons réaliser une conception rapide mais suffisante de l’architecture globale de notre système, tout en précisant le rôle et le fonctionnement de chaque partie.
De cela on tire que le résumé devient automatique s’il est généré par un logiciel ou un système informatique.
Il nous faut une définition assez générale et précise, embrassant au mieux l’aspect automatique, ou mieux, l’aspect informatique, qui nous intéresse dans ce mémoire.
Une définition assez valable est celle de TORRES-MORENO Juan-Manuel qui dit qu’un résumé automatique est un texte généré par un logiciel, cohérent et contenant une partie importante des informations pertinentes de la source, et dont le taux de compression est inférieur au tiers de la taille du(des) document(s) source(s) [48].
L’introduction du taux de compression dans la définition n’est pas anodine car, on s’est très vite rendu compte que la performance d’un système de résumé automatique dépendait fortement du taux de compression.
En effet, les études de [26] montrent que les meilleures performances des systèmes de résumé automatique sont généralement atteintes pour des taux de compression compris entre 15 et 30% [48].
Toutefois, on ne doit pas manquer de signaler que la génération automatique des résumés est un problème complexe en soi, tout comme l’évaluation des résultats.
Le résumé est en effet une tâche cognitive requérant la compréhension du texte considéré et, les humains n’étant pas toujours bons dans les tâches de synthèse, le manque d’étalon explique qu’il y ait également une difficulté d’automatisation du processus.
Tel une table des matières, un résumé indicatif renseigne le lecteur sur les thèmes abordés dans un document.
La requête dans ce cas est l’ensemble des sujets sélectionnés à partir du résumé indicatif.
Il s’agit d’un modèle rétréci du texte d’origine, relatant le plus largement possible les informations contenues dans celui-ci.
La problématique ici est donc double : comprendre ce qui n’est pas information dans un texte et connaître le besoin de l’utilisateur final.
Néanmoins, si on n’a pas de requête spécifique de la part de l’utilisateur, le résumé informatif est réalisé en veillant à ce que l’ensemble des principaux sujets du texte d’origine soit rapporté.
Ainsi, les sujets principaux qui sont rappelés dans le résumé sont répartis de manière fidèle par rapport à l’organisation initiale afin de donner un juste aperçu du texte source.
Il s’agit d’un résumé de plusieurs documents (un groupe de documents), très souvent liés thématiquement, en faisant attention à ne pas insérer des informations déjà évoquées.
Il s’agit de résumer les documents du type article de presse (sachant qu’ils ont une structure particulière).
En effet, on sait par exemple que dans le domaine journalistique, les informations les plus importantes sont souvent mentionnées au début du texte.[36]
Le résumé extrait est formé de segments de texte extraits du(des) document(s) source(s).
Le problème consiste donc à repérer les segments de texte qui semblent être les plus pertinents pour faire partie du résumé final.
Les éléments obtenus à la fin sont donc explicitement présents dans le(s) document(s) source(s).
Les méthodes de résumé abstractives imitent, jusqu’à un certain degré, le processus naturel accompli par l’homme pour résumer un document.
La première étape vise à analyser sémantiquement le contenu du texte et à identifier les parties à exprimer dans le résumé.
C’est en quelques sortes une tâche d’extraction d’information liée au domaine abordé ou de regroupement des phrases du texte source.
Bref, on produit un résumé rapportant le contenu du(des) texte(s) source(s) en utilisant un vocabulaire différent et plus concis.
Il existe aussi des résumés dits semi-extractifs, et même aussi des résumés dits par compression [48] mais nous estimons inutile de les décrire ici étant donné que la distinction abstractif-extractif suffit pour notre contexte.
Le résumeur est le système qui réalise le résumé.
Il s’agit, comme on l’a maintes fois mentionné, d’un résumé fait par un système informatique.
Nous allons présenter ici diverses approches algorithmiques pour résumer les documents textuels.
Avec des critères centrés sur le contenu des textes, il existe un grand nombre d’algorithmes assez triviaux de résumé, qui sont basés entre autres sur : • La fréquence d’occurrence des mots et
L’idée majeure des techniques qui utilisent ce critère consiste à considérer que les mots les plus fréquents sont les plus liés au sujet principal du texte à résumer.
Cette approche assez simpliste mais fonctionnelle fut introduite en 1958 par Luhn [29], une première tentative de résumé automatique.
Et, à la fin, le résumé est constitué avec les phrases extraites du texte source, et dont le score dépasse un certain seuil dépendant de la taille maximale imposée pour le résumé.
Le tout est finalement réarrangé selon l’ordre d’apparition (des phrases sélectionnées) dans le texte d’origine.
En utilisant des techniques de repérage d’entités nommées (voir le chapitre précédent), on identifie les entités présentes dans le document.
Par la suite, les phrases contenant cette entité sont sélectionnées.
Enfin, seules les phrases où l’entité principale possède un rôle sémantique fondamental (non auxiliaire) sont gardées pour le résumé.
L’un des moyens les plus simples pour repérer les entités nommées est de passer par l’apprentissage profond comme on l’a précédemment mentionné.
Il existe tout de même des techniques qui ne se fient qu’à la forme et à la structure du texte, sans en considérer le contenu.
L’intuition derrière cette approche est basée sur le constat que dans un texte, les éléments ne sont pas présentés de façon arbitraire.
Pour certains types de documents (documents journalistiques par exemple), les phrases se trouvant au début sont généralement plus informatives et décrivent le sujet principal du document.
Le résumé des articles scientifiques par contre, peut essentiellement se former en se basant sur les contenus des parties résumé et introduction (sous l’hypothèse que ces dernières parties sont bien faites).
Ces exemples suffisent pour illustrer dans quelle mesure cette approche peut s’appliquer.
Cela permet alors de fixer comme mesure de pertinence des phrases, leur similarité avec les titres.
L’approche consistant à se baser sur la longueur des phrases est assez naïve mais fonctionnelle.
Ici, on considère une liste de mots, constituée manuellement, et qui a comme rôle de permettre de se décider si une phrase doit être prise dans le résumé ou rejetée, selon qu’elle contient ou non un(des) mot(s) de la liste qualifié(s) inhibiteur(s) ou valorisant(s).
Nous devons quand même préciser encore une fois que tout dépend de celui qui écrit la liste.
Les méthodes que nous venons de présenter sont assez intuitives mais constituent la base des processus de synthèse.
Néanmoins, ce que nous venons de présenter est décrit en se basant sur le concept de résumé extractif.
Nous devons toutefois signaler que les résumés abstractifs se basent au fond sur les mêmes principes, soit en partant des résumés extractifs pour ensuite réaliser des paraphrases, insérer des connecteurs appropriés et éliminer les références anaphoriques dans les résumés, soit en implémentant indirectement toutes ces techniques à travers un modèle d’apprentissage automatique ou un modèle basé sur les graphes capables de capturer d’un seul coup tous ces aspects (ou une grande partie d’entre-eux).
Comme nous venons de l’introduire dans la section précédente, le résumé automatique est abordé essentiellement selon deux approches qui sont [31] :
Il faut noter qu’on peut considérer aussi des approches basées sur la théorie des graphes comme intégrant les idées de ces deux approches de façon implicite, tout comme celles basées sur l’apprentissage automatique.
Mais, dans tous les cas, une vue sur quelques heuristiques (méthodes basées sur le bon sens) est toujours à considérer (surtout en amont, puis en aval du processus de synthèse).
Ici, nous allons présenter les approches essentiellement numériques (on va y inclure celles basées sur l’apprentissage automatique et celles basées sur la théorie des graphes).
Il s’agit d’une méthode heuristique pour la synthèse des documents.
La sélection (des mots ici) se fait en considérant les hypothèses qui suivent :
la synthèse consiste à supprimer certains mots pour n’en conserver que les plus importants;
Cette approche, comme on l’a mentionné au début, est assez moins précise et empirique, mais elle sous-entend les idées fondamentales appliquées plus tard.
Le tf-idf (time-frequency inverse document frequency est une approche essentiellement utilisée pour le résumé extractif.
Il s’agit d’une correction de l’approche naïve consistant à poser que plus un mot est répété dans un corpus de texte, plus il y est important.
L’approche qui se base naïvement sur la fréquence d’apparition des mots dans les textes pour juger de leur importance relative, accorde à chaque mot un poids égal à T F(i,j).
Pour corriger cette faiblesse, on pose l’hypothèse que les termes importants apparaissent plusieurs fois dans un document (ou juste dans peu de documents du corpus) et non pas dans plusieurs documents.
Puisque dans ce second cas, il est souvent question des éléments communs du langage, sans grande utilité informationnelle.
A cet effet, on définit DFi comme étant le nombre de documents dans le corpus, qui contiennent le terme numéro i.
D’où finalement, le poids d’un terme i dans un document j est donné par :
Pour notre cas, l’application de cette approche consiste à décomposer un long texte en ses phrases et de considérer que chacune de ces phrases est un document et que le texte entier constitue le corpus.
Plusieurs définitions des éléments T F(ij) et IDFi formant l’expression II.2 sont toutefois possibles selon les besoins en terme de performance.
Mais, dans l’ensemble, l’idée de base demeure la même car il ne s’agit en général que de changement des types de normalisation [55].
L’application de cette méthode pour le résumé consiste finalement à calculer le poids de chaque phrase en additionnant les poids des termes la constituant, puis à normaliser le résultat en fonction de la taille de la phrase considérée.
Après tout, on définit un seuil qui permet de soutirer les phrases selon leur pertinence ainsi évaluée (en considérant évidemment plus pertinente une phrase dont le résultat de la sommation des poids est élevé).
TextRank est un algorithme de résumé extractif, basé sur la théorie des graphes et qui s’inspire de l’algorithme PageRank de Google [8, 4].
Il s’agit en fait d’une matrice d’adjacence dans laquelle on pose au préalable que Mii = 0, pour tout i (c’est la même idée pour l’algorithme PageRank étant donné qu’il est logique de considérer qu’une page ne peut s’auto-référencer).
Ce dernier implémente en effet une mesure de similarité selon sa définition de la liaison entre phrases et les besoins en performance.
C’est ainsi qu’on peut utiliser par exemple une mesure de similarité classique nommée similarité cosinus en la basant par exemple sur T FIDF [19].
Pour représenter les mots à comparer, on utilise les méthodes classiques de vectorisation des mots (word embedding).
Nous esquisserons ces méthodes dans les sections qui vont suivre, parlant du word embedding ( II.5 ).
Dans cette formule, K est une constante comprise entre 0 et 1.
Initialement, on prend en général une valeur identique de T extRank(P hri) pour toutes les phrases (souvent T extRank(P hri) = 1), mais la valeur initiale prise n’affecte pas les valeurs finales, juste le temps de convergence [33].
On sait tout de même que plus une page est référencée, plus on doit lui donner de l’importance.
Malheureusement, pour les phrases non référencées (pages dites isolées), on trouve une importance nulle.
On applique la formule II.5 itérativement et à la convergence, on choisit les phrases qui vont former le résumé selon leur importance ( valeurs des T extRank(P hri) pour toute valeur de i).
A la fin, les phrases sélectionnées sont réarrangées pour former un résumé extrait plus ou moins cohérent.
Il considère la position et la longueur des phrases dans le calcul de leur pertinence; - Il est optimisé pour le résumé multi-document.
Toutefois, il faut remarquer que les algorithmes ici présentés sont essentiellement adaptés à la synthèse extractive.
Même si, ces traitements peuvent être mélangés avec les techniques de résolution d’anaphores et les paraphrases pour obtenir des synthèses qui tendent vers la synthèse abstractive, nous devons souligner que les techniques jusque là les plus performantes pour la synthèse abstractive sont essentiellement basées sur le deep learning [36].
Le deep learning peut également être utilisé pour la synthèse extractive, permettant ainsi la génération des synthèses extraites plus cohérentes (avec résolution d’anaphores).
Ainsi donc, nous abordons les méthodes de deep learning utilisées pour cet effet dans les parties qui suivent.
Tout traitement commence par une représentation numérique des termes (des mots ici) pour qu’ils soient assimilables par le modèle.
Une approche naïve consisterait à regrouper tous les mots de notre vocabulaire dans une liste (un dictionnaire) et de les représenter chacun par un nombre unique (un identifiant).
Une autre approche, plus classique, consiste à représenter chaque mot par un vecteur de dimension égale à la taille du dictionnaire et dont tous les termes sont nuls, sauf à la position, dans le dictionnaire, du mot qu’on est entrain de vouloir représenter (on parle du one-hot encoding).
Étant artificiellement construites, sans tenir compte du sens des mots, ni de leur contexte, ces méthodes de représentation rendent la tâche de découverte des caractéristiques par les systèmes de machine learning encore plus difficile.
D’ailleurs, l’une des faiblesses de la seconde méthode décrite (le one-hot encoding) est que les vecteurs sont creux (une majorité de valeurs nulles) et de dimension inutilement très grande.
On pourrait directement songer à une représentation plus judicieuse pour éviter ces deux soucis, et qui consisterait à réaliser une représentation binaire des termes mais, le problème de la sémantique sera toujours là.
On recourt donc à des méthodes de représentation plus élaborées, partant du principe selon lequel le contexte d’un mot suffit pour en appréhender le sens.
Ainsi, tout mot est représenté en réalisant une statistique (implicitement bien sûr) sur les divers mots qui l’accompagnent souvent, de telle sorte que les mots aux sens proches aient aussi des vecteurs très proches.
Il s’agit bel et bien des modèles adaptés aux tâches de synthèse, vu qu’en entrée on reçoit une séquence pour ressortir une autre séquence en sortie.
Comme nous l’avons déjà bien mentionné au précédent chapitre, nous n’allons parler que des modèles Seq2Seq de type transformer car actuellement, ils sont les plus adaptés à la tâche que nous voulons réaliser (celle de synthèse automatique).
Les transformers (voir la figure I.7) sont un modèle très avantageux car en fait, au-delà de leurs performances et autres avantages, ils facilitent encore plus la recherche en NLP en rendant effectif le transfer learning (apprentissage par transfert) dans ce domaine.
1°) Pré-entraînement : il s’agit d’un apprentissage non supervisé, qui consiste à donner au modèle une masse colossale de données textuelles, non étiquetées, pour qu’il développe une compréhension statistique du langage qu’on veut qu’il puisse assimiler.
2°) Affinage de l’apprentissage (fine-tuning) : Ça consiste à finaliser l’apprentissage du modèle pré-entraîné de manière supervisée pour qu’il soit en mesure de réaliser une tâche donnée du NLP (il s’agit du transfer learning en fait).
Les méthodes de pré-entraînement sont très déterminantes pour les performances finales du modèle.
Mais, à part les deux que nous venons de mentionner, il existe d’autres objectifs de pré-entraînement [25, 54] selon les variantes de transformers et les objectifs finaux de spécialisation du modèle.
Bien que la forme classique des transformers est bel et bien celle de la figure I.7, il existe 3 types d’implémentation selon les types de tâche visées en dernier lieu :
Ces modèles sont très bons pour les tâches de compréhension du langage comme la classification par exemple.
Ils sont bons pour les tâches de génération de texte.
Ils sont bons pour les tâches demandant à la fois la compréhension et la génération des textes.
Donc, les phrases sont lues dans les deux sens pour mieux saisir tout le contexte.
2°) Like-GPT : donc semblables au transformer dénommé GPT (Generative Pre-trained Transformer) qui n’ont que la partie décodeur et sont dits auto-regressifs car, seules les parties précédant le mot en cours de traitement sont connues du modèle et il y a chaque fois réinjection des sorties à l’entrée.
En plus de cela, ces modèles ont une couche d’attention bidirectionnelle et sont généralement appelés auto-encodeurs (auto-encoding model).
Ces modèles sont principalement bons pour les tâches de NLU (Natural Language Understanding) comme la classification, le NER (Name Entity Recognition), l’extractive question-answering,...
regressifs et par conséquent les têtes de self-attention n’accèdent qu’aux mots précédant l’étape à laquelle elles sont (pas de regard dans le futur) comme on l’a déjà un peu mentionné.
Ces modèles sont particulièrement bons pour les tâches liées fortement au NLG (Natural Language Generation).
tégralité de l’architecture des transformers et sont ainsi bons pour les tâches demandant à la fois du NLU et du NLG comme la synthèse automatique abstractive, le generative question-answering et la traduction automatique.
Ici nous pouvons particulièrement mentionner les modèles comme :
Le modèle BART est comme une combinaison de BERT [11] et de GPT-2 [40, 41] en terme
allons privilégier (les modèles dérivés de BART principalement) pour réaliser cette tâche dans notre système.
Le choix de BART est dû au fait que c’est le modèle que nous avons trouvé réalisant un bon compromis poids-performances.
Nous justifierons plus précisément ce choix dans le chapitre qui suit, en présentant également quelques résultats des tests.
Il existe un large éventail des méthodes de développement des systèmes informatiques mais, en règle générale, toutes suivent les étapes suivantes [7] :
3°) Validation : on teste le système pour voir s’il correspond aux objectifs précisés dans les spécifications;
Pour pouvoir tout de même y aller méthodiquement, nous nous inspirerons de ces étapes classiquement suivies lors de la conception des systèmes informatiques.
Dans ce second chapitre, nous ne présenterons que les spécifications du système ainsi qu’une ébauche de conception avec une présentation de l’architecture globale.
Synthétiser les textes qui lui sont fournis en entrée (saisis directement ou importés dans fichiers .pdf non scannés, des fichiers .docx et .txt);
Obtenir des synthèses produites par plusieurs algorithmes et les évaluer;
Il s’agit en fait de l’interface d’accès à l’API (Application Programming Interface), qui permettra aux développeurs de s’authentifier et générer éventuellement un token à utiliser pour implémenter leur propres interfaces devant permettre d’utiliser les services de cette API.
Quant au bloc interface que nous venons de présenter sur la figure II.4, c’est en nous mettant à la place d’un développeur lambda qui exploite les services de l’API.
Notre API quant à elle, est une API REST (REpresentationnal State Transfer qui aura 4 end-points principaux dédiés à la synthèse automatique (selon les besoins d’implémentation, on pourra en insérer d’autres mais qui ne concernerons probablement pas la synthèse).
Nous prévoyons, dans un premier temps, ne l’utiliser que pour des petits documents (la taille optimale sera déterminée avec les expérimentations au chapitre suivant).
Module de synthèse abstraite : ce module donnera une synthèse abstraite en utilisant l’un des transformers affinés pour la synthèse ou bien par le module qui sera en train de s’auto-améliorer au cours de l’utilisation du système (on l’a nommé expérimental, voir la figure II.7).
Comme les transformers réalisent des synthèses de documents de taille généralement limitée à environ une page, nous mettrons au point, dans cette partie, une pipeline qui nous permettra d’augmenter le nombre de pages (nous pensons à 100 pages mais les expérimentations nous permettrons de choisir une taille optimale, tenant compte surtout de la rapidité).
Module de synthèse extrait simplifié : Il s’agira d’un module qui permettra la réalisation de la synthèse mais en utilisant l’un des algorithmes de synthèse extraite implémentés (soit de manière aléatoire, soit par choix de l’utilisateur).
Module expérimental : Il s’agira d’un module de synthèse abstraite qui sera essentiellement utilisé pour la synthèse des petits documents (quelques pages).
Pour ce module, nous comptons mettre au point une routine d’entraînement à partir des synthèses collectées par le système, pour améliorer au fur et à mesure les performances de ce module.
Nous comptons réaliser l’entraînement par transfer learning avec les transformers mT5[53] ou mBART [27] comme base.
N’ayant pas encore testé cette partie, nous serons fixé sur la méthode à utiliser ainsi que le modèle de base à choisir au chapitre suivant, après les expérimentations.
C’est par suite du fait que, pour des raisons de performance, on devra envoyer à l’API le fichier sous un format particulier.
La base des données, que nous avons mentionné dans la figure II.4, a un double rôle :
2°) Le stockage des paires document-synthèse, ainsi que l’appréciation de l’utilisateur (évaluation par les utilisateurs).
Comme nous pouvons le voir, un traitement sera fait pour adapter les données reçues à ce qui peut être traité par le système.
Ce traitement consistera à ne retenir que des symboles alphanumériques, à réaliser la tokenisation des textes (chaque token sera une phrase pour cette partie) et à affecter un identifiant unique à chaque phrase.
Après cela, les données seront invariablement passées aux algorithmes de synthèse extractive, qui générerons chacun un groupe de poids des phrases.
Élimination des phrases de poids faible (avec comme seuil, la taille maximale de résumé précisée par l’utilisateur);
Réarrangement de chaque dictionnaire obtenu après expulsion des phrases non significatives (les éléments seront arrangés par ordre décroissant des poids pour chaque sortie);
Avec Wj le nouveau poids affecté à la phrase ayant un identifiant global j (l’identifiant là d’origine) et D la liste des dictionnaires (les sorties de chaque algorithme);
Arranger toutes les phrases par ordre décroissant dans une unique liste et sélectionner les plus haut dans la liste jusqu’à atteindre le seuil fixé (nombre de mots fixé pour la synthèse).
Réarranger les phrases de la liste selon leur ordre de succession dans le texte d’origine.
Ce qui précède constitue en fait l’algorithme que nous allons implémenter pour le module de pondération et sélection.
Nous implémenterons plusieurs modèles (BART, BARThez, PEGASUS, mBART ou mT5 entraîné avec nos données, ainsi que tous ceux qui nous paraîtrons utiles durant les essais); Chaque module de synthèse se présentera néanmoins comme suit :
Comme nous pouvons le remarquer, il y a toujours un module de mise en forme initial (pre-processing) qui nous permettra en gros de supprimer tous les caractères que nous ne pourrons pas gérer.
Vient ensuite le module de tokenisation (le tokenizer ou tokeniseur) [49] qui consistera ici à diviser tout le texte en ses mots constitutifs et à leur affecter des identifiants numériques.
Il s’agit en effet de l’architecture classique d’un transformer, comme présenté sur la figure I.7 à l’exception du fait qu’ici on fait explicitement apparaître l’existence de la sortie du modèle.
Cette partie, que nous avons nommé head est différente selon les tâches [52], c’est pourquoi nous avons voulu la mentionner explicitement car, selon le besoin, on peut la modifier.
Nous devons finalement mentionner que les modules de tokenisation (nommés tokenizer en anglais) dépendront explicitement des modèles utilisés.
Toutefois, voici une ébauche d’interface que nous comptons utiliser pour exploiter le service :
Avec cette interface, on a une idée générale de la manière dont nous comptons servir le système aux utilisateurs.
Dans cette partie, nous venons de présenter le résumé automatique des textes, tout en réalisant une vue d’ensemble des méthodes utilisées dans la littérature à cet effet.
Nous avons également listé les divers modèles de transformer adaptés à la tâche de synthèse automatique abstraite, et nous avons mentionné devoir privilégier les modèles du type BART pour des raisons qui serons précisées dans le chapitre suivant.
Enfin, nous avons réalisé la conception préliminaire du système tout en précisant que, concernant l’API, la BD (Base des Données) et les interfaces, les détails d’implémentation utiles seront précisés dans la partie dédiée à la conception proprement dite et aux tests, c’est-à-dire au chapitre suivant.
Le chapitre suivant nous permettra donc finalement de préciser, réaliser et tester les méthodes que nous avons jusque-là adoptées pour la mise au point de notre système de synthèse automatique des documents.
Mike Lewis, Yinhan Liu, Naman Goyal, Marjan Ghazvininejad, Abdelrahman Mohamed, Omer Levy, Ves Stoyanov, and Luke Zettlemoyer.
Yinhan Liu, Jiatao Gu, Naman Goyal, Xian Li, Sergey Edunov, Marjan Ghazvininejad, Mike Lewis, and Luke Zettlemoyer.
Yinhan Liu, Myle Ott, Naman Goyal, Jingfei Du, Mandar Joshi, Danqi Chen, Omer Levy, Mike Lewis, Luke Zettlemoyer, and Veselin Stoyanov.
Approche hybride pour le résumé automatique de textes.
Tomas Mikolov, Kai Chen, Greg Corrado, and Jeffrey Dean.
Tomas Mikolov, Ilya Sutskever, Kai Chen, Greg S Corrado, and Jeff Dean.
Colin Raffel, Noam Shazeer, Adam Roberts, Katherine Lee, Sharan Narang, Michael Matena, Yanqi Zhou, Wei Li, Peter J Liu, et al.
Barry Schiffman, Ani Nenkova, and Kathleen McKeown. | UNIVERSITELIBREDESPAYSDESGRANDSLACS
FACULTE DES SCIENCES ET DES TECHNOLOGIES
APPLIQUEES
DEPARTEMENT DE GENIE ELECTRIQUE ET INFORMATIQUE
B.P 368 GOMA
www.ulpgl.net
CONCEPTION ET REALISATION D’UN
SYSTEME BASE SUR L’INTELLIGENCE
ARTIFICIELLE POUR RESUMER
AUTOMATIQUEMENT LES TEXTES
Par : KRAME KADURHA David
Travail présenté en vue de l’obtention du Diplôme d’ingénieur civil en génie électrique et informatique
Option : Génie informatique
Directeur : Prof BARAKA MUSHAGE Olivier
Encadreur : Ir MUHINDO WAMUHINDO Abdenego
ANNEE ACADEMIQUE 2021−2022
Dédicaces
Remerciements
Résumé
Sigles et abréviations
Table des matières
Dédicaces i
Remerciements ii
Résumé iii
Sigles et abréviations iv
Introduction générale 1
0.1 Contexte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
0.2 Identification et formulation du problème . . . . . . . . . . . . . . . . . . . 1
0.3 Questions de recherche . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
0.4 Hypothèses de travail . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
0.5 Justification du choix du sujet et motivations . . . . . . . . . . . . . . . . . 3
0.6 Objectifs de la recherche . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
0.6.1 Objectif général . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
0.6.2 Objectifs spécifiques . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
0.7 Méthodologie de recherche et délimitation du travail . . . . . . . . . . . . . 5
0.8 Subdivision du travail . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
Généralités sur le NLP 6
Introduction partielle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
Présentation et définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
Nécessité de l’approche par deep learning . . . . . . . . . . . . . . . . . . . 8
Quelques techniques courantes de traitement des textes . . . . . . . . . . . 9
La tokenisation (tokenization) . . . . . . . . . . . . . . . . . . . . . . 9
Les stopwords[44] . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
La racinisation (stemming) . . . . . . . . . . . . . . . . . . . . . . . . 10
La lemmatisation (lemmatization) . . . . . . . . . . . . . . . . . . . . 10
SYNTHESE AUTOMATIQUE DES TEXTES
Reconnaissance d’entités nommées (NER)[44] . . . . . . . . . . . . . 11
L’étiquetage morpho-syntaxique (POS tagging) . . . . . . . . . . . . 11
Approches du NLP . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
Les réseaux de neurones artificiels (ANN) . . . . . . . . . . . . . . . 12
Les réseaux de neurones récurrents (RNN) . . . . . . . . . . . . . . . 13
Mécanismes d’attention . . . . . . . . . . . . . . . . . . . . . . . . . 20
Les transformers . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
Conclusion partielle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
Résumé automatique et conception 29
Introduction partielle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
Présentation et définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
Catégorisation des résumés . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
Selon la fonction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
Selon le nombre de documents source . . . . . . . . . . . . . . . . . 32
Selon le genre des documents . . . . . . . . . . . . . . . . . . . . . . 32
Selon le type de sortie (résumé obtenu) . . . . . . . . . . . . . . . . . 33
Selon le type de résumeur . . . . . . . . . . . . . . . . . . . . . . . . 34
Selon le contexte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
Selon le destinataire du résumé . . . . . . . . . . . . . . . . . . . . . 35
Approches de résumé automatique . . . . . . . . . . . . . . . . . . . . . . . 35
Techniques intuitives de résumé [36] . . . . . . . . . . . . . . . . . . 35
Algorithmes classiques de résumé automatique . . . . . . . . . . . . 38
Modèles Seq2Seq . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
Methodes du Word-Embedding . . . . . . . . . . . . . . . . . . . . . 45
Modèles séquence-à-séquence proprement dits . . . . . . . . . . . . 46
Modèle BART pour la synthèse abstractive . . . . . . . . . . . . . . . 50
Conception de l’architecture globale du système . . . . . . . . . . . . . . . . 51
Spécifications du système . . . . . . . . . . . . . . . . . . . . . . . . 52
Présentation des éléments du système . . . . . . . . . . . . . . . . . 52
vi sur 68
TABLE DES MATIÈRES
Architecture du module de synthèse extractive . . . . . . . . . . . . 54
Architecture du module de synthèse abstractive . . . . . . . . . . . 56
Présentation des interfaces . . . . . . . . . . . . . . . . . . . . . . . . 58
Conclusion partielle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
Conception finale, réalisation et tests 60
Conclusion générale 61
Annexes 68
vii sur 68
Liste des figures
I.1 Réseau de neurones à une couche cachée et sans boucle [47] 13
I.2 Illustration de ce qu’est un RNN [22] 14
I.3 Comparaison entre cellules RNN classique et LSTM [18] 15
I.4 Vue fonctionnelle d’une cellule LSTM [18] 16
I.5 Cellule GRU [18] 19
I.6 Réseaux série-vers-série (en haut à gauche), série-vers-vecteur (en haut à
droite), vecteur-vers-série (en bas à gauche) et encodeur-décodeur (en bas àdroite) [16] 21
I.7 Architecture générique des transformers [50] 23
I.8 Vue éclatée d’un transformer [51] 27
II.1 Diagramme des fréquences des mots et le choix de Luhn [29] 40
II.2 Comparaison simplifiée entre BERT, GPT et BART [25] 50
II.3 Transformations de bruitage expérimentées pour BART [25] 50
II.4 Architecture globale de notre système 52
II.5 Architecture globale du système de synthèse abstractive 57
II.6 Architecture interne du modèle mentionné sur la figure II.5 57
II.7 Ébauche d’interface 58
viii
Introduction générale
0.1 Contexte
A l’ère du numérique, comme depuis l’invention de l’écriture, le texte est l’un des principaux moyens de communication et surtout, de transmission des connaissances.
Des livres aux SMS, en passant par diverses pages web, les données textuelles sont partout. En 2018, il s’agissait d’environs 80% de l’information qui circulait sur le web [23]. L’évolution de l’informatique continue à démontrer la possibilité de simplifier toujours grandement la vie de l’homme en automatisant de plus en plus l’accomplissement des tâches rébarbatives.
Certaines tâches comme celles liées explicitement à l’arithmétique semblent mieux se prêter à cette vague d’automatisation, les données numériques étant par essence celles prises en compte par les plateformes numériques.
Néanmoins, des transformations adéquates permettent de prendre en compte tout type de donnée, et le texte n’est pas exclu. C’est ainsi que, des avancées récentes en traitement automatique du langage naturel ont prouvé que le traitement du texte par l’ordinateur peut être raffiné autant qu’on veut, dans les limites du possible.
Cela est en fait une bonne nouvelle car, il s’avère que des nombreux sujets restent fermés à la majorité des gens suite au manque de temps, au regard de la quantité d’informations à consulter pour espérer avoir ne fusse qu’une lueur d’idée du domaine ou du sujet qu’on veut rapidement explorer.
C’est en ce sens que la mise au point des technologies pouvant faciliter l’exploration des connaissances présentées sous forme textuelle est salvatrice.
0.2 Identification et formulation du problème
Comme présenté dans la section précédente, la voie la plus privilégiée pour transmettre les connaissances est l’écriture. Mais, admettons que souvent, dans un long texte, la
1
SYNTHESE AUTOMATIQUE DES TEXTES
quantité d’information pertinente est moindre par rapport à la longueur du texte entier.
Comment faire donc pour identifier cette partie utile et gagner ainsi en temps ?
Il est souvent inintéressant de passer du temps à lire des textes très longs, surtout quand on veut juste avoir une compréhension suffisante en peu de temps de ce qui est écrit, ou quand le sujet traité ne fait pas partie de notre domaine de prédilection. Il est donc intéressant de mettre au point un système qui pourra assister l’homme dans la tâche de synthèse des connaissances afin de promouvoir par là-même un échange entre disciplines, ce qui est souvent très enrichissant.
0.3 Questions de recherche
Vu le problème que nous venons de présenter, une question se pose :
Est-il possible de mettre au point un système informatique capable de synthétiser les textes avec une performance de niveau humain ?
La précédente question nous amène aussi à nous demander ceci :
Un traitement purement linguistique ne pourrait-il pas nous permettre de générer des synthèses suffisamment bons pour atteindre notre objectif ?
L’inclusion des traitements basés sur l’intelligence artificielle dans les modules de synthèse est-elle obligatoire pour atteindre des bonnes performances ?
Quelle est l’architecture globale la plus adaptée pour réaliser un système de synthèse automatique performant ?
0.4 Hypothèses de travail
A la suite des questions que nous venons de soulever, nous postulons que :
Vu la complexité du langage naturel, un traitement purement linguistique ne nous permettrait pas de mettre au point un système de niveau humain en synthèse des textes;
0.5. JUSTIFICATION DU CHOIX DU SUJET ET MOTIVATIONS
Étant donné que, par définition, le langage naturel est difficile à formaliser complètement, on ne pourrait pas se passer de l’intelligence artificielle pour parvenir à réaliser un système performant;
Une architecture basé essentiellement sur des modèles du type transformer, joint à l’utilisation de quelques règles inspirées de la linguistique permettrait d’avoir un système de synthèse performant.
0.5 Justification du choix du sujet et motivations
Pour synthétiser un texte, il faut l’avoir aumoins lu! Et pourtant, pour lire un texte, il faut du temps, une denrée souvent rare.
Certains textes sont souvent fournis, accompagnés des synthèses qui sont parfois très bonnes, parfois incomplètes et parfois même très polarisées ou tout simplement mauvaises. Toutefois, avoir une synthèse à la demande serait mieux que de ne trouver que des synthèses de certains textes, sans d’ailleurs en avoir le plus souvent besoin. Nombreux sont des textes (livres, articles, pages web et autres documents) dont on voudrait avoir des bonnes synthèses, qu’on ne trouve que très rarement si on ne s’est pas découragé avant. C’est la raison pour laquelle, nous nous sommes fixé comme objectif de répondre à ce besoin précis en mettant au point une application web de synthèse des textes. Beaucoup de chercheurs en linguistique et en traitement automatique du langage naturel principalement se sont penché sur ce sujet [23, 48, 1, 21, 2].
Des solutions ont été proposées mais ne sont pas toujours à la hauteur de nos attentes (mettre au point un système de performance presqu’humaine en synthèse automatique des textes). Les plus prometteuses de ces solutions se limitent à des tailles bien réduites de texte, ce qui est déjà un grand pas mais pas suffisant évidemment. C’est pour cette raison qu’il nous semble pertinent d’étudier cette question en profondeur et de mettre au point un système complet et utilisable en dehors du monde de la recherche.
Socialement, la mise au point de ce système sera d’une très grande importance. Cela dans plusieurs axes dont principalement :
Pour les chercheurs, car il pourra faciliter le survol rapide des connaissances provenant SYNTHESE AUTOMATIQUE DES TEXTES
des filières liées à leurs domaines, sans être obligés de consulter à l’avance un tas de documents issus de ces domaines connexes;
Pour tout le monde alors, le système pourra permettre un gain de temps considérable chaque fois qu’il donnera la possibilité d’avoir accès à une synthèse de bonne qualité à la demande, en très peu de temps.
0.6 Objectifs de la recherche
Objectif général
Cette recherche a pour objectif principal de concevoir et réaliser un système (une application web) qui facilitera la génération automatique des synthèses de niveau humain.
Objectifs spécifiques
Pour arriver à bout de notre projet nous comptons :
Évaluer les failles et limites des techniques de synthèse automatique existantes;
Corriger les failles ou compléter les techniques de synthèse automatique existantes; • Établir des architectures logiques optimales pour obtenir des synthèses de qualité;
Élaborer une interface de programmation d’applications devant faciliter l’accès au service de synthèse automatique;
Mettre au point une base de données pour stocker les synthèses les mieux cotées par les usagers, en prévision d’une amélioration future du système;
Réaliser une interface web de qualité pour permettre l’accès au service par divers utilisateurs.
0.7. MÉTHODOLOGIE DE RECHERCHE ET DÉLIMITATION DU TRAVAIL
Méthodologie de recherche et délimitation du travail
Pour la mise au point du système, nous comptons utiliser les méthodes d’analyse moyennant les techniques expérimentale (pour vérifier l’adéquation du fonctionnement de l’application mise sur pied avec le problème posé), et documentaire (pour une vision approfondie des techniques couramment utilisées et d’éventuelles améliorations nécessaires).
Ce travail se focalisera sur la synthèse des documents du type informationnel (livres historiques, discours, articles de presse, lettres, nouvelles, romans et tout autre type de document ayant une faible densité d’expressions mathématiques) et il s’agira d’une synthèse mono-document.
Subdivision du travail
Excepté l’introduction et la conclusion générales, ce travail sera ainsi constitué :
Au premier chapitre, Généralités sur le traitement automatique du langage naturel, nous passerons en revu toute la théorie nécessaire à la compréhension de notre travail.
Au second chapitre, Présentation du résumé automatique et conception de l’architecture du système, nous y présenterons les aspects du résumé automatique essentiels à notre travail et y concevrons pas à pas le système de synthèse automatique des textes dans tous ses aspects (pas uniquement le côté synthèse).
Au troisième chapitre : Conception finale, réalisation et tests, nous y finaliserons la conception et expliquerons les points importants de l’implémentation en nous basant sur la conception faite, puis nous présenterons les résultats des tests que nous aurons effectué.
Chapitre I
Généralitéssurletraitementautomatique du langage naturel
Introduction partielle
Dans ce chapitre, nous allons présenter brièvement le traitement automatique du langage naturel, ainsi que les techniques de traitement qui seront utiles pour la réalisation de l’objectif principal de ce travail. Nous allons donc y présenter une vue d’ensemble des architectures généralement utilisées, en nous focalisant essentiellement sur l’aspect intelligence artificielle du NLP (Natural Language Processing).
Dans un premier temps, nous y présentons quelques techniques, souvent incontournables lorsqu’on veut réaliser une tâche de traitement du langage. Après cela, nous parcourons divers modèles qui nous permettrons d’aborder le modèle le plus adapté à la tâche de synthèse automatique des textes, qui est l’objectif de ce travail.
Présentation et définitions
Le NLP est une discipline rattachée à l’intelligence artificielle et ayant pour principal objectif, l’étude des possibilités du traitement du langage humain par des machines. La raison pour laquelle la discipline s’inscrit comme faisant partie du domaine d’intelligence artificielle est que le langage est considéré comme étant une aptitude centrale de l’intelligence humaine, étant donné que l’usage d’un langage si complexe est l’un des éléments distinctifs principaux entre humains et autres animaux.
Le NLP inclut l’ensemble d’algorithmes, des tâches et des problèmes prenant en entrée
6
I.2. PRÉSENTATION ET DÉFINITIONS
des textes produits par des humains, pour finalement ressortir des informations pertinentes à propos de ces derniers ou alors du texte modifié de façon approprié selon l’objectif poursuivi. C’est ainsi que des tâches comme la traduction automatique, la génération automatique des textes ou aussi la synthèse automatique qui va nous intéresser dans ce travail, produisent directement du texte en sortie.
Mais, dans tous les cas, la sortie est soit immédiatement utilisable, soit alors elle est prise comme entrée d’un autre système dans la chaîne de traitement du texte.
On peut toutefois se demander la raison pour laquelle on parle de traitement automatique du "langage naturel" (quitte à se demander ce qui distinguerait un langage naturel des autres langages).
Pour établir clairement cette différence, il est nécessaire de donner une définition de ce qu’est un langage formel. Pour caricaturer, un langage formel est celui pour lequel il existe un mécanisme fini, et explicite, permettant d’en faire une analyse, quand bien même il serait constitué d’un nombre infini de mots. Donc, c’est un ensemble de mots analysable par un automate (au sens mathématique du terme) [9].
On peut donc comprendre directement que le mot "naturel" est ici utilisé pour faire une distinction avec les langages formels. C’est donc dans ce sens que toutes les langues parlées peuvent être vues comme des langages naturels. Les langages formels ont une syntaxe précise et sont spécifiquement conçus pour des objectifs bien cernés (penser à tous les langages de programmation par exemple). Ils sont donc très précis tant au point de vu grammatical que sémantique.
Concernant les langues humaines usuellement utilisées, on ne peut pas dire, sans être démenti, qu’elles sont dénuées d’imprécisions. Elles regorgent en générale une grande richesse, ce qui a pour conséquence d’introduire très souvent une grande ambiguïté. Pour s’en convaincre, il suffirait par exemple de considérer la phrase suivante :
Je le vois avec mes jumelles.
Très vite on remarque que cette phrase peut s’interpréter selon le contexte. On ne sait pas, en effet, si le sujet affirme voir quelqu’un avec ses jumelles d’observation, se promenant avec ses enfants jumelles, ou si le sujet voit quelque chose en utilisant ses jumelles en tant qu’instrument.
Ceci n’est qu’un exemple particulier pour illustrer cette dichotomie inhérente à l’emploi de la langue quelle qu’elle soit, mais cela suffit pour qu’on s’aperçoive que le problème est bel et bien réel.
Ce n’est d’ailleurs pas juste au niveau des interprétations qu’on peut identifier ce problème. Il s’observe même quand on considère les règles de grammaire. Certaines règles sont ainsi admises par certains linguistes mais rejetées ou trouvées superflues par d’autres [20].
C’est tout ce qui précède qui rend le langage humain à la fois riche et challengeant quand il s’agit de doter les machines de cette aptitude. D’où la raison d’être d’une discipline à part entière dédiée à la mise au point des règles de traitement du langage naturel, le NLP
[17].
I.3 Nécessité de l’approche par deep learning
Avant l’avènement du deep learning, des techniques traditionnelles du NLP étaient utilisées pour des tâches comme la détection des spams, l’analyse des sentiments et le POS (Part Of Speech tagging). Ces approches utilisaient essentiellement des caractéristiques statistiques des séquences comme, la fréquence des mots et les co-occurences par exemple. Néanmoins, le principal désavantage de ces techniques était qu’elles ne parvenaient pas à capturer une grande partie de la complexité linguistique du langage humain, comme par exemple le contexte.
Ainsi, les développements, récents d’ailleurs, des réseaux de neurone et du deep learning ont donné des nouveaux outils, pour approcher dans une large mesure les performances humaines en terme de traitement de langage. A notre avis, ces techniques sont les plus adaptées car, tout d’abord elles se rapprochent beaucoup plus des méthodes de traitement d’information par le cerveau humain, et ensuite, il serait autrement très couteux, voir impossible, d’élaborer des modèles capables d’embrasser toute la complexité du langage humain.
Le deep learning pour le NLP est axé grosso-modo sur la représentation d’entités textu-
I.4. QUELQUES TECHNIQUES COURANTES DE TRAITEMENT DES TEXTES
elles et le traitement élaboré sur ces représentations, de manière à en tirer des informations pertinentes ou à réaliser des transformations appropriées. Cette représentation constitue d’ailleurs un problème fondamental car c’est d’elle que dépend toute la chaîne de traitement des systèmes de NLP [46].
I.4 Quelquestechniquescourantesdetraitementdestextes
Dans cette partie, nous allons présenter diverses techniques intervenant dans le traitement des données de langage naturel. Ces traitements seront présentés de manière à dégager un pattern presque récurrent en terme de structure de traitement pour divers systèmes de NLP. Pour cela, nous allons d’abord présenter certaines manipulations réalisées sur les données en guise de pré-traitement. Puis, nous évoquerons deux techniques utiles aux tâches relevant du NLU (Natural Language Understanding).
I.4.1 La tokenisation (tokenization)
Manipuler des longues chaînes de caractères ne serait pas envisageable. Mais en informatique on est habitué à traiter des structures en terme de listes, de tableaux, de vecteurs,... Le tout étant représenté numériquement. C’est pour cela que l’opération consistant à réduire un corpus de texte en ses tokens est centrale.
Dans notre contexte, la tokenisation est une opération qui consiste à décomposer un texte
(une suite de phrases) en ses phrases constitutives ou une phrase en ses mots constitutifs. Cela est une première étape pour diminuer la difficulté inhérente au traitement des textes. En considérant la décomposition en mots, pour diminuer au maximum les difficultés de traitement et l’ambiguïté, on ajoute à la tokenisation d’autres traitements qui sont en général : la désaccentuation, le passage aux minuscules, la suppression des stopwords, la racinisation et la lemmatisation appliqués aux tokens obtenus [22].
I.4.2 Les stopwords[44]
Les stopwords sont, pour une langue donnée, des mots qui permettent de réaliser des phrases correctes mais qui n’apportent pas directement d’information significative sur l’ensemble (du point de vu traitement). Il s’agit par exemple en français de mots comme de, la, le,... ce qui correspond en gros aux prépositions, aux articles, aux conjonctions,... Il faut néanmoins préciser qu’on peut très bien décider de ne pas supprimer certains stopwords.
I.4.3 La racinisation (stemming)
La racinisation ou stemming en anglais consiste à découper le token de manière à n’en conserver qu’une partie qui semble rendre mieux compte de ce dont dérive ledit token. Seulement, ceci est fait sans se fier à ce que le résultat obtenu en tant que racine fasse partie du dictionnaire de la langue considérée [44, 22].
Cela permet juste de maximiser la probabilité de confondre des mots semblables qui sont présentés différemment dans diverses phrases. C’est à des fins de comparaison de phrases et de réduction d’ambiguïté. Pour illustration, on voudrait par exemple que si on retrouve les éléments "manger", "mange", "mangeable", "mangeons" dans un corpus, qu’ils soient transformés en un seul terme "mange". Cela se fait en découpant tous les mots qui ajoutent
d’autres affixes au terme. C’est cela en bref le stemming et, contrairement à ce que le nom suggère, il ne s’agit pas exactement de trouver la racine des mots (les mots dont ils dérivent). L’opération consiste essentiellement à réaliser un découpage des mots de manière à en supprimer les affixes.
I.4.4 La lemmatisation (lemmatization)
La lemmatisation quant à elle est une opération plus soignée mais plus coûteuse en terme d’implémentation [44, 22]. Elle réalise en fait ce qui n’est pas réalisé par le stemming en ce sens que lemmatiser un token consiste à la transformer en sa racine, et cette dernière doit être présente dans le dictionnaire. Par exemple, pour un mot au pluriel, il s’agira de le remplacer par son singulier, un verbe conjugué, par son infinitif,... Pour illustration, la
I.4. QUELQUES TECHNIQUES COURANTES DE TRAITEMENT DES TEXTES
lemmatisation consisterait à transformer par exemple "va", "allions", "irons" et "allé" par "aller" et "une" et "des" par "un". Cette tâche est grandement facilitée par des techniques de deep learning.
L’obtention des tokens peut également conduire à des tâches plus élaborées comme la détection des entités nommées et l’étiquetage morpho-syntaxique. Il s’agit des tâches très importantes que nous devons nécessairement mentionner.
I.4.5 Reconnaissance d’entités nommées (NER)[44]
La détection des entités nommées (Named Entity Recognition ou NER) consiste à repérer tout ce qui correspond à des noms de personnes, des noms d’organisations ou d’entreprises, des noms de lieux, des quantités, des distances, des valeurs, des dates ou tout autre élément qui constitue une nomination d’une entité existante précise dans un texte donné. Cette tâche est visiblement très importante dans la phase d’interprétation des données textuelles et il s’agit d’un simple problème de classification.
I.4.6 L’étiquetage morpho-syntaxique (POS tagging)
Le Part-Of-Speech tagging est une tâche consistant en gros, à associer aux éléments des textes, des informations grammaticales. En général, il s’agit d’associer aux termes des textes, leur nature grammaticale. Cela consisterait à dire que tel élément est un nom, tel autre un verbe,...[44, 22]
Cette tâche n’est pas une fin en soi. En effet, c’est une première étape dans l’analyse structurelle des textes, permettant de déduire diverses dépendances du point de vu linguistique. Elle est fortement facilitée par des approches basées sur le deep learning comme c’est le cas aussi pour la reconnaissance d’entités nommées.
Nous allons passer sous silence certains autres concepts du NLP comme le sacs de mots et le word embeddings dont nous parlerons dans la partie qui va suivre et qui présentera le résumé automatique, en tant que tâche du NLP.
I.5 Approches du NLP
Comme cela a été maintes fois mentionné, deux approches majeures sont d’usage pour traiter automatiquement les données de langage naturel. Il s’agit de l’approche numérique et de l’approche symbolique ou linguistique. Mais les deux approches sont dans la majorité des cas complétées par certaines heuristiques [31].
En ce qui nous concerne, l’approche sera essentiellement numérique avec un penchant prononcé pour les techniques du deep learning. D’ailleurs, concernant ces dernières techniques, les modèles de l’état de l’art les plus adaptés sont les transformers et leur présentation exige une revue chronologique car en effet, pour y arriver, des modèles classiques basés sur des réseaux de neurones récurrents (RNN) ont été utilisés car plus adaptés aux données séquentielles que sont les textes. Ensuite, le constat de leur mémoire limitée a fait à ce qu’on les modifie pour obtenir des unités à mémoire plus large dont les LSTM(Long Short-Term Memory) et les GRU(Gated Recurrent Unit). Furent ensuite introduits les mécanismes d’attention qui améliorèrent les techniques, aboutissant finalement aux modèles dits transformers, plus adaptés à des tâches de NLP élaborées.
I.5.1 Les réseaux de neurones artificiels (ANN)
Les réseaux de neurones artificiels (Artificial Neural Network ou ANN) sont un ensemble de neurones (artificiels) assemblés pour résoudre des tâches considérées comme requérant une certaine intelligence. Le neurone artificiel est un algorithme élaboré en s’inspirant du modèle théorique simplifié d’un neurone naturel. Il s’agit essentiellement d’une fonction d’agrégation ayant pour rôle de réaliser une somme pondérée des entrées qui lui sont présentées et d’une fonction d’activation qui formate la sortie de la fonction d’agrégation selon les valeurs attendues en sortie [12].
Les neurones sont généralement assemblés par couche comme présenté sur la figure qui suit :
Figure I.1: Réseau de neurones à une couche cachée et sans boucle [47]
Ce qui vient d’être présenté est suffisant pour avoir une idée globale de ce qu’est réellement un réseau de neurones artificiel. Néanmoins, nous pousserons plus loin pour toucher le plus vite possible aux modèles qui nous intéressent dans ce travail.
I.5.2 Les réseaux de neurones récurrents (RNN)
Un RNN(Recurrent Neural Network) est un type de réseaux de neurones conçu en principe pour traiter les données séquentielles, comme les données textuelles,...
La principale différence structurelle entre les ANN simples et les RNN est l’existence des connexions de récurrence dans ces derniers. Il s’agit des boucles permettant la prise en compte des sorties passées dans le traitement final des données [16].
Pour l’illustrer, rien de mieux qu’une image représentant la structure fonctionnelle des réseaux de neurones récurrents :
Figure I.2: Illustration de ce qu’est un RNN [22]
Où xi, hi et A représentent respectivement les entrées (à chaque pas temporel i), les états internes qui en résultent et le module récurent utilisé.
Pour une meilleure compréhension, une présentation formelle serait plus commode : Soient Wx la matrice des poids associée au vecteur d’entrée x, Wy une matrice associée au vecteur de sortie y et Wh celle associée au vecteur représentant les états cachés du réseau, avec bh et by respectivement les vecteurs des biais des neurones pour l’état caché et pour la sortie. Si on nomme aussi par yt la sortie du réseau à un instant donné t, on aura [15] :
ht
yt
= fact (Wxxt +Whht−1 +bh)
= gact Wyht +by
(I.1)
On voit très bien que la sortie du système dépend non seulement de l’entrée, mais aussi de l’état du système (h).
Les fonctions d’activation fact et gact qui sont mentionnées dans les équations I.1 représentent respectivement la tangente hyperbolique tanh et la fonction dite sof tmax [15].
L’entraînement des réseaux de neurones récurrents se fait de la même façon que pour les réseaux de neurones simples (avec uniquement une différence due au fait que pour le RNN on prend en compte le temps). On n’entrera pas dans le détail, vu que ce n’est pas exactement le sujet du travail mais, pour entamer la partie qui suit, il nous faut préciser que, comme pour les réseaux de neurones simples, l’entraînement exige d’appliquer une fonction de différentiation sur l’erreur produite par le système. Il s’agit de la fonction gradient. Mais, comme ici le gradient tient compte des grandeurs précédentes dans le temps, il y a un certain nombre de termes multiplicatifs qui peuvent amener le modèle à ne jamais converger ou au contraire, à la saturation. C’est le problème classique d’évanouissement (disparition) des gradients ou d’explosion des gradients [15].
En réponse au problème de disparition des gradients, les cellules LSTM (Long Short-Term Memory) sont utilisées en lieu et place des cellules RNN normales.
Les cellules LSTM
Les cellules LSTM (pour Long Short-Term Memory) sont utilisées en lieu et place des cellules RNN classiques (dites vanilla) pour permettre au réseau de traiter des séquences de plus en plus longues sans perte rapide d’information [16]. Pour cela, des éléments de contrôle de la mémoire de la cellule sont ajoutés. Pour illustrer nos propos, voici une image qui nous permettra de différencier une cellule RNN classique d’une cellule LSTM :
Figure I.3: Comparaison entre cellules RNN classique et LSTM [18]
Présentée comme cela, la cellule LSTM semble superflue mais si on présentait les équations associées à un réseau fait de ces cellules, on se rendra compte que c’est plutôt intuitif. Pour aborder les équations associées, considérons l’image suivante :
Figure I.4: Vue fonctionnelle d’une cellule LSTM [18]
Une cellule LSTM se comprend en la considérant comme constituée d’un ensemble de portes avec des fonctions bien particulières. Il s’agit d’une porte d’entrée, une porte d’oubli et une porte de sortie.
Il est évident que, pour chacune de ces portes que nous nommerons, à un instant t donné par It, Ft et Ot, le système doit apprendre ses paramètres en fonction de l’entrée et de l’état interne. Mais on doit aussi remarquer que, l’état est défini par deux paramètres au lieu d’un seul comme pour les RNN simples. Il s’agit, à un instant t donné, de ht (considéré comme état à court terme) et de ct (qui est un état à long terme mais dont le contenu est contrôlé, au vu de l’architecture de la cellule).
De ce que nous venons de dire, nous pouvons conclure que Ft, It et Ot sont des fonctions de Xt et de ht−1 aux poids près. On sait aussi que, si on veut une mémoire à long terme contrôlée, la valeur finale de ct doit être mise à jour en repérant ce qui doit être oublié parmi les éléments qui étaient précédemment dans la mémoire, pour y ajouter ensuite ce qui est sélectionné comme pertinent à l’entrée. Cela revient à utiliser Ft et It comme des portes de contrôle (ou de sélection). Et de cela on peut conclure que c’est plus intéressant d’avoir Ft et It qui prennent des valeurs entre 0 et 1 (pour modéliser la sélection) et ct devra dépendre de ces deux éléments, avec aussi l’état précédent de la mémoire à long terme.
Il est aussi vraisemblable que, l’état à court terme doit provenir de la mémoire à long terme (ça correspondra à une sélection de ce qui doit être pris en compte directement dans la mémoire à long terme). Cet état ht doit par conséquent dépendre de ct (il faut néanmoins noter qu’une autre approche serait possible ici, mais celle-ci est déjà pertinente). Finalement, on sait que la sortie finale doit nécessairement dépendre de l’état interne de la cellule. Il va ici s’agir de ht vu que la cellule est développée par analogie avec le processus de mémorisation des systèmes naturels (mémoire à court terme correspondant à la mémoire de travail).
De ce qu’on vient de dire on peut tirer que, fondamentalement on doit avoir :
F
t
I t
O
t
c t
h t
y t
= F (Xt,ht−1) = G(Xt,ht−1) = J (Xt,ht−1)
= K(ct−1,Xt,ht−1)
= L(ct)
= M(ht)
(I.2)
Avec F ,G,J ,K,L,M des fonctions dépendant des coefficients considérés (poids et/ou éléments de sélection qui sont les diverses portes définies).
Une implémentation classique de ce raisonnement se présente comme suit [16, 15] :
F
t
I t
O
t
c t
h t
y t
= σ Wf xXt +Wf hht−1 +bf
= σ WixXt +Wf iht−1 +bi
= σ (WoxXt +Wohht−1 +bo)
= Ft ◦ct−1 +It ◦tanh(WcxXt +Wchht−1 +bc)
= Ot ◦tanh(ct)
= Wyhht +by
(I.3)
Il faut remarquer qu’on a utilisé la fonction sigmoïde σ pour restreindre les valeurs des sélecteurs (portes) entre 0 et 1, puis on a utilisé le produit de Hadamard (produit terme à terme des matrices) pour réaliser effectivement la sélection grâce aux portes, en diminuant les termes dont les valeurs correspondantes des portes sont proches de 0 et en essayant de conserver ceux dont les valeurs correspondantes des portes sont proches de 1.
Cette implémentation peut être modifiée, surtout en ce qui concerne les fonctions d’activation utilisées (σ et tanh), et en particulier la fonction d’activation de finalisation tanh ici, mais c’est l’une des plus optimales.
Le seul problème qui demeure est que le nombre de termes à apprendre est très grand. Cela a fait à ce qu’on puisse essayer de le diminuer en implémentant le GRU (Gated Recurrent Unit) poussant un peu plus loin l’abstraction des portes pour diminuer le nombre de paramètres.
Les cellules GRU
Les cellules GRU (Gated Recurrent Unit) sont une autre implémentation des cellules des réseaux de neurones récurrents comme les LSTM à la différence près que, bien que partant de la même idée fondamentale évoquée précédemment, les GRU apparaissent comme une simplification des LSTM.
Elles possèdent néanmoins des performances comparables en ce qui concerne la prédiction des séries temporelles,... Les simplifications sont réalisées au niveau des états cachés et des portes. On conserve un seul état caché h (quitte à le contrôler à l’interne pour implémenter la mémorisation à long terme et à court terme). Et pour les portes, on fusionne les portes de sélection des entrées avec celle des éléments à oublier (donc les portes I et F) pour former une porte dite de mise à jour (porte qui sera appelée update ou U). La porte de sélection des éléments de sortie quant à elle, est transformée en porte de réinitialisation.
Ces deux portes (de mise à jour et de réinitialisation) sont en fait implémentées de façon identique que celles des cellules LSTM. La particularité des GRU se situe principalement au niveau de la gestion de la mémoire (l’implémentation du processus de mémorisation) car, ayant supprimé la distinction long-terme/court-terme, il fallait bien trouver un mécanisme devant permettre de bien gérer les deux aspects de la mémoire avec un seul état interne conservé.
C’est ainsi que, la porte de mise à jour (porte U) est introduite dans le calcul de l’état h pour assurer la sélection du type de mise à jour à effectuer. Il s’agit de faire en sorte que, selon l’état interne et l’entrée, tout l’état interne précédent soit considéré mais que certains éléments soient complètement modifiés, selon le besoin, et d’autres presque conservés.
Ainsi donc, h devient une combinaison d’éléments provenant de l’état interne précédent avec ceux provenant des nouveaux calculs effectués par la cellule (en fonction de l’entrée et de l’état interne précédent). Le comportement est alors le suivant :
Quand le vecteur de mise à jour a un terme proche de 1, cet état interne est presque conservé. Par conséquent, sa mise à jour est presque ignorée. Quand c’est plutôt 0, l’état interne précédent est presque ignorée et une mise à jour complète de cet état est effectuée.
La formulation mathématique permet de mieux en saisir le fonctionnement [16, 15] :
U
t
R
t
h t
y t
= σ (WuxXt +Wuhht−1 +bu)
= σ (WrxXt +Wriht−1 +br)
= Ut ◦ht−1 +(1−Ut)◦tanh(WhxXt +Whr (Rtht−1)+bc)
= Wyhht +by
(I.4)
Et pour illustration, on peut considérer l’image suivante :
Figure I.5: Cellule GRU [18]
Il faut noter que sur cette image (figure I.5), l’implémentation de la mise à jour est l’inverse de celle que nous avons décrit par les équations I.4. C’est-à-dire que les termes Ut et (1−Ut) sont permutés. Mais aussi, ici Zt représente Ut.
Ces modèles fonctionnent très bien et certaines implémentations permettent d’améliorer encore leurs performances. Ils sont néanmoins lents à entraîner, surtout à cause de l’aspect temporel. Parmi les techniques d’amélioration des performances, une peut être considérée car elle a un rapport direct avec notre travail. Il s’agit des mécanismes d’attention [3].
I.5.3 Mécanismes d’attention
Les mécanismes d’attention sont en bref des techniques permettant de lutter contre la perte de mémoire qu’on constate par exemple dans les cellules récurrentes ci-haut décrites, en se focalisant sur des éléments les plus importants à chaque traitement. Le travail consiste donc à repérer, pour chaque entrée, les éléments sur lesquels se focaliser.
C’est là qu’interviennent donc ces mécanismes.
L’une des implémentations les plus commodes est l’attention globale [30].
Pour l’expliquer, nous allons considérer une architecture jusque là passée sous silence, mais qui permet aux modèles introduits là haut de s’utiliser efficacement pour les tâches courantes du NLP en particulier. Il s’agit des modèles dits encodeur-décodeur.
En effet, lorsqu’on a un modèle à séquence fonctionnel, les objectifs peuvent être multiples. On peut vouloir :
1°) fournir une série d’éléments en entrée et ressortir une autre série (utile pour la prédiction de la valeur des actions par exemple,... );
2°) fournir un série en entrée mais faire ressortir un seul élément ou vecteur (utile pour la classification des textes, l’analyse des sentiments,...);
3°) fournir un vecteur plusieurs fois en entrée et produire une série (pour la génération des légendes pour des images par exemple,...);
4°) on peut aussi avoir un réseau série-vers-vecteur, appelé encodeur, suivi d’un réseau vecteur-vers-série, appelé décodeur (très utile pour la traduction et la synthèse automatique par exemple,...). Il s’agit du modèle encodeur-décodeur.
Une illustration par image sera suffisante :
Figure I.6: Réseaux série-vers-série (en haut à gauche), série-vers-vecteur (en haut à
droite), vecteur-vers-série (en bas à gauche) et encodeur-décodeur (en bas à droite) [16]
.
L’élément (le vecteur d’état) passé entre l’encodeur et le décodeur est dit vecteur de contexte. Il représente en quelques sortes un condensé des informations passés à l’entrée de l’encodeur. Toutefois, plus la séquence d’entrée est longue, plus le risque que la mémoire de certaines séquences puisse s’étioler devient grand. Ainsi, si par exemple on est entrain de vouloir traduire une longue phrase, on peut finir par transmettre un vecteur de contexte qui a perdu toute information sur les premiers éléments de la séquence passée en entrée. C’est pour cela qu’au lieu de passer un vecteur de contexte général, les mécanismes d’attention permettraient ici de ne se focaliser que sur certaines informations lors du traitement d’un élément particulier de la séquence (en ayant évidemment passé tous les états internes passés au décodeur). Pour le réaliser concrètement, le mécanisme d’attention global consiste à formater le vecteur de contexte en fonction des éléments de l’encodeur à prendre en compte lors du traitement par le décodeur.
Considérons que Ω, dont les termes sont représentés par wij, est la matrice des poids d’attention normalisés par une fonction softmax pour chaque ligne. Et que Π, dont les termes sont représentés par αij, est la matrice des poids d’attention générée par le mécanismes avant normalisation.Si les éléments ci représentent à chaque fois le vecteur contexte final à l’étape i de décodage et les hj sont les vecteurs d’état interne de l’encodeur, l’attention globale revient à réaliser la manipulation suivante, pour formater le vecteur de contexte à prendre en compte pour l’élément en cours de traitement [30] :
wij = sof tmax(αij) = Pekαeijαik (I.5)
ci = Pj wijhj
La dernière relation du système I.5 revient à réaliser une somme pondérée des vecteurs d’état internes passés de l’encodeur, selon l’importance de chaque état pour le traitement en cours. De ces équations il faut aussi remarquer que la notation des sommations n’est pas rigoureuse. Cela est volontaire car c’est intuitif (on réalise des sommations sur tous les éléments).
Plusieurs techniques arrivant à réaliser l’attention existent. En général, comme on peut d’ailleurs le déduire des relations de l’attention globale, ces mécanismes étaient utilisés dans le cadre des réseaux récurrents. Une question s’est toutefois naturellement posée : ne pourrait-on pas se passer des RNN pour mettre au point des réseaux complètement basés sur l’attention ?. La réponse est oui, avec des ajustements adéquats pour résoudre les faiblesses des modèles classiques dans le traitement des données séquentielles. C’est cela qui a conduit aux modèles dits transformers [50].
I.5.4 Les transformers
Il s’agit des modèles dont l’architecture générique se présente comme suit :
Figure I.7: Architecture générique des transformers [50]
Les transformers sont des modèles du type encodeur-décodeur comme on peut le constater sur la figure ci-dessus (bien que certaines implémentations n’en utilisent qu’une partie selon la tâche). Ils sont essentiellement basé sur les mécanismes d’attention, se passant de la récurrence [16, 15].
Nous donnerons une explication succincte de chacun des modules présents dans l’image I.7. En effet, présentons les modules selon l’ordre dans lequel les données traversent le modèle :
1°) Moduled’embedding : Nous savons que les données textuelles doivent être présentées au modèle sous forme numérique. Elles doivent donc être transformées avant de les passer aux parties suivantes. Néanmoins, vu que la représentation des entrées a
un impact significatif sur les performances d’un modèle, cette représentation doit être bien choisie. Un choix intuitif, et qui s’avère être performant, est de tout faire pour que si deux termes ont des sens proches, ils aient aussi des représentations vectorielles proches. Cela est réalisé par différentes techniques que nous présenterons dans le chapitre suivant, mais c’est là le rôle de la couche d’enchâssement (embedding).
2°) L’encodage positionnel (positionnal encoding) : Ce module ajoute l’information sur la position relative de chacun des éléments placés en entrée par rapport aux autres. Cela pallie au problème de perte d’information sur la position des mots quand on utilise un réseau non séquentiel comme les réseaux récurrents. Donc, la position de chaque terme de la séquence placée en entrée est encodée dans un vecteur puis ajoutée à l’encodage global du terme. L’un des encodages les plus utilisés est celui basé sur les fonctions trigonométriques tel qu’introduit dans [50].
3°) Module d’auto-attention : La couche d’attention, présentée en première position dans la boîte de l’encodeur, est en fait une couche dite de self-attention car elle opère sur la même séquence d’entrée. L’opération est réalisée pour permettre au modèle d’avoir une représentation de l’importance des termes dans la séquence d’entrée, les uns par rapport aux autres.
Pour illustration, considérons la phrase suivante : Walter est malade, il préfère se reposer.
Dans cette phrase, l’un des constats qu’on peut faire est que, le nom "Walter" est beaucoup plus lié au pronom "il" qu’au verbe "préférer". C’est à l’établissement des tels liens dans les représentations que sert le module d’auto-attention ici présenté. Il est important que ce lien soit implicitement présent dans les représentations, pour que le traitement soit efficace comme on l’a mentionné lors de la présentation des mécanismes d’attention. Donc cette couche est en fait un prolongement de celle d’embedding. Ici, le mécanisme d’attention utilisé est différent de celui qui a été présenté là-haut (attention globale). Il s’agit ici d’un mécanisme plutôt basé sur le produit scalaire mis à l’échelle (scaled dot-product). En effet, très brièvement, l’idée du scaled dot-product attention consiste à opérer une recherche des termes sur lesquels focaliser l’attention de la même façon qu’on réalise la recherche de la signification d’un mot dans un dictionnaire. Supposons qu’on veuille avoir la signification d’un mot dont on ne connaît pas l’orthographe exacte. Pour retrouver ce dernier dans un dictionnaire, il suffit de rechercher le mot qui ressemble le plus à l’orthographe que nous estimons être la plus vraisemblable. Mathématiquement, cette recherche de similitude correspond à un produit scalaire.
Similairement, le scaled dot-product consiste à générer trois éléments qui sont la clé ou key k, la valeur ou value v et la requête ou query q. La requête correspond au mot
qu’on cherche (orthographié selon ce que nous pensons), la clé correspond au mot présent dans le dictionnaire et la valeur correspond à la signification associée. Si on supposait qu’il existe plusieurs termes du dictionnaire qui s’orthographient presque de la même façon que le mot qu’on cherche, on devra passer par une mesure de similarité avant de se décider sur le sens le plus probable. Cela correspond à réaliser le produit de tous les k par les q présents, puis à normaliser l’ensemble des résultats de manière à ce qu’ils représentent des mesures de probabilité, et finir par choisir le sens v le plus probable.
Pour aller plus vite, on implémente ce processus en considérant tous les k, q et v au même moment de manière à réaliser le calcul une fois pour toutes. Cela revient à regrouper tous les k, q et v dans des matrices K, Q et V . Ce qui donne la relation qui définit l’attention par produit scalaire mis à l’échelle [50] :
Q ·KT
Attention(Q,K,V ) = sof tmax p ·V (I.6) dk
Dans cette relation, expression I.6, le terme pdk permet de mettre à l’échelle le résultat du produit scalaire de Q par K, c’est-à-dire Q·KT . Il faut noter que dk est la dimension d’une clé, et que cette normalisation permet d’améliorer les performances du modèle mais elle n’est pas la seule envisageable.
Il est aussi important de remarquer que la couche d’attention utilise trois termes pour arriver à bout du problème. Ces trois termes sont obtenus par une transformation linéaire dont les poids sont appris à travers un réseau de neurones simple.
Il faut aussi noter que l’on utilise parallèlement plusieurs modules d’attention pour capture toutes les caractéristiques des séquences (on parle de multi-head attention). Pour une plus ample illustration, voir la figure I.8.
4°) Le module feed-forward : Il s’agit en fait d’un réseau de neurones de propagation avant classique (réseau à couches ajoutées de façon séquentielle). Il permet de réaliser le traitement qui fait suite à l’attention.
5°) Couche d’attention encodeur-décodeur : Il s’agit de la couche qui reçoit les données en provenance de l’encodeur. Il s’agit ici d’une couche d’attention et non d’autoattention comme c’était le cas pour la première couche de l’encodeur. En effet, contrairement à la couche de self-attention, pour laquelle tous les trois paramètres sont calculés à partir de la même séquence, la couche d’attention ici prend les clés K et valeurs V provenant de l’encodeur mais une requête Q provenant du décodeur.
Une autre couche feed-forward suit celle-ci et a le même rôle que celle de l’encodeur.
6°) Module d’attention masquée : Il s’agit de la première couche du décodeur. C’est aussi un module de self-attention auquel on ajoute le masquage. Ce module est dit masqué suite au fait que, comme le décodeur est un module de génération, on ne regarde que les termes précédemment générés, en masquant les termes qui seront probablement générés aux pas d’après. Cela est réalisé en rendant juste leurs probabilités nulles.
7°) Module linéaire final : Il s’agit d’un réseau de neurones classique pour réaliser la déduction finale, le tout étant passé à la fin à travers une opération softmax qui permet de transformer les résultats en probabilité d’éléments générés (cela permet de choisir le terme le plus vraisemblable à générer comme sortie).
Cette explication simplifiée se comprend mieux si on y joint la vue éclatée suivante :
I.6. CONCLUSION PARTIELLE
Figure I.8: Vue éclatée d’un transformer [51]
Les transformers, ici succinctement présentés, sont un modèle très adapté aux tâches de traitement automatique du langage naturel. C’est un modèle incontournable vu aussi que ses traitements peuvent être facilement parallélisés. Cela est rendu possible par le fait que l’architecture des transformers est parallèle par essence.
I.6 Conclusion partielle
Nous venons de réaliser une vue d’ensemble du domaine de traitement automatique du langage naturel, ainsi que diverses techniques couramment utilisées. Pour cela, nous avons tout d’abord justifié la préséance des modèles basés sur le deep learning pour diverses tâches du NLP.
Ensuite, nous avons évoqué les technique de pré-traitement des textes, souvent incontournables, comme la réduction des séquences en leurs tokens constitutifs, la suppression des mots fréquents mais n’apportant pas assez d’informations et la réduction des mots en leurs racines respectives. Nous y avons aussi joint quelques techniques utiles à la compréhension du langage humain comme le POS tagging et la reconnaissance d’entités nommées. Ce qui précède nous a finalement conduit à présenter les modèles courants du NLP basés sur les RNNs et, nous avons terminé par la présentation de l’architecture transformer, modèle que nous utiliserons pour ce travail (les précisions sur les modèles particuliers seront données au chapitre suivant).
Les transformers constituent un type de modèle qui s’avère être le plus adapté (pour le moment) au résumé automatique du texte et, dans le chapitre suivant, nous commencerons par présenter les diverses spécificités du résumé automatique comme tâche du NLP, pour finir par présenter l’architecture globale du système que nous comptons élaborer.
Chapitre II
Présentation du résumé automatique et conception du système
II.1 Introduction partielle
Le résumé automatique étant le sujet principal de ce mémoire, dans cette partie nous le présentons alors en détail en tant que discipline et tâche du NLP. Nous allons ici présenter les théories sur la synthèse automatique des textes, en classifiant les diverses méthodes utilisées pour pouvoir situer notre système dans l’ensemble des travaux jusque-là menés sur ce sujet.
Ensuite, nous présenterons les diverses approches utilisées pour le résumé automatique, sans oublier d’approfondir notre présentation des modèles de type transformer adaptés à cette tâche, pour finalement mentionner le modèle que nous estimons le plus adapté concernant l’approche basée sur le deep-learning pour la synthèse automatique. Enfin, nous allons réaliser une conception rapide mais suffisante de l’architecture globale de notre système, tout en précisant le rôle et le fonctionnement de chaque partie.
II.2 Présentation et définitions
Selon Le Petit Robert, résumer c’est reprendre en plus court un discours, le présenter brièvement en conservant l’essentiel. En d’autres termes, c’est l’abréger, l’écourter, le réduire. De même, en tant qu’exercice intellectuel, le résumé, consiste à réduire un texte tout en lui restant fidèle. Il exige donc de restituer les idées en un nombre déterminé de mots, en évitant au mieux de recopier le texte à résumer. Il faut alors composer un texte
29
plus court qui contienne l’essentiel du message initial.
De cela on tire que le résumé devient automatique s’il est généré par un logiciel ou un système informatique.
Cette définition est en fait correcte bien qu’elle ne soit assez précise pour notre contexte. Il nous faut une définition assez générale et précise, embrassant au mieux l’aspect automatique, ou mieux, l’aspect informatique, qui nous intéresse dans ce mémoire. Une définition assez valable est celle de TORRES-MORENO Juan-Manuel qui dit qu’un résumé automatique est un texte généré par un logiciel, cohérent et contenant une partie importante des informations pertinentes de la source, et dont le taux de compression est inférieur au tiers de la taille du(des) document(s) source(s) [48].
L’introduction du taux de compression dans la définition n’est pas anodine car, on s’est très vite rendu compte que la performance d’un système de résumé automatique dépendait fortement du taux de compression. En effet, les études de [26] montrent que les meilleures performances des systèmes de résumé automatique sont généralement atteintes pour des taux de compression compris entre 15 et 30% [48].
Nous allons adopter, dans ce travail, la définition de TORRES-MORENO Juan-Manuel ci-haut présentée.
Toutefois, on ne doit pas manquer de signaler que la génération automatique des résumés est un problème complexe en soi, tout comme l’évaluation des résultats. Le résumé est en effet une tâche cognitive requérant la compréhension du texte considéré et, les humains n’étant pas toujours bons dans les tâches de synthèse, le manque d’étalon explique qu’il y ait également une difficulté d’automatisation du processus.
II.3 Catégorisation des résumés
Les résumés peuvent être classifiés selon différents critères tels que leur fonction, le nombre de documents source, le genre de document, le type de résumé, le type de résumeur, le contexte,...
II.3. CATÉGORISATION DES RÉSUMÉS
Parcourons de manière succincte ces différents critères de classification [36, 31, 32, 38, 37, 48] :
II.3.1 Selon la fonction
Selon leur fonction, on classifie les résumés en deux groupes qui sont le résumé indicatif et le résumé informatif.
Résumé indicatif
Tel une table des matières, un résumé indicatif renseigne le lecteur sur les thèmes abordés dans un document. Il liste donc les sujets les plus importants évoqués par le texte. Certains systèmes de résumé guidé génèrent un résumé indicatif du texte comme étape initiale, l’utilisateur choisit alors parmi les sujets proposés par le résumé ceux qui l’intéressent et le système produit enfin un résumé informatif du texte guidé par la requête de l’utilisateur. La requête dans ce cas est l’ensemble des sujets sélectionnés à partir du résumé indicatif.
Résumé informatif
Il s’agit d’un modèle rétréci du texte d’origine, relatant le plus largement possible les informations contenues dans celui-ci. Ce type de résumé répond souvent à une attente en résumant de plus le contenu. La problématique ici est donc double : comprendre ce qui n’est pas information dans un texte et connaître le besoin de l’utilisateur final. Néanmoins, si on n’a pas de requête spécifique de la part de l’utilisateur, le résumé informatif est réalisé en veillant à ce que l’ensemble des principaux sujets du texte d’origine soit rapporté. Ainsi, les sujets principaux qui sont rappelés dans le résumé sont répartis de manière fidèle par rapport à l’organisation initiale afin de donner un juste aperçu du texte source.
II.3.2 Selon le nombre de documents source
Selon le nombre de documents source on a les résumés mono-document et multidocument.
Résumé mono-document
Il consiste à résumer un document isolé. Le corpus de documents source est donc ici constitué d’un seul et unique document.
Résumé multi-document
Il s’agit d’un résumé de plusieurs documents (un groupe de documents), très souvent liés thématiquement, en faisant attention à ne pas insérer des informations déjà évoquées.
II.3.3 Selon le genre des documents
Résumé des documents journalistiques
Il s’agit de résumer les documents du type article de presse (sachant qu’ils ont une structure particulière). En effet, on sait par exemple que dans le domaine journalistique, les informations les plus importantes sont souvent mentionnées au début du texte.[36]
Résumé des documents spécialisés
Il s’agit de résumer des documents en provenance d’un domaine précis (géologie, médecine, mathématique,...), fortement spécialisé.
Résumé des documents littéraires
C’est le résumé de documents du type narratif, des textes littéraires, des textes argumentatifs, ...
II.3. CATÉGORISATION DES RÉSUMÉS
Résumé des documents encyclopédiques
Ici il s’agit de résumer des documents de type encyclopédique (en général multithématiques de toute évidence) à l’exemple de Wikipédia...
II.3.4 Selon le type de sortie (résumé obtenu)
Cette classification est très importante et très utilisée. Il s’agit des :
Résumés extractifs (extractive summarization)
Le résumé extrait est formé de segments de texte extraits du(des) document(s) source(s). Ces segments peuvent être des phrases, des propositions ou n’importe quelle unité textuelle présent dans le(s) document(s) à résumer. Le problème consiste donc à repérer les segments de texte qui semblent être les plus pertinents pour faire partie du résumé final. Les éléments obtenus à la fin sont donc explicitement présents dans le(s) document(s) source(s).
Résumés abstractifs (abstractive summarization)
Les méthodes de résumé abstractives imitent, jusqu’à un certain degré, le processus naturel accompli par l’homme pour résumer un document. Par conséquent, elles produisent des résumés plus similaires aux résumés manuels (humains). Ce processus peut être décrit par deux étapes majeures : la compréhension du texte source et la génération du résumé. La première étape vise à analyser sémantiquement le contenu du texte et à identifier les parties à exprimer dans le résumé. C’est en quelques sortes une tâche d’extraction d’information liée au domaine abordé ou de regroupement des phrases du texte source. Vient ensuite la génération du texte.
Bref, on produit un résumé rapportant le contenu du(des) texte(s) source(s) en utilisant un vocabulaire différent et plus concis.
Il existe aussi des résumés dits semi-extractifs, et même aussi des résumés dits par compression [48] mais nous estimons inutile de les décrire ici étant donné que la distinction abstractif-extractif suffit pour notre contexte.
II.3.5 Selon le type de résumeur
Le résumeur est le système qui réalise le résumé. Il peut s’agir d’une entité naturelle (un humain) ou artificielle (un logiciel). On a donc essentiellement les deux cas suivants :
Résumé humain (manuel)
Il s’agit d’un résumé réalisé par un humain. Il peut être fait par l’auteur même du document (on parle souvent de résumé d’auteur), par un expert du domaine traité (on parle souvent de résumé d’expert) ou par un professionnel de résumé (on parle de résumé professionnel).
Résumé automatique
Il s’agit, comme on l’a maintes fois mentionné, d’un résumé fait par un système informatique.
II.3.6 Selon le contexte
Résumé générique
Ici on résume le document sans prendre en compte les besoins d’information de l’utilisateur. On produit juste un résumé complet et le plus mieux fait possible.
Résumé guidé
Pour ces types de résumé, l’utilisateur commande la génération du résumé en précisant les types d’information dont il a besoin.
Résumé mis à jour
Il s’agit d’un résumé de type dynamique par essence. Ici, un ensemble de documents sources est résumé en veillant minutieusement à ce que le document dont le résumé est ajouté à la suite d’un précédent résumé ne puisse pas créer une répétition d’information.
Il y a donc un contrôle de nouveauté.
II.3.7 Selon le destinataire du résumé
On peut aussi classifier un résumé selon le public auquel il est destiné.
Résumé sans profil
Il s’agit d’un résumé qui ne tient pas compte d’un quelconque profil utilisateur. Le résumé est donc généré sans tenir compte de la personnalité des utilisateurs.
Résumé avec profil
Il s’agit d’un résumé dont l’un des éléments guides (requête) est le profil des individus auxquels le résumé est destiné.
En ce qui concerne notre système, nous implémenterons à la fois un résumeur abstractif et un résumeur extractif et ce sera mono-document. En plus de cela, le résumé ne sera pas guidé, il s’agira de produire des résumés génériques, pour des documents de type littéraire (documents du type narratif, des textes littéraires, des textes argumentatifs,...).
II.4 Approches de résumé automatique
Nous allons présenter ici diverses approches algorithmiques pour résumer les documents textuels. Les approches seront abordées en supposant que les résumés sont principalement classés en abstractif et extractif.
II.4.1 Techniques intuitives de résumé [36]
Avec des critères centrés sur le contenu des textes, il existe un grand nombre d’algorithmes assez triviaux de résumé, qui sont basés entre autres sur : • La fréquence d’occurrence des mots et
• L’annotation en rôle sémantique.
Ces critères mettent l’accent sur le contenu du texte et le message qu’il communique.
Fréquence d’occurrence des mots
L’idée majeure des techniques qui utilisent ce critère consiste à considérer que les mots les plus fréquents sont les plus liés au sujet principal du texte à résumer. Cette approche assez simpliste mais fonctionnelle fut introduite en 1958 par Luhn [29], une première tentative de résumé automatique.
On affecte des scores aux phrases présentes dans le texte, en additionnant chaque fois les poids des mots les constituant (on attribue ce poids en fonction de la fréquence d’apparition du mot considéré dans le texte entier). Et, à la fin, le résumé est constitué avec les phrases extraites du texte source, et dont le score dépasse un certain seuil dépendant de la taille maximale imposée pour le résumé. Le tout est finalement réarrangé selon l’ordre d’apparition (des phrases sélectionnées) dans le texte d’origine.
L’annotation en rôle sémantique
Ici, l’idée est simple. En utilisant des techniques de repérage d’entités nommées (voir le chapitre précédent), on identifie les entités présentes dans le document. Après cela, l’entité la plus fréquente est identifiée et considérée comme entité principale. Par la suite, les phrases contenant cette entité sont sélectionnées. Enfin, seules les phrases où l’entité principale possède un rôle sémantique fondamental (non auxiliaire) sont gardées pour le résumé.
L’un des moyens les plus simples pour repérer les entités nommées est de passer par l’apprentissage profond comme on l’a précédemment mentionné.
Il existe tout de même des techniques qui ne se fient qu’à la forme et à la structure du texte, sans en considérer le contenu. L’intuition derrière cette approche est basée sur le constat que dans un texte, les éléments ne sont pas présentés de façon arbitraire. De manière usuelle, les techniques utilisées se basent sur :
La position des phrases;
La similarité avec le titre
La longueur des phrases ou sinon,
Les mots indices (cue word)
La position des phrases
Cette approche est à appliquer en fonction de la nature du document et de son genre. Pour certains types de documents (documents journalistiques par exemple), les phrases se trouvant au début sont généralement plus informatives et décrivent le sujet principal du document. De plus, les phrases situées au début de chaque paragraphe tendent à apporter plus d’informations pertinentes. Le résumé des articles scientifiques par contre, peut essentiellement se former en se basant sur les contenus des parties résumé et introduction (sous l’hypothèse que ces dernières parties sont bien faites). En revanche, dans le cas des revues intégratives (critique et comparaison des études), les phrases les mieux notées sont celles des parties résultats et discussion et conclusion.
Ces exemples suffisent pour illustrer dans quelle mesure cette approche peut s’appliquer.
La similarité avec le titre
Cette approche part du principe selon lequel un bon titre doit informer de manière brève du contenu principal du texte qu’il encadre. Cela permet alors de fixer comme mesure de pertinence des phrases, leur similarité avec les titres. Toute la problématique se réduit donc à la construction d’algorithmes capables de capturer efficacement la similarité.
La longueur des phrases
L’approche consistant à se baser sur la longueur des phrases est assez naïve mais fonctionnelle.
En effet, la longueur moyenne d’une phrase dans un texte dépend de son genre. Généralement, les phrases très courtes sont considérées comme peu informatives alors que les phrases très longues sont présumées favoriser la redondance. Cette caractéristique est exploitée en fixant un intervalle de longueur (entre 15 et 30 mots). Une phrase ayant une longueur en dehors de cet intervalle est pénalisée [45].
Les mots indices
Ici, on considère une liste de mots, constituée manuellement, et qui a comme rôle de permettre de se décider si une phrase doit être prise dans le résumé ou rejetée, selon qu’elle contient ou non un(des) mot(s) de la liste qualifié(s) inhibiteur(s) ou valorisant(s). Comme exemple des mots ou groupes de mots inhibiteurs on trouve : par exemple, accessoirement, ... Et pour les mots valorisants on peut citer : notez bien, ...
Nous devons quand même préciser encore une fois que tout dépend de celui qui écrit la liste.
Les méthodes que nous venons de présenter sont assez intuitives mais constituent la base des processus de synthèse. En effet, synthétiser un texte revient au fond à implémenter un certain nombre de règles, dont font parties évidemment celles que nous venons de mentionner. Néanmoins, ce que nous venons de présenter est décrit en se basant sur le concept de résumé extractif. Nous devons toutefois signaler que les résumés abstractifs se basent au fond sur les mêmes principes, soit en partant des résumés extractifs pour ensuite réaliser des paraphrases, insérer des connecteurs appropriés et éliminer les références anaphoriques dans les résumés, soit en implémentant indirectement toutes ces techniques à travers un modèle d’apprentissage automatique ou un modèle basé sur les graphes capables de capturer d’un seul coup tous ces aspects (ou une grande partie d’entre-eux). Les techniques intuitives ci-haut présentées ne sont pas les seules. Il en existe également d’autres, basées essentiellement sur les théories linguistiques. Entre autres les méthodes d’analyse du discours (par exemple la RST [31] ou Rhetorical Structure Theory)...
II.4.2 Algorithmes classiques de résumé automatique
Comme nous venons de l’introduire dans la section précédente, le résumé automatique est abordé essentiellement selon deux approches qui sont [31] :
1°) Les approches numériques, fondées sur les techniques à base des scores (poids), et
2°) Les approches symboliques fondées sur les techniques purement linguistiques, basées en premier sur une étude sémantique.
Il faut noter qu’on peut considérer aussi des approches basées sur la théorie des graphes comme intégrant les idées de ces deux approches de façon implicite, tout comme celles basées sur l’apprentissage automatique. Mais, dans tous les cas, une vue sur quelques heuristiques (méthodes basées sur le bon sens) est toujours à considérer (surtout en amont, puis en aval du processus de synthèse).
Ici, nous allons présenter les approches essentiellement numériques (on va y inclure celles basées sur l’apprentissage automatique et celles basées sur la théorie des graphes).
Algorithme de Luhn [29]
Il s’agit d’une méthode heuristique pour la synthèse des documents. C’est la plus ancienne méthode de résumé automatique (au sens moderne du terme).
Cette approche n’est pas considérée comme très bien formalisée. Elle exécute implicitement l’approche du TfIdf que nous allons décrire dans la sous-section qui suit celle-ci (sous-section II.4.2).
La sélection (des mots ici) se fait en considérant les hypothèses qui suivent :
la synthèse consiste à supprimer certains mots pour n’en conserver que les plus importants;
les mots se trouvant au début sont probablement importants;
les autres mots utiles respectent une certaine distribution. La figure II.1 montre, selon Luhn, comment choisir ces mots importants (partie hachurée de la courbe).
Figure II.1: Diagramme des fréquences des mots et le choix de Luhn [29]
Cette approche, comme on l’a mentionné au début, est assez moins précise et empirique, mais elle sous-entend les idées fondamentales appliquées plus tard.
Algorithme TF-IDF
Le tf-idf (time-frequency inverse document frequency est une approche essentiellement utilisée pour le résumé extractif. Il s’agit d’une correction de l’approche naïve consistant à poser que plus un mot est répété dans un corpus de texte, plus il y est important.
Soit donc un corpus constitué de D documents et Nj le nombre total de mots (termes) présents dans un document j donné du corpus. Nommons Freq(i,j) le nombre de fois qu’un terme i apparaît dans le document j.
On définit classiquement la fréquence d’apparition par :
Freq(i,j)
T F(i,j) = (II.1)
Nj
L’approche qui se base naïvement sur la fréquence d’apparition des mots dans les textes pour juger de leur importance relative, accorde à chaque mot un poids égal à T F(i,j). La grande faiblesse de cette approche est d’inclure ainsi des termes sans grande pertinence informationnelle comme des prépositions, des articles,... très présents au sein des documents.
Pour corriger cette faiblesse, on pose l’hypothèse que les termes importants apparaissent plusieurs fois dans un document (ou juste dans peu de documents du corpus) et non pas dans plusieurs documents. Puisque dans ce second cas, il est souvent question des éléments communs du langage, sans grande utilité informationnelle. Ceci constitue en fait la loi de Zipt [55] et c’est le fondement de l’approche du tf-idf.
A cet effet, on définit DFi comme étant le nombre de documents dans le corpus, qui contiennent le terme numéro i. Cela permet d’affecter alors le poids selon la formule [5] :
D !
T FIDF(i,j) = log(1+T F(i,j))·log (II.2)
DFi
Dans l’expression, II.2, en supposant que N est le dictionnaire des termes présents dans l’ensemble des documents, il faut noter que : i ∈ {1,...,N} et j ∈ {1,...,D}.
D’où finalement, le poids d’un terme i dans un document j est donné par :
wij = T FIDF(i,j) (II.3)
Pour notre cas, l’application de cette approche consiste à décomposer un long texte en ses phrases et de considérer que chacune de ces phrases est un document et que le texte entier constitue le corpus.
Plusieurs définitions des éléments T F(ij) et IDFi formant l’expression II.2 sont toutefois possibles selon les besoins en terme de performance.
Mais, dans l’ensemble, l’idée de base demeure la même car il ne s’agit en général que de changement des types de normalisation [55].
L’application de cette méthode pour le résumé consiste finalement à calculer le poids de chaque phrase en additionnant les poids des termes la constituant, puis à normaliser le résultat en fonction de la taille de la phrase considérée. Après tout, on définit un seuil qui permet de soutirer les phrases selon leur pertinence ainsi évaluée (en considérant évidemment plus pertinente une phrase dont le résultat de la sommation des poids est élevé).
Algorithme TextRank
TextRank est un algorithme de résumé extractif, basé sur la théorie des graphes et qui s’inspire de l’algorithme PageRank de Google [8, 4].
A la base, on considère un ensemble de N phrases donné, et on calcule les coefficients de liaison de chaque phrase aux N −1 autres. A la fin, on peut obtenir une matrice M de taille N ×N dont chaque terme Mij représente le degré de liaison entre la phrase numéro i et la numéro j. Il s’agit en fait d’une matrice d’adjacence dans laquelle on pose au préalable que Mii = 0, pour tout i (c’est la même idée pour l’algorithme PageRank étant donné qu’il est logique de considérer qu’une page ne peut s’auto-référencer).
Soit donc i ∈ {1,...,N}. Appelons P hri la phrase numéro i du corpus. Cela veut dire qu’on peut écrire :
Liaison P hri ↭ P hrj = Mij = Mji (II.4)
Les valeurs de Mij sont calculées au choix, selon le programmeur. Ce dernier implémente en effet une mesure de similarité selon sa définition de la liaison entre phrases et les besoins en performance.
C’est ainsi qu’on peut utiliser par exemple une mesure de similarité classique nommée similarité cosinus en la basant par exemple sur T FIDF [19].
Pour représenter les mots à comparer, on utilise les méthodes classiques de vectorisation des mots (word embedding). Nous esquisserons ces méthodes dans les sections qui vont suivre, parlant du word embedding ( II.5 ).
Le rang des phrases sont alors calculés de manière itérative en s’inspirant de la formule [33] :
N
Xh i
T extRank(P hri) = (1−K)+K · T extRank(P hrj) ·Mij (II.5)
j=1 j,i
Dans cette formule, K est une constante comprise entre 0 et 1.
Initialement, on prend en général une valeur identique de T extRank(P hri) pour toutes les phrases (souvent T extRank(P hri) = 1), mais la valeur initiale prise n’affecte pas les valeurs finales, juste le temps de convergence [33].
La formule II.5 n’est pas arbitraire, elle est d’ailleurs triviale si on s’inspire de l’algorithme de PagePank la plus simple. Pour cet algorithme (PageRank), on avait pris à l’origine K = 0.85 [8].
Justification de la formule Le principe de PageRank consiste à se dire que, si une page
P agi contient Ni références vers d’autres pages, la probabilité qu’on aille vers l’une de ces pages référencées est de N1i (avec l’hypothèse que les références ne sont pas répétées et que la distribution de leur importance est uniforme). On sait tout de même que plus une page est référencée, plus on doit lui donner de l’importance.
Si alors on pose que l’importance de la page P agi est connue, le calcul de l’importance d’une page P agj vers laquelle elle pointe se calculera logiquement par :
X 1
Importance(P agj) = Importance(P agi)· (II.6) i Ni
Avec i appartenant à l’ensemble des pages qui mentionnent la page P agj en leur sein.
Malheureusement, pour les phrases non référencées (pages dites isolées), on trouve une importance nulle. Pour lutter contre cela, la formule II.6 est un peu modifiée en y introduisant adéquatement une constante non nulle K.
Ce qui donne l’expression [8] :
X 1
Importance(P agj) = (1−K)+K · Importance(P agi)· (II.7) i Ni
On voit alors qu’il s’agit belle et bien de la formule utilisée pour TextRank (formule II.5).
Après initialisation des rangs de chaque phrase du texte ( les T extRank(P hri)) et après calcul de la matrice d’adjacence M. On applique la formule II.5 itérativement et à la convergence, on choisit les phrases qui vont former le résumé selon leur importance ( valeurs des T extRank(P hri) pour toute valeur de i).
A la fin, les phrases sélectionnées sont réarrangées pour former un résumé extrait plus ou moins cohérent.
Il existe également un algorithme nommé LexRank [14] qui est assez similaire à TextRank ici décrit, à la différence près que :
Il prend essentiellement en compte les métriques de similarité robustes;
Il considère la position et la longueur des phrases dans le calcul de leur pertinence; - Il est optimisé pour le résumé multi-document.
Plusieurs autres algorithmes populaires existent, par exemple les algorithmes LSA (Latent Semantic Analysis ou Analyse Sémantique Latente) et LDA (Latent Dirichlet Allocation ou Allocation Latente de Dirichlet) [5].
Le premier, la LSA, est un algorithme statistique, basé sur l’algorithme SVD (Singular Value Decomposition ou décomposition en valeurs singulières). Seulement, cette technique est très gourmande en ressources suite à la complexité de l’algorithme qui implémente le SVD. Le second, la LDA, basé sur la détection des thématiques, peut aussi être utilisé.
Toutefois, il faut remarquer que les algorithmes ici présentés sont essentiellement adaptés à la synthèse extractive. Même si, ces traitements peuvent être mélangés avec les techniques de résolution d’anaphores et les paraphrases pour obtenir des synthèses qui tendent vers la synthèse abstractive, nous devons souligner que les techniques jusque là les plus performantes pour la synthèse abstractive sont essentiellement basées sur le deep learning [36]. Le deep learning peut également être utilisé pour la synthèse extractive, permettant ainsi la génération des synthèses extraites plus cohérentes (avec résolution d’anaphores). Ainsi donc, nous abordons les méthodes de deep learning utilisées pour cet effet dans les parties qui suivent.
II.5 Modèles Seq2Seq
II.5.1 Methodes du Word-Embedding
Tout traitement commence par une représentation numérique des termes (des mots ici) pour qu’ils soient assimilables par le modèle. Une approche naïve consisterait à regrouper tous les mots de notre vocabulaire dans une liste (un dictionnaire) et de les représenter chacun par un nombre unique (un identifiant). Une autre approche, plus classique, consiste à représenter chaque mot par un vecteur de dimension égale à la taille du dictionnaire et dont tous les termes sont nuls, sauf à la position, dans le dictionnaire, du mot qu’on est entrain de vouloir représenter (on parle du one-hot encoding).
Ces représentations, et toutes celles qui s’y apparentent, ont la grande faiblesse d’être peu informatives (au point de vu sémantique). Étant artificiellement construites, sans tenir compte du sens des mots, ni de leur contexte, ces méthodes de représentation rendent la tâche de découverte des caractéristiques par les systèmes de machine learning encore plus difficile. D’ailleurs, l’une des faiblesses de la seconde méthode décrite (le one-hot encoding) est que les vecteurs sont creux (une majorité de valeurs nulles) et de dimension inutilement très grande. On pourrait directement songer à une représentation plus judicieuse pour éviter ces deux soucis, et qui consisterait à réaliser une représentation binaire des termes mais, le problème de la sémantique sera toujours là.
On recourt donc à des méthodes de représentation plus élaborées, partant du principe selon lequel le contexte d’un mot suffit pour en appréhender le sens. Ainsi, tout mot est représenté en réalisant une statistique (implicitement bien sûr) sur les divers mots qui l’accompagnent souvent, de telle sorte que les mots aux sens proches aient aussi des vecteurs très proches. Bref, on en arrive à réaliser la proposition : "Similarité sémantique implique similarité de représentation". Ce sont les méthodes classiques du word embedding (ou plongement lexical). Il s’agit par exemple des méthodes comme le Word2Vec [34, 35], Glove [39], fastText [6]...
II.5.2 Modèles séquence-à-séquence proprement dits
S’agissant des modèles séquence-à-séquence (Seq2Seq), ils ont été présentés dans la section I.5.3 (voir particulièrement la figure I.6). Il s’agit bel et bien des modèles adaptés aux tâches de synthèse, vu qu’en entrée on reçoit une séquence pour ressortir une autre séquence en sortie.
Comme nous l’avons déjà bien mentionné au précédent chapitre, nous n’allons parler que des modèles Seq2Seq de type transformer car actuellement, ils sont les plus adaptés à la tâche que nous voulons réaliser (celle de synthèse automatique). Les transformers (voir la figure I.7) sont un modèle très avantageux car en fait, au-delà de leurs performances et autres avantages, ils facilitent encore plus la recherche en NLP en rendant effectif le transfer learning (apprentissage par transfert) dans ce domaine.
L’entraînement des transformers est semi-supervisé. Il se fait en deux crans (nous les décrirons dans le cadre du NLP) :
1°) Pré-entraînement : il s’agit d’un apprentissage non supervisé, qui consiste à donner au modèle une masse colossale de données textuelles, non étiquetées, pour qu’il développe une compréhension statistique du langage qu’on veut qu’il puisse assimiler.
Au final, on obtient un modèle pré-entraîné.
2°) Affinage de l’apprentissage (fine-tuning) : Ça consiste à finaliser l’apprentissage du modèle pré-entraîné de manière supervisée pour qu’il soit en mesure de réaliser une tâche donnée du NLP (il s’agit du transfer learning en fait). Cette spécialisation, requiert une très faible quantité de données car le modèle aura déjà une représentation assez bonne de la langue. Cela pallie à la fois au problème de manque des données labellisées en NLP et de la consommation en terme de ressource énergétique des gros modèles lors de leur entraînement.
Les méthodes de pré-entraînement sont très déterminantes pour les performances finales du modèle. Ce premier entraînement du modèle a pour rôle de l’amener à construire un modèle de langage [25].
Il existe ainsi plusieurs objectifs de de pré-entraînement (pour construire le modèle de langue). On peut par exemple entraîner le modèle à :
Prédire le mot suivant : donc, lors de cet entraînement non supervisé, on fournit chaque fois au modèle une séquence de mots en lui demandant de prédire le suivant. Il s’agit d’un objectif d’entraînement dit NSP (Next Sentence Prediction) visant à transformer implicitement le transformer en un modèle de langue [11];
Deviner le mot caché (masqué) : on fournit au modèle du texte dont certaines parties (mots ou suite de mots) sont cachées. L’objectif assigné au modèle est alors de retrouver les mots masqués. On parle du MMLMasked Language Modelling [11].
Ainsi, au fur et à mesure, les paramètres du modèle s’affinent, le transformant en un modèle de langue performant. Mais, à part les deux que nous venons de mentionner, il existe d’autres objectifs de pré-entraînement [25, 54] selon les variantes de transformers et les objectifs finaux de spécialisation du modèle.
Bien que la forme classique des transformers est bel et bien celle de la figure I.7, il existe 3 types d’implémentation selon les types de tâche visées en dernier lieu :
1°) Modèles à encodeur seul : on supprime la partie décodeur. Ces modèles sont très bons pour les tâches de compréhension du langage comme la classification par exemple.
2°) Modèles à décodeur seul : on supprime alors la partie décodeur du modèle. Ils sont bons pour les tâches de génération de texte.
3°) Modèles encodeur-décodeur : ou encore modèles seq2seq proprement-dits. Ils sont bons pour les tâches demandant à la fois la compréhension et la génération des textes.
Pour illustrer ce fait, on va considérer donc 3 types de transformers [49, 52] :
1°) Like-BERT : semblables au transformer dénommé BERT Bidirectional Encoder Representations from Transformers. Ce sont des modèles du type encodeur seul. Ils sont également bidirectionnels. Donc, les phrases sont lues dans les deux sens pour mieux saisir tout le contexte.
2°) Like-GPT : donc semblables au transformer dénommé GPT (Generative Pre-trained Transformer) qui n’ont que la partie décodeur et sont dits auto-regressifs car, seules les parties précédant le mot en cours de traitement sont connues du modèle et il y a chaque fois réinjection des sorties à l’entrée.
3° Like-BART/T5 : semblables à BART (Bidirectional and Auto-Regressive Transformers) ou à T5 (Text-To-Text Transfer Transformer). C’est donc ceux du type encodeur-décodeur.
Modèles encodeurs (encoder-model) : Comme on l’a dit, pour ces modèles, on n’implé-
mente que la partie encodeur du transformer d’origine (celui de Vaswani et al. [50]). En plus de cela, ces modèles ont une couche d’attention bidirectionnelle et sont généralement appelés auto-encodeurs (auto-encoding model). Ces modèles sont principalement bons pour les tâches de NLU (Natural Language Understanding) comme la classification, le NER (Name Entity Recognition), l’extractive question-answering,...
Dans ce groupe, les modèles les plus connus sont :
ALBERT [24],
BERT [11],
DistilBERT [43],
RoBERTA [28],
Etc.
Modèles décodeurs (decoder-models): Utilisent seulement la partie décodeur, sont auto-
regressifs et par conséquent les têtes de self-attention n’accèdent qu’aux mots précédant l’étape à laquelle elles sont (pas de regard dans le futur) comme on l’a déjà un peu mentionné. Ces modèles sont particulièrement bons pour les tâches liées fortement au NLG (Natural Language Generation).
Dans ce groupe, les modèles les plus connus sont :
Les GPT (1, 2 et 3) [41],
TransformerXL [10],
Etc.
Modèles encodeur-décodeur (sequence-to-sequence models): Ces modèles utilisent l’in-
tégralité de l’architecture des transformers et sont ainsi bons pour les tâches demandant à la fois du NLU et du NLG comme la synthèse automatique abstractive, le generative question-answering et la traduction automatique.
Ici nous pouvons particulièrement mentionner les modèles comme :
BART [25],
mBART [27],
BARThez [13],
T5 [42],
mT5 [53], • PEGASUS [54],
Etc.
II.5.3 Modèle BART pour la synthèse abstractive
Le modèle BART est comme une combinaison de BERT [11] et de GPT-2 [40, 41] en terme
d’architecture et d’objectif de pré-entraînement, avec quelques optimisations supplémentaires [25]. Pour illustration, voici une image de comparaison :
Figure II.2: Comparaison simplifiée entre BERT, GPT et BART [25]
L’image II.2 étant claire, nous pouvons illustrer les diverses corruptions que peuvent subir les données pour le pré-entraînement. L’image ci-dessous l’illustre :
Figure II.3: Transformations de bruitage expérimentées pour BART [25]
Le modèle BART est bien adapté à la tâche de synthèse abstractive. C’est celui que nous
allons privilégier (les modèles dérivés de BART principalement) pour réaliser cette tâche dans notre système.
Justification du choix de BART
Le choix de BART est dû au fait que c’est le modèle que nous avons trouvé réalisant un bon compromis poids-performances. Aussi, après quelques tests, ses résultats nous ont paru être plus intéressants. En outre, l’objectif d’entraînement utilisé pour BART nous paraît assez général pour construire un modèle de langage performant. Nous justifierons plus précisément ce choix dans le chapitre qui suit, en présentant également quelques résultats des tests.
II.6 Conception de l’architecture globale du système
Il existe un large éventail des méthodes de développement des systèmes informatiques mais, en règle générale, toutes suivent les étapes suivantes [7] :
1°) Spécifications : on définit avec précision ce que fera le système (à quoi est-il destiné?);
2°) Conception et mise en oeuvre : on conçoit et on réalise le système;
3°) Validation : on teste le système pour voir s’il correspond aux objectifs précisés dans les spécifications;
4°) Évolution : ça correspond à tout ce qui vient après la livraison du produit (versionning, maintenances,...).
Ici, on ne va pas utiliser une méthode de conception particulière. Pour pouvoir tout de même y aller méthodiquement, nous nous inspirerons de ces étapes classiquement suivies lors de la conception des systèmes informatiques.
Dans ce second chapitre, nous ne présenterons que les spécifications du système ainsi qu’une ébauche de conception avec une présentation de l’architecture globale. La suite sera traitée dans le chapitre suivant.
II.6.1 Spécifications du système
Le système devra pouvoir permettre de réaliser ce qui suit :
Synthétiser les textes qui lui sont fournis en entrée (saisis directement ou importés dans fichiers .pdf non scannés, des fichiers .docx et .txt);
Servir les synthèses directement ou à travers un fichier .pdf à télécharger;
Obtenir des synthèses produites par plusieurs algorithmes et les évaluer;
Stocker les couples document-synthèse;
Faciliter le parcours des documents en soulignant les parties saillantes;
Permettre l’affinage d’un modèle de synthèse automatique (ici nous réaliserons le fine-tuning du modèle mBART ou du modèle mT5 selon celui qui se prêtera mieux à cet affinage).
C’est cela le minimum de besoins que le système devra être capable de combler.
II.6.2 Présentation des éléments du système
L’architecture globale de notre système est un trois-tiers classique. Elle se présente comme sur la figure II.4 :
Figure II.4: Architecture globale de notre système
La figure II.4 presente l’architéture du système qui est d’une architecture 3 − tiers classique. Il y a toutefois une partie qui n’est pas ici représentée car nous voulons nous donner une grande liberté de conception à son sujet. Il s’agit en fait de l’interface d’accès à l’API (Application Programming Interface), qui permettra aux développeurs de s’authentifier et générer éventuellement un token à utiliser pour implémenter leur propres interfaces devant permettre d’utiliser les services de cette API. Il s’agit donc d’une API privée.
Cette interface permettra aussi de voir toute la documentation de l’API (pour les développeurs) pour mieux utiliser ses services.
Quant au bloc interface que nous venons de présenter sur la figure II.4, c’est en nous mettant à la place d’un développeur lambda qui exploite les services de l’API.
Notre API quant à elle, est une API REST (REpresentationnal State Transfer qui aura 4 end-points principaux dédiés à la synthèse automatique (selon les besoins d’implémentation, on pourra en insérer d’autres mais qui ne concernerons probablement pas la synthèse).
Module de synthèse extraite : ce module réalisera une synthèse en combinant divers résultats d’algorithmes de synthèse extraite. Nous prévoyons, dans un premier temps, ne l’utiliser que pour des petits documents (la taille optimale sera déterminée avec les expérimentations au chapitre suivant).
Module de synthèse abstraite : ce module donnera une synthèse abstraite en utilisant l’un des transformers affinés pour la synthèse ou bien par le module qui sera en train de s’auto-améliorer au cours de l’utilisation du système (on l’a nommé expérimental, voir la figure II.7). Comme les transformers réalisent des synthèses de documents de taille généralement limitée à environ une page, nous mettrons au point, dans cette partie, une pipeline qui nous permettra d’augmenter le nombre de pages (nous pensons à 100 pages mais les expérimentations nous permettrons de choisir une taille optimale, tenant compte surtout de la rapidité).
Module de synthèse extrait simplifié : Il s’agira d’un module qui permettra la réalisation de la synthèse mais en utilisant l’un des algorithmes de synthèse extraite implémentés (soit de manière aléatoire, soit par choix de l’utilisateur).
Module expérimental : Il s’agira d’un module de synthèse abstraite qui sera essentiellement utilisé pour la synthèse des petits documents (quelques pages). Pour ce module, nous comptons mettre au point une routine d’entraînement à partir des synthèses collectées par le système, pour améliorer au fur et à mesure les performances de ce module. Nous comptons réaliser l’entraînement par transfer learning avec les transformers mT5[53] ou mBART [27] comme base. N’ayant pas encore testé cette partie, nous serons fixé sur la méthode à utiliser ainsi que le modèle de base à choisir au chapitre suivant, après les expérimentations.
On peut aussi remarquer qu’il y a un module pre-processing dans la partie interfaces. C’est par suite du fait que, pour des raisons de performance, on devra envoyer à l’API le fichier sous un format particulier. Il faudra réaliser l’acquisition des données dans divers formats (pdf,docx,...) mais les données acquises seront envoyées dans un format plus léger à l’API (du JSON pour notre cas).
La base des données, que nous avons mentionné dans la figure II.4, a un double rôle :
1°) Le stockage des données de l’utilisateur (il s’agira en fait des identifiants des interfaces qui utiliseront l’API);
2°) Le stockage des paires document-synthèse, ainsi que l’appréciation de l’utilisateur (évaluation par les utilisateurs).
II.6.3 Architecture du module de synthèse extractive
Le module de synthèse extractive se présente comme suit :
Comme nous pouvons le voir, un traitement sera fait pour adapter les données reçues à ce qui peut être traité par le système. Ce traitement consistera à ne retenir que des symboles alphanumériques, à réaliser la tokenisation des textes (chaque token sera une phrase pour cette partie) et à affecter un identifiant unique à chaque phrase.
Après cela, les données seront invariablement passées aux algorithmes de synthèse extractive, qui générerons chacun un groupe de poids des phrases. Après cela, le module de pondération et sélection réalisera successivement ce qui suit :
Acquisition des sorties de chaque algorithme de synthèse extractive (il s’agira des dictionnaires dont les clés seront les identifiant uniques des phrases et les valeurs seront les poids affectés par l’algorithme). A chaque algorithme, on donnera un poids qu’on nommera WNomdel′algo compris entre 0 et 1, selon la confiance qu’on lui porte (la somme des poids sera égale à 1 et par défaut, tous les algorithmes pourront avoir le même poids) ;
Élimination des phrases de poids faible (avec comme seuil, la taille maximale de résumé précisée par l’utilisateur);
Réarrangement de chaque dictionnaire obtenu après expulsion des phrases non significatives (les éléments seront arrangés par ordre décroissant des poids pour chaque sortie);
Donner des propabilités aux espaces des poids de chaque dictionnaire par application d’un softmax sur chacun d’eux. Ce qui donnera, pour chaque phrase de chaque dictionnaire, un nouveau poids ωphri, avec i le numéro du dictionnaire et phr le numéro de la phrase considérée dans ce dictionnaire ;
Listage complet des éléments (leurs identifiants) de tous les dictionnaires.
Pour chaque élément de la liste globale ainsi établie, appliquer la formule suivante pour obtenir un nouveau poids :
X
W = Wi ·ωphri (II.8) j
i∈D
Avec Wj le nouveau poids affecté à la phrase ayant un identifiant global j (l’identifiant là d’origine) et D la liste des dictionnaires (les sorties de chaque algorithme);
Arranger toutes les phrases par ordre décroissant dans une unique liste et sélectionner les plus haut dans la liste jusqu’à atteindre le seuil fixé (nombre de mots fixé pour la synthèse).
Constituer une liste avec les éléments sélectionnés.
Réarranger les phrases de la liste selon leur ordre de succession dans le texte d’origine.
Constituer la synthèse extraite.
Ce qui précède constitue en fait l’algorithme que nous allons implémenter pour le module de pondération et sélection.
II.6.4 Architecture du module de synthèse abstractive
Le module de synthèse abstraite n’est pas unique. Nous implémenterons plusieurs modèles (BART, BARThez, PEGASUS, mBART ou mT5 entraîné avec nos données, ainsi que tous ceux qui nous paraîtrons utiles durant les essais); Chaque module de synthèse se présentera néanmoins comme suit :
Figure II.5: Architecture globale du système de synthèse abstractive
Comme nous pouvons le remarquer, il y a toujours un module de mise en forme initial (pre-processing) qui nous permettra en gros de supprimer tous les caractères que nous ne pourrons pas gérer. Vient ensuite le module de tokenisation (le tokenizer ou tokeniseur) [49] qui consistera ici à diviser tout le texte en ses mots constitutifs et à leur affecter des identifiants numériques. Ce sont ces identifiants qui seront fournis au modèle et transformés en vecteurs par la couche d’embedding du modèle.
Le modèle quant à lui, aura toujours une architecture pareille :
Figure II.6: Architecture interne du modèle mentionné sur la figure II.5
Il s’agit en effet de l’architecture classique d’un transformer, comme présenté sur la figure I.7 à l’exception du fait qu’ici on fait explicitement apparaître l’existence de la sortie du modèle. Ça correspond au réseau linéaire suivi d’une couche de softmax tel que présenté sur la figure
I.7. Cette partie, que nous avons nommé head est différente selon les tâches [52], c’est pourquoi nous avons voulu la mentionner explicitement car, selon le besoin, on peut la modifier.
Nous devons finalement mentionner que les modules de tokenisation (nommés tokenizer en anglais) dépendront explicitement des modèles utilisés.
II.6.5 Présentation des interfaces
La partie interface nous permettra juste d’utiliser le service que nous aurons élaboré et d’évaluer par la même occasion ses performances. Elle n’est pas donc cruciale. Toutefois, voici une ébauche d’interface que nous comptons utiliser pour exploiter le service :
Figure II.7: Ébauche d’interface
Avec cette interface, on a une idée générale de la manière dont nous comptons servir le système aux utilisateurs.
II.7. CONCLUSION PARTIELLE II.7 Conclusion partielle
Dans cette partie, nous venons de présenter le résumé automatique des textes, tout en réalisant une vue d’ensemble des méthodes utilisées dans la littérature à cet effet. Nous avons mentionné que la classification des résumés que nous utiliserons sera celle les départageant en abstractive summarization et extractive summarization et que, pour notre cas, il s’agira de réaliser un système de résumé mono-document, avec une partie abstractive et une autre extractive, générant un résumé générique pour des documents de type narratif et argumentatifs.
Nous avons également listé les divers modèles de transformer adaptés à la tâche de synthèse automatique abstraite, et nous avons mentionné devoir privilégier les modèles du type BART pour des raisons qui serons précisées dans le chapitre suivant.
Enfin, nous avons réalisé la conception préliminaire du système tout en précisant que, concernant l’API, la BD (Base des Données) et les interfaces, les détails d’implémentation utiles seront précisés dans la partie dédiée à la conception proprement dite et aux tests, c’est-à-dire au chapitre suivant. Le chapitre suivant nous permettra donc finalement de préciser, réaliser et tester les méthodes que nous avons jusque-là adoptées pour la mise au point de notre système de synthèse automatique des documents.
GENERALEMENT
Place les références là où il le faut STP. Même si c’est une interpretation personnelle, elle tire la source quelque part.
Verifie aussi tous les commentaires que j’ai placé aux différents niveaux du texte
Chapitre III
Conception finale, réalisation et tests
Conclusion générale
Bibliographie
D. Adams. Combining State-of-the-art Models for Multi-document Summarization Using Maximal Marginal Relevance. University of Lethbridge, 2021.
Stergos D. Afantenos, Vangelis Karkaletsis, and Panagiotis Stamatopoulos. Summarization from medical documents: A survey. CoRR, abs/cs/0504061, 2005.
Dzmitry Bahdanau, Kyunghyun Cho, and Yoshua Bengio. Neural machine translation by jointly learning to align and translate. arXiv preprint arXiv:1409.0473, 2014.
Catherine Benincasa, Adena Calden, Emily Hanlon, Matthew Kindzerske, Kody Law, Eddery Lam, John Rhoades, Ishani Roy, Michael Satz, Eric Valentine, et al. Page rank algorithm. Department of Mathematics and Statics, University of Massachusetts, Amherst, Research, 2006.
Michael W Berry and Jacob Kogan. Text mining: applications and theory. John Wiley & Sons, 2010.
Piotr Bojanowski, Edouard Grave, Armand Joulin, and Tomas Mikolov. Enriching word vectors with subword information. Transactions of the association for computational linguistics, 5:135–146, 2017.
Boudjemaa Boudaa. Cours de génie logiciel (avec exercices résolus). Université IbnKhaldoun-Tiaret, Algérie, 02 2020.
Sergey Brin and Lawrence Page. The anatomy of a large-scale hypertextual web search engine. Computer networks and ISDN systems, 30(1-7):107–117, 1998.
O. Carton and D. Perrin. Langages formels : calculabilité et complexité : cours et exercices corrigés. Vuibert, 2014.
Zihang Dai, Zhilin Yang, Yiming Yang, Jaime Carbonell, Quoc V Le, and Ruslan Salakhutdinov. Transformer-xl: Attentive language models beyond a fixed-length context. arXiv preprint arXiv:1901.02860, 2019.
Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. Bert: Pretraining of deep bidirectional transformers for language understanding. arXiv preprint arXiv:1810.04805, 2018.
Youcef Djeriri. Les Réseaux de Neurones Artificiels. 09 2017.
Moussa Kamal Eddine, Antoine J-P Tixier, and Michalis Vazirgiannis. Barthez:
a skilled pretrained french sequence-to-sequence model. arXiv preprint arXiv:2010.12321, 2020.
Günes Erkan and Dragomir R Radev. Lexrank: Graph-based lexical centrality as salience in text summarization. Journal of artificial intelligence research, 22:457–479, 2004.
Thushan Ganegedara. Natural Language Processing with TensorFlow: Teach language to machines using Python’s deep learning library. Packt Publishing Ltd, 2018.
A. Géron. Deep Learning avec Keras et TensorFlow: Mise en oeuvre et cas concrets. Dunod, 2020.
M. Hagiwara. Real-World Natural Language Processing: Practical Applications with Deep Learning. Manning, 2021.
Patrick Hairy. Les réseaux de neurones récurrents pour les séries temporelles, Septembre 2021.
Nitin Indurkhya and Fred J Damerau. Handbook of natural language processing.
Chapman and Hall/CRC, 2010.
D. Jurafsky and J.H. Martin. Speech and Language Processing. Always learning.
Pearson, 2014.
SYNTHESE AUTOMATIQUE DES TEXTES
Min-Yen Kan, Kathleen R. McKeown, and Judith L. Klavans. Applying natural language generation to indicative summarization. CoRR, cs.CL/0107019, 2001.
Akshay Kulkarni and Adarsha Shivananda. Natural language processing recipes. Springer, 2019.
S. Lamsiyah, S. Ouatik El Alaoui, and B Espinasse. Résumé automatique guidé de textes: Etat de l’art et perspectives (guided summarization : State-of-the-art and perspectives ). In Actes de la Conférence TALN. Volume 2 - Démonstrations, articles des Rencontres Jeunes Chercheurs, ateliers DeFT, pages 55–72, Rennes, France, 5 2018. ATALA.
Zhenzhong Lan, Mingda Chen, Sebastian Goodman, Kevin Gimpel, Piyush Sharma, and Radu Soricut. Albert: A lite bert for self-supervised learning of language representations. arXiv preprint arXiv:1909.11942, 2019.
Mike Lewis, Yinhan Liu, Naman Goyal, Marjan Ghazvininejad, Abdelrahman Mohamed, Omer Levy, Ves Stoyanov, and Luke Zettlemoyer. Bart: Denoising sequence-to-sequence pre-training for natural language generation, translation, and comprehension. arXiv preprint arXiv:1910.13461, 2019.
Chin-Yew Lin. Training a selection function for extraction. In CIKM ’99, 1999.
Yinhan Liu, Jiatao Gu, Naman Goyal, Xian Li, Sergey Edunov, Marjan Ghazvininejad, Mike Lewis, and Luke Zettlemoyer. Multilingual denoising pre-training for neural machine translation. Transactions of the Association for Computational Linguistics, 8:726–742, 2020.
Yinhan Liu, Myle Ott, Naman Goyal, Jingfei Du, Mandar Joshi, Danqi Chen, Omer Levy, Mike Lewis, Luke Zettlemoyer, and Veselin Stoyanov. Roberta: A robustly optimized bert pretraining approach. arXiv preprint arXiv:1907.11692, 2019.
H. P. Luhn. The automatic creation of literature abstracts. IBM Journal of Research and Development, 2(2):159–165, 1958.
Minh-Thang Luong, Hieu Pham, and Christopher D Manning. Effective approaches to attention-based neural machine translation. arXiv preprint arXiv:1508.04025, 2015.
Mohamed Hedi Maaloul. Approche hybride pour le résumé automatique de textes. Application à la langue arabe. Theses, Université de Provence - Aix-Marseille I, December 2012. Date Soutenance 18-12-2012.
Inderjeet Mani. Automatic summarization, volume 3. John Benjamins Publishing, 2001.
Rada Mihalcea and Paul Tarau. Textrank: Bringing order into text. In Proceedings of the 2004 conference on empirical methods in natural language processing, pages 404– 411, 2004.
Tomas Mikolov, Kai Chen, Greg Corrado, and Jeffrey Dean. Efficient estimation of word representations in vector space. arXiv preprint arXiv:1301.3781, 2013.
Tomas Mikolov, Ilya Sutskever, Kai Chen, Greg S Corrado, and Jeff Dean. Distributed representations of words and phrases and their compositionality. Advances in neural information processing systems, 26, 2013.
Maali Mnasri. Résumé automatique multi-document dynamique. Theses, Université Paris-Saclay, September 2018.
Marie-Francine Moens. Automatic indexing and abstracting of document texts. Computational Linguistics, 27(1):149–149, 2001.
Ani Nenkova and Rebecca Passonneau. Evaluating content selection in summarization: The pyramid method. In HLT-NAACL 2004 - Human Language Technology Conference of the North American Chapter of the Association for Computational Linguistics, Proceedings of the Main Conference, HLT-NAACL 2004 Human Language Technology Conference of the North American Chapter of the Association for Computational Linguistics, Proceedings of the Main Conference, pages 145–152. Association for Computational Linguistics (ACL), 2004.
SYNTHESE AUTOMATIQUE DES TEXTES
Jeffrey Pennington, Richard Socher, and Christopher D Manning. Glove: Global vectors for word representation. In Proceedings of the 2014 conference on empirical methods in natural language processing (EMNLP), pages 1532–1543, 2014.
Alec Radford, Karthik Narasimhan, Tim Salimans, Ilya Sutskever, et al. Improving language understanding by generative pre-training. 2018.
Alec Radford, Jeffrey Wu, Rewon Child, David Luan, Dario Amodei, Ilya Sutskever, et al. Language models are unsupervised multitask learners. OpenAI blog, 1(8):9, 2019.
Colin Raffel, Noam Shazeer, Adam Roberts, Katherine Lee, Sharan Narang, Michael Matena, Yanqi Zhou, Wei Li, Peter J Liu, et al. Exploring the limits of transfer learning with a unified text-to-text transformer. J. Mach. Learn. Res., 21(140):1–67, 2020.
Victor Sanh, Lysandre Debut, Julien Chaumond, and Thomas Wolf. Distilbert, a distilled version of bert: smaller, faster, cheaper and lighter. arXiv preprint arXiv:1910.01108, 2019.
D. Sarkar. Text Analytics with Python: A Practitioner’s Guide to Natural Language Processing. Apress, 2019.
Barry Schiffman, Ani Nenkova, and Kathleen McKeown. Experiments in multidocument summarization. In Proceedings of the Second International Conference on Human Language Technology Research, HLT ’02, page 52–58, San Francisco, CA, USA, 2002. Morgan Kaufmann Publishers Inc.
S. Srivastava. Natural Language Processing with Python: Hands-On Labs to Apply Deep Learning Architectures to NLP Applications. Independently Published, 2021.
Brahim Tlili. Identification et commande des systèmes non linéaires : Utilisation des modèles de type NARMA. Theses, Ecole Nationale d’Ingénieurs de Tunis, July 2008.
Juan-Manuel Torres-Moreno. Automatic text summarization. John Wiley & Sons, 2014.
Lewis Tunstall, Leandro von Werra, and Thomas Wolf. Natural language processing with transformers. " O’Reilly Media, Inc.", 2022.
Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, Łukasz Kaiser, and Illia Polosukhin. Attention is all you need. Advances in neural information processing systems, 30, 2017.
Lilian Weng. Les réseaux de neurones récurrents pour les séries temporelles, Avril 2020.
Thomas Wolf, Lysandre Debut, Victor Sanh, Julien Chaumond, Clement Delangue, Anthony Moi, Pierric Cistac, Tim Rault, Rémi Louf, Morgan Funtowicz, et al. Transformers: State-of-the-art natural language processing. In Proceedings of the 2020 conference on empirical methods in natural language processing: system demonstrations, pages 38–45, 2020.
Linting Xue, Noah Constant, Adam Roberts, Mihir Kale, Rami Al-Rfou, Aditya Siddhant, Aditya Barua, and Colin Raffel. mt5: A massively multilingual pre-trained text-to-text transformer. arXiv preprint arXiv:2010.11934, 2020.
Jingqing Zhang, Yao Zhao, Mohammad Saleh, and Peter Liu. Pegasus: Pretraining with extracted gap-sentences for abstractive summarization. In International Conference on Machine Learning, pages 11328–11339. PMLR, 2020.
Jan Žižka, František Dařena, and Arnošt Svoboda. Text mining with machine learning:
principles and techniques. CRC Press, 2019.
Annexes
68 |
Nous voulons qu'ils soient instruits parfaitement et formés non seulement sur tel ou tel point, mais également sur tout ce qui permet à l'homme de réaliser intégralement son essence.D'apprendre à connaître la vérité, à ne pas être trompé par des faux semblants. | La science a un contrat avec la société. Contrat qui consiste à faire avancer les connaissances.AMOS COMENIUS (père sprituel de l'UNESCO) : " Nous voulons que tous les êtres humains, ensemble ou pris isolément, jeunes ou vieux, riches ou pauvres, nobles ou roturiers, hommes ou femmes, puissent pleinement s'instruire et devenir des êtres achevés. Nous voulons qu'ils soient instruits parfaitement et formés non seulement sur tel ou tel point, mais également sur tout ce qui permet à l'homme de réaliser intégralement son essence.D'apprendre à connaître la vérité, à ne pas être trompé par des faux semblants. A aimer le bien, à ne pas être séduit par le mal, à faire ce qu'on doit faire et à se garder de ce qu'il faut éviter.A parler sagement de tout, avec tout le monde. Enfin, à toujours traiter les choses, les hommes et Dieu avec prudence et non à la légère. Et à ne jamais s'écarter de son but, le bonheur ".Le Galilée de l'éducation comme on le surnommait s'est posé une question à la fois très simple et très révolutionnaire. Il s'était demandé en effet : "Comment faire en sorte que tous les hommes accèdent à tout le savoir disponible ?"Comment offrir à tous un panorama complet de ce que les hommes savent ?" C'est de l'ignorance, et de l'ignorance seule que l'homme doit se libérer. " Disait .... ???Ce qui fait écho à la Bible (mon peuple périt par manque de connaissance...)Nelson MANDELA : " L'éducation est la plus grande puissance transformatrice de la société". |
Gandhi est né à Porbandar (Gujarat) le 2 octobre 1869 et assassiné à Delhi le 30 janvier 1948. Il est communément connu et appelé en Inde et dans le monde sous le nom de Mahatma Gandhi (grande âme) Gandhi ne peut que se reconnaître dans l'expérience de Thoreau, emprisonné parce qu'il refusait de payer un impôt à un État esclavagiste. La pensée de Gandhi est très profonde et ne se limite pas à l'aspect pratique qui l'accompagnait. | TP N°1 D’EDUCATION A LA PAIX Le Mahatma GANDHI KRAME KADURHA David (Matricule : 14167) Tech 1 - Génie Informatique Le 21 Août 2022 0.1 Introduction Le Mahatma Gandhi ! Qui ne connaît pas ce grand homme ? Sa pensée est connue et citée partout au monde. Plus d’un sont les hommes, et pas des moindres, qui se réclament de sa pensée. Il demeure une icône centrale de la non-violence et en est sans doute un parfait pionnier. La force de sa personnalité et des idées qu’il défend réside, non seulement en leur beauté mais surtout en leur pouvoir transformateur. Sa pratique d’une philosophie constamment mise à l’épreuve le distingue des idéalistes purs. Mais sa pensée toujours justifiée par des grands idéaux, le rapproche encore paradoxalement des idéalistes modérés. Son impact sur le monde a largement dépassé sa seule terre natale. 0.2 Brève biographie de Gandhi [1, 2] Mohandas Karamchand Gandhi est un dirigeant politique indien, important guide spirituel et icône de la non-violence. Né à Porbandar (Gujarat) le 2 octobre 1869 et mort assassiné à Delhi le 30 janvier 1948, il est communément connu et appelé en Inde et dans le monde comme Mahatma Gandhi (grande âme). Toutefois, il refusera le titre de Mahatma durant toute sa vie. Comme il a été élevé dans les valeurs hindouistes, il apprend à connaître les autres religions et la tolérance envers elles. D’ailleurs, la Baghavad-Gita est un texte de l’hindouisme qui aura une très grande influence sur lui. Suivant les coutumes de sa caste, il s’est marie à l’âge de 14 ans avec Kasturbai qui restera son épouse jusqu’à sa mort en 1942. Après ses études de droit à Londres, Gandhi est retourné dans son pays mais les affaires juridiques n’y tournent pas très bien pour lui. En 1893, il est employé comme conseiller juridique pour une société indienne en Afrique du Sud. Il y découvre comment les noirs ainsi que les indiens y sont privés de nombreux droits civiques et sont victimes de l’intolérance et du racisme. Il entreprend alors, pendant les vingt années qui suivent, un combat de résistance non violente et de non-coopération face aux autorités d’Afrique du Sud. Influsencé par l’écrivain américain Henry David Thoreau (1817-1862), il développe en 1909 ses théories du combat par la non-violence et la désobéissance civile de masse, la 2 0.3. PREMIERS PAS DANS LA NON VIOLENCE [?, ?] satyagraha, dans un ouvrage intitulé Hind Swaraj. L’Afrique du Sud a été à la foiscomme un terrain de croissance, de mûrissement, mais aussi de mise en pratique préparatoire des théories de non violence qu’il mettait au point. Ayant obtenu des avancées significatives en 1914 de la part du gouvernement sud-africain, Gandhi retourne en Inde, qu’il parcourt pour mieux la connaître. Après la Première Guerre mondiale, Gandhi, vite rejoint par des millions d’Indiens, s’oppose aux Britanniques en organisant la résistance civique et des campagnes de non-coopération (boycott des autorités, des tribunaux et des écoles,...). Gandhi conduisit ensuite aussi la marche du sel, célèbre opposition à la taxe sur le sel, et pendant la seconde guerre mondiale, refusant de soutenir les Britanniques sans la contrepartie d’indépendance immédiate, il lance un appel pour que ceux-ci quittent l’Inde : Quit India. Il s’ensuit la plus radicale révolte pour l’indépendance et de terribles répressions. Il fut emprisonné plusieurs fois en Afrique du Sud et en Inde pour ses activités ; il passa en tout six ans en prison. L’Inde accède finalement à l’indépendance le 15 Août 1947 malgré sa partition en Inde et Pakistan (partition à laquelle Gandhi s’oppose de toutes ses forces mais est obligé de l’accepter pour garantir la paix intérieure). Il ne peut empêcher le déchaînement de violence entre les musulmans et les hindous et meurt assassiné le 30 janvier 1948 par un fanatique hindou. Les combats non violents de Gandhi pour la défense des droits de l’homme eurent une influence importante sur les mouvements de libération et de défense des droits civiques dans le monde entier, notamment pour les noirs en Amérique du Nord avec Martin Luther King. Gandhi est reconnu comme le Père de la Nation en Inde, où son anniversaire est une fête nationale. Cette date a également été déclarée « Journée internationale de la non-violence » par l’Assemblée générale des Nations unies en 2007. 0.3 Premiers pas dans la non violence [1, 3] Lorsque Gandhi débarqua en Afrique du Sud, au mois de mai 1893, il avait uniquement pour mission de gagner un procès, de se procurer un peu d’argent et, peut-être, en fin de 3 compte, de commencer sa carrière : « Je tente ma chance dans l’Afrique du Sud. » Le procès exigeait la présence de Gandhi à Prétoria, capitale du Transvaal. On acheta pour lui à Durban un billet de première classe et il prit le train pour un voyage de nuit. A Maritzbourg, un blanc entra dans le compartiment et, voyant l’intrus à peau brune, se retira pour reparaître un moment plus tard avec deux employés du chemin de fer qui ordonnèrent à Gandhi de déménager dans le fourgon. Gandhi protesta en disant qu’il avait un billet de première. Cela ne fit aucun effet. Il fallait qu’il sortît. Il refusa et resta. Alors on alla chercher un policier qui le jeta dehors avec ses bagages. Gandhi aurait pu rentrer dans le train et trouver une place dans le wagon de troisième. Il préféra rester dans la salle d’attente. Il faisait froid dans ces montagnes. Son pardessus était dans sa valise que retenaient les gens de la gare; par peur d’être de nouveau injurié, il n’alla pas le réclamer. Il resta là assis toute la nuit, grelottant et dépité. Devait-il retourner aux Indes? Cet épisode était le reflet d’une situation bien plus importante. Fallait-il en prendre son parti ou simplement chercher une réparation pour son injure personnelle, terminer le procès et retourner chez lui dans l’Inde? Il s’était heurté au terrible fléau du préjugé de la couleur. Son devoir était de le combattre. Fuir en abandonnant ses compatriotes dans cette mauvaise situation aurait été lâche. Bien des années après, aux Indes, le Dr John R. Mott, un missionnaire chrétien, demanda à Gandhi : « Quelles ont été les expériences les plus décisives de toute votre vie? » En réponse, Gandhi lui raconta ce qui s’était passé cette nuit-là à la gare de Maritzbourg. Au cours de cette nuit glaciale à Maritzbourg le germe, de la protestation sociale était né en Gandhi. Mais il ne fit rien encore. Il poursuivit son travail à Prétoria. Une fois son procès terminé, Gandhi retourna à Durban et se prépara à prendre le bateau pour les Indes. Il avait séjourné dans l’Afrique du Sud douze mois environ. Avant son départ, ses associés donnèrent en son honneur une fête d’adieu. Pendant cette fête quelqu’un lui remit le Natal Mercury du jour, où il découvrit un bref écho concernant une loi proposée par le gouvernement de Natal en vue de priver les Indiens du droit d’élire les membres du corps législatif. Gandhi comprit la nécessité de résister à cette tendance. Ses amis y étaient 4 0.3. PREMIERS PAS DANS LA NON VIOLENCE [?, ?] disposés, mais sans lui, disaient-ils, « ils étaient ignorants, incapables et sans force ». Il consentit à rester un mois de plus. Il resta vingt ans, luttant pour la défense des droits des Indiens. Il remporta la victoire. Au début de la Deuxième Guerre des Boers, en 1899, Gandhi déclare que les Indiens doivent soutenir l’effort de guerre s’ils veulent légitimer leur demande de citoyenneté. Il organise un corps d’ambulanciers volontaires de 300 Indiens libres et de 800 coolies indiens, appelé le Indian Ambulance Corps, une des rares unités médicales qui secouraient les Sud-Africains noirs. Gandhi lui-même est porteur de civière à la bataille de Spion Kop. Il est décoré à cette occasion. Malgré tout, à la fin de la guerre, la situation des Indiens ne s’améliore pas, et continue même à se détériorer. En 1906, le gouvernement du Transvaal vote une nouvelle loi demandant l’enregistrement de toute la population indienne. Lors d’une rencontre de protestation à Johannesbourg le 11 septembre 1906, Gandhi met en pratique pour la première fois sa méthodologie du satyagraha (attachement à la vérité), ou protestation non violente, dont il avait exposé la théorie en 1904. Il appelle ses compagnons indiens à défier la nouvelle loi et à subir les punitions qui en résulteraient au lieu de résister par la violence. Il s’inspire en cela des préceptes, de son ami indien Shrimad Rajchandra, un ascète jaïn avec lequel il correspond jusqu’à la mort de celui-ci, et considéré comme son premier maître spirituel. Ce plan est adopté, ce qui mène à une lutte de sept ans au cours de laquelle des milliers d’Indiens et de Chinois sont emprisonnés (incluant Gandhi lui-même en de nombreuses occasions), fouettés ou même abattus pour avoir fait grève, refusé de s’enregistrer, brûlé leur carte d’enregistrement ou avoir résisté de manière non violente. C’est durant cette période que Gandhi entame une correspondance avec Léon Tolstoï, où ils échangent leurs vues sur la non-violence et la politique globale jusqu’à la mort de l’écrivain russe. La désobéissance civile culmine en 1913 avec une grève des mineurs et la marche des femmes indiennes. Bien que le gouvernement sud-africain réprime les manifestants indiens avec succès, l’opinion publique réagit violemment aux méthodes extrêmement dures employées contre les manifestants asiatiques pacifiques. Finalement le général Jan Christiaan Smuts est forcé de négocier un compromis avec Gandhi. Les mariages non chrétiens redeviennent 5 légaux et une taxe de trois livres qui représentait six mois de salaire, imposée aux Indiens qui voulaient devenir des travailleurs libres (c’est-à-dire les coolies), est abolie. C’étaient ses débuts dans la lutte non violente. L’Afrique du sud a servi de premier plateau d’application des principes qui mûrissaient en lui. 0.4 Approche de la lutte non violente [4, 5] La puissance du Mahatma prenait racine dans l’action. Il ne demandait jamais à quiconque de faire quoi que ce soit qu’il ne faisait pas lui-même. Il ne faisait que ce qu’il croyait devoir faire. Les exemples sont nombreux : la marche du sel, le rouet, le satyagraha, la destruction des vêtement de style européen, la libération des femmes et des intouchables... Il entraînait des millions de personnes dans son action. Il ne prêchait pas, il agissait, il faisait ce qu’il croyait devoir faire et les foules le suivaient par milliers, par million ou par centaines de millions. La pensée de Gandhi n’émerge pas de manière spontanée. Elle se nourrit notamment des ouvrages de Henry David Thoreau, de Léon Tolstoï ou encore de John Ruskin. Gandhi ne peut que se reconnaître dans l’expérience de Thoreau, incarcéré parce qu’il refusait de payer tout impôt à un État esclavagiste et portant la guerre au Mexique. Il reprend à son compte l’idée de désobéissance civile, laquelle résonne avec les moyens de lutte qu’il adopte en Afrique du Sud pendant le combat contre les lois sur l’immigration. Il la transforme aussi. Non sans grandes difficultés, il cherche à en faire une pratique collective. Il désire, en outre, la disjoindre absolument de toute violence, alors que l’écrivain américain, Thoreau, sans être un apôtre de la violence, n’hésitait aucunement à justifier son usage. Sur cette question, c’est l’influence de Tolstoï que l’on perçoit. Ne laissant planer aucun doute à ce propos, Gandhi affirme : « Lorsque je suis allé en Angleterre, j’étais un défenseur de la violence, je croyais en elle, et aucunement en la non-violence. Mais après que j’ai lu Le Royaume de Dieu est en vous de Tolstoï, cette absence de foi en la nonviolence s’est volatilisée. » En 1909, les deux hommes échangent quelques lettres. Dans la dernière de celles-ci, le romancier russe offre une véritable consécration à l’entreprise de 6 0.4. APPROCHE DE LA LUTTE NON VIOLENTE [?, ?] son correspondant : « Votre activité au Transvaal (Afrique du Sud), pays qui semble être aux confins de la Terre, est une réalisation centrale, l’accomplissement le plus important parmi tous ceux qui ont actuellement lieu dans le monde. » Quelque temps plus tard, Gandhi baptisera « ferme Tolstoï » son second projet de vie communautaire. On en arrive à Ruskin. Unto This Last est pour Gandhi une révélation. L’ouvrage le pousse à quitter la ville pour la campagne. En 1904, avec son ami Hermann Kallenbach, il acquiert à cette fin plusieurs hectares de terrain près de Durban et crée la communauté de Phoenix. Il s’agit là de faire l’expérience d’une vie collective où la simplicité règne. Les positions que chacun occupe au sein de la société doivent s’effacer, le travail agricole et artisanal doit acquérir une place centrale. Les locaux d’Indian Opinion sont aussi installés à cet endroit. Au fil des textes, on verra le choix d’un tel mode de vie se joindre à l’argumentaire sur le combat non violent ; il sera présenté comme son aspect constructif. Ces auteurs, Gandhi ne se contente pas de les lire : il étaie ses arguments en les citant abondamment et traduit certaines de leurs œuvres en gujarati. La traduction, chez Gandhi, n’est pas simplement une pratique textuelle, c’est aussi l’une des opérations fondamentales grâce auxquelles les concepts s’affinent et la pensée chemine. Pour qualifier la lutte qu’il invite à mener en Afrique du Sud, il parle d’abord de « résistance passive ». Mais l’expression, selon lui trop étriquée, a des connotations ambiguës : elle semble désigner « l’arme des faibles ». Invoquer, à l’instar de Thoreau, la « désobéissance civile » s’avère plus pertinent. Une telle appellation, néanmoins, malgré le génie de son auteur, ne suffit pas à décrire toute la portée de la révolte en cours. Comme « résistance passive », en outre, elle provient de la langue des colons. Si Gandhi utilise abondamment l’anglais, c’est à son grand dam ! Le respect de sa langue maternelle et de la pensée qui s’y déploie lui commande de ne pas employer de termes qui ne s’y laisseraient traduire. Gandhi organise donc en 1907, prix à la clef, un concours dans lequel il invite à trouver des équivalents à « résistance passive », « désobéissance civile » et leurs dérivés. L’appel est lancé, en gujarati, dans Indian Opinion. Avec sa précision de juriste, Gandhi commente l’ensemble des propositions qui lui sont faites, et n’en retient qu’une : la sienne. Satyagraha [être arrimé à la vérité], ainsi seront condensés en un mot les multiples aspects de la lutte non violente qu’il entend mener. Ironie de l’histoire, celui-là sonnera si juste à ses oreilles 7 que fréquemment, lorsqu’il s’exprimera en anglais, il le restituera tel quel. Il en viendra même à distinguer satyagraha et désobéissance civile, invitant à imaginer le premier comme un arbre et la seconde comme l’une de ses multiples branches. En bref donc, par satyagraha on entend le refus de se soumettre à une loi, un règlement ou aux autorités, tout en menant un combat et une action pacifiques. Le but d’une « action de satyagraha » est de vaincre l’injustice et de se libérer de l’oppresseur. L’idéologie non violente de Gandhi revient à rejeter tout ce qui détruit la personne humaine. Pour ce faire, elle emprunte plusieurs voies : la vérité, la justice, l’amour et le sacrifice de soi. Cette forme de résistance a été instaurée par Gandhi afin de lutter pour la libération de son peuple face à la couronne britannique et de la diaspora indienne, victime d’apartheid, en Afrique du Sud. Gandhi perçoit la lutte armée comme un acte de barbarie car celle-ci utilise la force des armes afin de faire taire l’adversaire ou de lui imposer son point de vue. Cause de souffrances et de nuisances, la violence est l’expression du mal. Elle entraîne une réplique de la part de celui qui la subit, s’engage alors un cycle infernal de violences successives. A l’inverse, la non-violence prônée par le Mahatma Gandhi est l’absence totale de malveillance à l’égard de tout ce qui vit. Par sa stratégie, Gandhi propose une autre façon de résoudre les conflits. Pourtant l’homme accorde aujourd’hui encore une plus grande confiance dans la lutte armée. Peut-on au contraire considérer avec Gandhi que la non-violence est une forme de lutte plus efficace que la lutte armée ? Selon Gandhi, la non-violence est préférable à la lutte armée évidemment car toute violence, de quelque nature qu’elle soit, est contraire à la vérité. 0.5 Retombées sur le plan politique et social [6] L’importance et l’influence de Gandhi sur le monde contemporain ne font aucun doute. Il est parmi les personnes ayant marqué le XXe siècle et cette influence ne s’est pas tarie avec le temps. Il s’agit d’une pensée riche et complexe qui n’a pas encore été totalement épuisée malgré les très nombreux commentaires dont elle n’a cessé de faire l’objet. 8 0.5. RETOMBÉES SUR LE PLAN POLITIQUE ET SOCIAL [?] Si l’on considère Gandhi comme l’homme qui a mené le pays à l’indépendance et voulait proposer un mode original de développement du pays, force est de déplorer un bilan plus que négatif. La condamnation à mort et l’exécution de ses assassins constituaient en elles-mêmes les preuves d’un rejet de ses idées. Au sens strict, l’Inde n’a adopté aucune des options politiques, économiques et sociales propres à la pensée de Gandhi : si l’on s’en tient à ce constat, on peut légitimement parler d’échec. Néanmoins, de son vivant, il a énormément réussi. De l’abolition des lois ségrégationnistes à l’égard des indiens en Afrique du Sud à l’indépendance de son pays, en passant par l’obtention d’une adoption unanime de ses vues, Gandhi a énormément aidé son peuple et l’humanité en général, par l’espoir qu’il fit renaître auprès des opprimés. La pensée de Ganghi est une inépuisable source de réflexion pour des millions de gens et, parmi ces derniers, de très nombreuses personnalités de toute sorte, qu’elles soient activistes, philosophes voire politiques. Parmi ces derniers, une figure vient immédiatement à l’esprit dont l’action et la personnalité furent inlassablement associées à Gandhi. Aux États-Unis, en effet, Martin Luther King est considéré comme une personnalité de premier plan et la pensée gandhienne est très présente dans son approche, justifiée aussi par les évangiles. Il fut impliqué dans le mouvement d’émancipation des noirs américains et y joua un rôle remarquable. On peut également évoquer Nelson Mandela, une autre grande figure de la non violence et de la libération des peuples. Ainsi, l’héritage de Gandhi n’est pas moindre. Une autre grande figure, et pas des moindres, inspiré fortement de la pensée gandienne est léconomiste Ernst Friedrich Schumacher. Selon Schumacher, l’économie doit se plier aux besoins de la nation et le libéralisme n’est pas adapté aux pays en développement. Elle doit aussi tenir compte de l’ensemble des ressources de la planète et c’est ainsi qu’il fut un des premiers à parler de « développement durable », concept qui fait florès aujourd’hui. Gandhi, poursuit-il, proposait trois remèdes à la maladie de l’économie : taille réduite (smallness), simplicité et non-violence. Et il prend pour autre fondement ce principe énoncé par Gandhi lui-même : « La Terre fournit assez pour satisfaire les besoins de chaque homme, mais pas pour l’avidité de chacun ». C’est encore Gandhi qui considérait qu’il fallait privilégier la production pour les masses davantage 9 que la production de masse. Schumacher montre surtout que les principes gandhiens de l’économie fondent les besoins de l’économie moderne pour un développement durable. Il faut, par exemple, recentrer le transport et la distribution sur le local pour éviter des coûts humains et environnementaux excessifs. Comme déjà mentionné, Gandhi a toujours été une source d’inspiration sans précédent pour tout adepte de la non violence et l’écho de sa pensée est toujours présent aujourd’hui. Bien que sa pensée ne s’applique explicitement ni directement par ceux qui se réclament de lui, c’est une icône mondiale centrale dans la lutte non violente. 0.6 Conclusion La pensée de Gandhi est très profonde et ne se limite pas à l’aspect pratique qui l’a accompagnée. En fait, au-delà d’être une pensée en mouvement, une pensée mise directement en pratique par son auteur, la pensée gandhienne est tout d’abord une idéologie forte. Cette pensée tient beaucoup plus compte de la source profonde des principes véhiculées que de leur mise en pratique qui peut être victime des aléas de la vie. Toute la pensée de Gandhi tourne autour de la vérité. Il dit d’ailleurs que, s’il devait choisir entre non-violence et vérité, il choisirait cette dernière en lieu et place de celle-là [5]. C’est en ce sens que, paradoxalement, bien que s’étant réclamé inspiré de l’hindouisme, Gandhi peut être considéré comme un disciple directe de la pensée de Jésus. |
La fibre optique présente une atténuation quasi constante sur une gamme de fréquence considérable (plusieurs milliers de gigahertz). On atteint alors des débits supérieurs à 1Gbit/s, avec un espacement entre répéteurs de plusieurs dizaines de kilomètres. Les capacités offertes ne cessent de connaître une augmentation constante dans le cadre d'une offre industrielle qui évolue très rapidement, grâce aux progrès de l'électronique, de l'électronique, des amplificateurs... | SYSTMES DE TRANSMISSION PAR FIBRE
OPTIQUE
KRAME KADURHA David
Tech2-Genie Informatique
Cours d’analyse et conception des systèmes de Télécom
Dispensé par leMSc M’TUMBE ABI TRESOR
Table des matières
1
Introduction
2
Historique
3
Transmission par fibre
4
Conclusion
Introduction
La fibre optique présente une atténuation quasi constante sur une
plage de fréquences considérable (plusieurs milliers de gigahertz) et
offre ainsi l’avantage de bandes passantes gigantesques. Les
systèmes optiques permettent aussi, par rapport aux systèmes sur
câble coaxial (cuivre), un gain sur la distance séparant les différents
répéteurs-régénérateurs.
David KRAMEExposé de Télécom - Fibre optique16 Août 20223 / 31
Historique
Génération 1
Dès 1978, des systèmes travaillant à la longueur d’onde optique de
0,8μmont été mis en place, acheminant un débit compris entre 50 et
100 Mbit/s avec un espacement entre répéteurs de l’ordre de 10
kilomètres, c’est-à-dire trois fois plus environ que les systèmes sur
câble coaxial de capacité équivalente.
David KRAMEExposé de Télécom - Fibre optique16 Août 20224 / 31
Historique
Génération 2
La deuxième génération de systèmes de transmission sur fibre
optique, apparue dans les années 1980, découle directement de la
mise au point de la fibre monomode et du laser à semiconducteur à
1,3μm, longueur d’onde pour laquelle la dispersion chromatique
(c’est-à-dire la distorsion induite sur les signaux par la propagation)
est minimale.
Des débits supérieurs à 1Gbit/s, avec un espacement entre répéteurs
de plusieurs dizaines de kilomètres, sont alors atteints. Les portées de
ces systèmes sont limitées par les pertes de la fibre, 0,5dB/kmdans
le meilleur cas, et l’idée apparaît alors de développer des sources
émettant à la longueur d’onde de 1,55μm, pour laquelle l’atténuation
est minimale.
David KRAMEExposé de Télécom - Fibre optique16 Août 20225 / 31
Historique
Génération 2
La deuxième génération de systèmes de transmission sur fibre
optique, apparue dans les années 1980, découle directement de la
mise au point de la fibre monomode et du laser à semiconducteur à
1,3μm, longueur d’onde pour laquelle la dispersion chromatique
(c’est-à-dire la distorsion induite sur les signaux par la propagation)
est minimale.
Des débits supérieurs à 1Gbit/s, avec un espacement entre répéteurs
de plusieurs dizaines de kilomètres, sont alors atteints. Les portées de
ces systèmes sont limitées par les pertes de la fibre, 0,5dB/kmdans
le meilleur cas, et l’idée apparaît alors de développer des sources
émettant à la longueur d’onde de 1,55μm, pour laquelle l’atténuation
est minimale.
David KRAMEExposé de Télécom - Fibre optique16 Août 20225 / 31
Historique
La suite
Néanmoins, ce gain est détruit par l’effet de la dispersion
chromatique, qui est beaucoup plus forte à cette longueur d’onde et
qui limite alors la bande passante et donc le débit.
Des progrès effectués tant sur les lasers émettant sur un seul mode
que sur le milieu de transmission (fibres à dispersion décalée)
viennent apporter des solutions à ces problèmes et les premiers
systèmes travaillant à 1,55μmapparaissent à la fin des années 1980,
avec un débit supérieur à 2Gbit/s.
David KRAMEExposé de Télécom - Fibre optique16 Août 20226 / 31
Historique
La suite
Néanmoins, ce gain est détruit par l’effet de la dispersion
chromatique, qui est beaucoup plus forte à cette longueur d’onde et
qui limite alors la bande passante et donc le débit.
Des progrès effectués tant sur les lasers émettant sur un seul mode
que sur le milieu de transmission (fibres à dispersion décalée)
viennent apporter des solutions à ces problèmes et les premiers
systèmes travaillant à 1,55μmapparaissent à la fin des années 1980,
avec un débit supérieur à 2Gbit/s.
David KRAMEExposé de Télécom - Fibre optique16 Août 20226 / 31
Historique
La suite
L’apparition des amplificateurs à fibre à la fin des années 1980, puis le
développement du multiplexage en longueur d’onde ont fait de
l’optique une technique surpassant toutes les autres en capacité
comme en qualité de transmission, dans les réseaux interurbains
constitués d’artères de grosse capacité qui relient les grandes villes.
Cette suprématie a également affecté les liaisons internationales à
haut débit qui sont aujourd’hui exclusivement assurées par des câbles
sous-marins à fibres optiques.
David KRAMEExposé de Télécom - Fibre optique16 Août 20227 / 31
Historique
La suite
L’apparition des amplificateurs à fibre à la fin des années 1980, puis le
développement du multiplexage en longueur d’onde ont fait de
l’optique une technique surpassant toutes les autres en capacité
comme en qualité de transmission, dans les réseaux interurbains
constitués d’artères de grosse capacité qui relient les grandes villes.
Cette suprématie a également affecté les liaisons internationales à
haut débit qui sont aujourd’hui exclusivement assurées par des câbles
sous-marins à fibres optiques.
David KRAMEExposé de Télécom - Fibre optique16 Août 20227 / 31
Historique
Développements décisifs
Depuis l’apparition, en 1995, des premiers systèmes de multiplexage
en longueur d’onde (W.D.M., pour wavelength division multiplexing),
qui ont permis de transporter 10 Gbit/s (42,5Gbit/s) sur une seule
fibre optique, les capacités offertes continuent de connaître une
augmentation constante, dans le contexte d’une offre industrielle qui
évolue très rapidement, grâce aux progrès de l’électronique, des
sources, des amplificateurs...
David KRAMEExposé de Télécom - Fibre optique16 Août 20228 / 31
Historique
Développements décisifs (Suite)
Si l’augmentation de la capacité sur une fibre optique s’est d’abord
effectuée grâce à une multiplication du nombre de canaux à 2,5
Gbit/s, on n’a pas vu apparaître les systèmes à quelques centaines de
canaux à ce débit, que d’aucuns prévoyaient, car les systèmes W.D.M.
à 10 Gbit/s par canal ont vu le jour entre-temps.
En 2001, la capacité totale commercialement disponible était de 400
Gbit/s (40 canaux de 10 Gbit/s chacun) sur une fibre ; en 2006, elle a
atteint 800 Gbit/s (80 canaux de 10 Gbit/s chacun)...
David KRAMEExposé de Télécom - Fibre optique16 Août 20229 / 31
Historique
Développements décisifs (Suite)
Si l’augmentation de la capacité sur une fibre optique s’est d’abord
effectuée grâce à une multiplication du nombre de canaux à 2,5
Gbit/s, on n’a pas vu apparaître les systèmes à quelques centaines de
canaux à ce débit, que d’aucuns prévoyaient, car les systèmes W.D.M.
à 10 Gbit/s par canal ont vu le jour entre-temps.
En 2001, la capacité totale commercialement disponible était de 400
Gbit/s (40 canaux de 10 Gbit/s chacun) sur une fibre ; en 2006, elle a
atteint 800 Gbit/s (80 canaux de 10 Gbit/s chacun)...
David KRAMEExposé de Télécom - Fibre optique16 Août 20229 / 31
Transmission numérique par fibre
Illustration
David KRAMEExposé de Télécom - Fibre optique16 Août 202210 / 31
Transmission numérique par fibre
Principe
Tout système de transmission d’information possède un émetteur et
un ou plusieurs récepteurs. Dans une liaison optique, deux fibres sont
souvent nécessaires; l’une gère l’émission, l’autre la réception.
Il est aussi possible de concentrer émission et réception sur le même
brin, cette technologie est utilisée par exemple dans les réseaux
d’accès aux abonnés (FTTH) ; l’équipement de transmission est alors
un peu plus onéreux.
David KRAMEExposé de Télécom - Fibre optique16 Août 202211 / 31
Transmission numérique par fibre
Principe
Tout système de transmission d’information possède un émetteur et
un ou plusieurs récepteurs. Dans une liaison optique, deux fibres sont
souvent nécessaires; l’une gère l’émission, l’autre la réception.
Il est aussi possible de concentrer émission et réception sur le même
brin, cette technologie est utilisée par exemple dans les réseaux
d’accès aux abonnés (FTTH) ; l’équipement de transmission est alors
un peu plus onéreux.
David KRAMEExposé de Télécom - Fibre optique16 Août 202211 / 31
Transmission numérique par fibre
Illustration du principe de transmission
Figure: Schéma de principe d’une liaison optique
David KRAMEExposé de Télécom - Fibre optique16 Août 202212 / 31
Transmission numérique par fibre
Principe
L’information est portée par un support physique (la fibre) appelé «
canal de transmission ». Aux extrémités, deux transpondeurs
partenaires échangent les signaux, l’émetteur traduit les signaux
électriques en impulsions optiques et le récepteur effectue la fonction
inverse : il lit les signaux optiques et les traduit en signal électrique.
Au cours de son parcours, le signal est atténué et déformé : sur les
liaisons de grande longueur (plusieurs dizaines ou centaines de km),
des répéteurs et des amplificateurs placés à intervalles réguliers
permettent de conserver l’intégrité du message.
David KRAMEExposé de Télécom - Fibre optique16 Août 202213 / 31
Transmission numérique par fibre
Principe
L’information est portée par un support physique (la fibre) appelé «
canal de transmission ». Aux extrémités, deux transpondeurs
partenaires échangent les signaux, l’émetteur traduit les signaux
électriques en impulsions optiques et le récepteur effectue la fonction
inverse : il lit les signaux optiques et les traduit en signal électrique.
Au cours de son parcours, le signal est atténué et déformé : sur les
liaisons de grande longueur (plusieurs dizaines ou centaines de km),
des répéteurs et des amplificateurs placés à intervalles réguliers
permettent de conserver l’intégrité du message.
David KRAMEExposé de Télécom - Fibre optique16 Août 202213 / 31
Transmission numérique par fibre
Émission
L’émetteur optique (transpondeur d’émission) a pour fonction de
convertir des impulsions électriques en signaux optiques véhiculés au
cœur de la fibre. En général, la modulation binaire du signal optique
est une modulation d’intensité lumineuse obtenue par la modulation
du signal électrique dans la diode ou le laser.
David KRAMEExposé de Télécom - Fibre optique16 Août 202214 / 31
Transmission numérique par fibre
Émission
Les émetteurs utilisés sont de trois types :
les diodes électroluminescentes (DEL), ou LED (light emitting
diode), qui fonctionnent dans le proche infrarouge (850 nm) ;
les lasers, utilisés pour la fibre monomode, dont la longueur
d’onde est 1 310 ou 1 550 nm ;
les diodes à infrarouge qui émettent dans l’infrarouge à 1 300
nm.
David KRAMEExposé de Télécom - Fibre optique16 Août 202215 / 31
Transmission numérique par fibre
Émission
Les émetteurs utilisés sont de trois types :
les diodes électroluminescentes (DEL), ou LED (light emitting
diode), qui fonctionnent dans le proche infrarouge (850 nm) ;
les lasers, utilisés pour la fibre monomode, dont la longueur
d’onde est 1 310 ou 1 550 nm ;
les diodes à infrarouge qui émettent dans l’infrarouge à 1 300
nm.
David KRAMEExposé de Télécom - Fibre optique16 Août 202215 / 31 |
Le pouvoir des habitudes : comment Starbucks est-il devenu un mastodonte générant plus de 10 millions de dollars de revenus par an ? En modifiant une pièce du puzzle de son existence, elle est sortie du cercle vicieux de ses habitudes toxiques. Charles Duhigg : Si notre vie est constituée d'"habitudes clés" qui régissent nos comportements, il suffit de les modifier. | PDF File: Le Pouvoir des habitudes. Changer un rien pour tout changer Le Pouvoir des habitudes. Changer un rien pour tout changer - Charles Duhigg Le Pouvoir des habitudes. Changer un rien pour tout changer Charles Duhigg, Lisa souffrait de boulimie, d’alcoolisme, de tabagisme et de surendettement. Un jour, tout a changé : en modifiant une pièce du puzzle de son existence, elle est sortie du cercle vicieux de ses habitudes toxiques. Comment Starbucks est-elle devenue un mastodonte générant plus de 10 millions de dollars de chiffre d’affaires par an ? En changeant une habitude de management. L’habitude est le pilote automatique de notre cerveau. S’appuyant sur les dernières recherches en psychologie et en neurosciences, Charles Duhigg en dévoile le fonctionnement et révèle ce principe élémentaire : si notre vie est faite d’« habitudes clés » qui régissent nos conduites à notre insu, il suffit d’en modifier un élément pour créer un cercle vertueux. En changeant de clés, vous ouvrirez des portes insoupçonnées ! Le Pouvoir des habitudes. Changer un rien pour tout changer - Charles Duhigg PDF File: Le Pouvoir des habitudes. Changer un rien pour tout changer Top 10 Best Seller Books [PDF] Sensual & tattooed Embrasser un inconnu ? Mauvaise idée... Lors d’une soirée arrosée, les amies d’Avalanna la défient de réaliser un pari fou. Malgré ses réticences, cette dernière se jette à l’eau et embrasse ce sombre brun tatoué à la sensualité débordante qui ne cesse de la regarder. Alors qu’e... Read More... [PDF] Leurs enfants après eux Août 1992. Une vallée perdue quelque part à l’Est, des hauts fourneaux qui ne brûlent plus, un lac, un après-midi de canicule. Anthony a 14 ans, et avec son cousin, ils s’emmerdent comme c’est pas permis. C’est là qu’ils décident de voler un canoë pour aller voir ce qui se passe de l’a... Read More... [PDF] Bien à Vous Élu livre le plus addictif de l’année par Amazon. Classé parmi les meilleures ventes du Wall Street Journal, du Washington Post et d’Amazon. Vi Keeland et Penelope Ward, autrices de best-sellers au classement du New York Times, reviennent avec une histoire d’amour inattendue, une histoire de s... Read More... [PDF] L'Illusion Bienvenue à Val Quarios, petite station de ski familiale qui ferme ses portes l'été. Ne reste alors qu'une douzaine de saisonniers au milieu de bâtiments déserts. Hugo vient à peine d'arriver, mais, déjà, quelque chose l'inquiète. Ce sentiment d'être épié, ces «visions» qui le hantent et ce... Read More... [PDF] Le Serpent majuscule « Avec Mathilde, jamais une balle plus haute que l’autre, du travail propre et sans bavures. Ce soir est une exception. Une fantaisie. Elle aurait pu agir de plus loin, faire moins de dégâts, et ne tirer qu’une seule balle, bien sûr. » Dans ce réjouissant jeu de massacre où l’on tue tous les... Read More... PDF File: Le Pouvoir des habitudes. Changer un rien pour tout changer [PDF] Campus Player Elle ne jure que par les études, il ne rêve que de sport. Entre eux, ça va être tendu... très tendu ! Leur première rencontre restera gravée dans leur mémoire à tous les deux : un pont, un précipice, juste un pas à faire. Ce jour-là, Lizzie a empêché Seth d’en finir avec la vie.&#x... Read More... [PDF] Parasite La capitaine Marie Lesaux, fraîchement débarquée au sein de la brigade de protection de la famille de Clermont-Ferrand, se voit confier, sous le sceau de la plus grande des confidentialités, l’étrange mission de tester les capacités de son nouveau coéquipier. Valmont, réputé infaillible... Read More... [PDF] Nickel Boys Prix Pulitzer 2020 Palmarès Les 100 livres de l'année 2020 - Lire-Magazine Littéraire; Palmarès Les 30 livres de l'année 2020 - Le Point; Palmarès 2020 - Les Inrocks; Palmarès Les 30 meilleurs livres de 2020 - Le Monde Dans la Floride ségrégationniste des années 1960, le j... Read More... [PDF] Éternelle Sandro poussa un profond soupir. Il était désespéré que les choses en soient arrivées là. Sa famille qui se débattait pour survivre, Marco qui prenait de gros risques pour lui venir en aide. Ce n’était pas comme ça qu’il avait imaginé sa vie, ni celle de Marco ou d’Elisabetta. Il pria... Read More... [PDF] Je revenais des autres "Disons le tout net, Je revenais des autres est le meilleur ouvrage de l'auteure" Lire-Le Magazine Littéraire "Un livre touchant. Une ode à la résilience. A lire absolument" Le Progrès Philippe a quarante ans, est directeur commercial, marié et père de deux enfants. Ambre a vingt ans, n’est rien et n?... Read More... |
AMOS COMENIUS (père sprituel de l'UNESCO) : " Nous voulons que tous les êtres humains, ensemble
| La science a un contrat avec la société. Contrat qui consiste à faire avancer les connaissances.
AMOS COMENIUS (père sprituel de l'UNESCO) : " Nous voulons que tous les êtres humains, ensemble
ou pris isolément, jeunes ou vieux, riches ou pauvres, nobles ou roturiers, hommes ou femmes,
puissent pleinement s'instruire et devenir des êtres achevés. Nous voulons qu'ils soient instruits
parfaitement et formés non seulement sur tel ou tel point, mais également sur tout ce qui permet
à l'homme de réaliser intégralement son essence.
D'apprendre à connaître la vérité, à ne pas être trompé par des faux semblants. A aimer le bien,
à ne pas être séduit par le mal, à faire ce qu'on doit faire et à se garder de ce qu'il faut éviter.
A parler sagement de tout, avec tout le monde. Enfin, à toujours traiter les choses, les hommes et
Dieu avec prudence et non à la légère. Et à ne jamais s'écarter de son but, le bonheur ".
Le Galilée de l'éducation comme on le surnommait s'est posé une question à la fois très simple et
très révolutionnaire. Il s'était demandé en effet : "Comment faire en sorte que tous les hommes
accèdent à tout le savoir disponible ?"
Comment offrir à tous un panorama complet de ce que les hommes savent ?
" C'est de l'ignorance, et de l'ignorance seule que l'homme doit se libérer. " Disait .... ???
Ce qui fait écho à la Bible (mon peuple périt par manque de connaissance...)
Nelson MANDELA : " L'éducation est la plus grande puissance transformatrice de la société". |
TP N°1 D’EDUCATION A LA PAIX Le Mahatma GANDHI KRAME KADURHA David (Matricule : 14167) Tech 1 - Génie Informatique Le 21 Août 2022 0.1 Introduction Le Mahatma Gandhi ! Qui ne connaît pas ce grand homme ? Sa pensée est connue et citée partout au monde. Plus d’un sont les hommes, et pas des moindres, qui se réclament de sa pensée.Le Mahatma Gandhi ! Qui ne connaît pas ce grand homme ? Sa pensée est connue et citée partout au monde. Plus d’un sont les hommes, et pas des moindres, qui se réclament de sa pensée.Le Mahatma Gandhi ! Qui ne connaît pas ce grand homme ? Sa pensée est connue et citée partout au monde. Plus d’un sont les hommes, et pas des moindres, qui se réclament de sa pensée.Le Mahatma Gandhi ! Qui ne connaît pas ce grand homme ? Sa pensée est connue et citée partout au monde. Plus d’un sont les hommes, et pas des moindres, qui se réclament de sa pensée. TP N°1 D’EDUCATION A LA PAIX Le Mahatma GANDHI KRAME KADURHA David (Matricule : 14167) Tech 1 - Génie Informatique Le 21 Août 2022 0.1 Introduction Le Mahatma Gandhi ! Qui ne connaît pas ce grand homme ? Sa pensée est connue et citée partout au monde. Plus d’un sont les hommes, et pas des moindres, qui se réclament de sa pensée.Le Mahatma Gandhi ! Qui ne connaît pas ce grand homme ? Sa pensée est connue et citée partout au monde. Plus d’un sont les hommes, et pas des moindres, qui se réclament de sa pensée.Le Mahatma Gandhi ! Qui ne connaît pas ce grand homme ? Sa pensée est connue et citée partout au monde. Plus d’un sont les hommes, et pas des moindres, qui se réclament de sa pensée.Le Mahatma Gandhi ! Qui ne connaît pas ce grand homme ? Sa pensée est connue et citée partout au monde. Plus d’un sont les hommes, et pas des moindres, qui se réclament de sa pensée. TP N°1 D’EDUCATION A LA PAIX Le Mahatma GANDHI KRAME KADURHA David (Matricule : 14167) Tech 1 - Génie Informatique Le 21 Août 2022 0.1 Introduction Le Mahatma Gandhi ! Qui ne connaît pas ce grand homme ? Sa pensée est connue et citée partout au monde. Plus d’un sont les hommes, et pas des moindres, qui se réclament de sa pensée.Le Mahatma Gandhi ! Qui ne connaît pas ce grand homme ? Sa pensée est connue et citée partout au monde. Plus d’un sont les hommes, et pas des moindres, qui se réclament de sa pensée.Le Mahatma Gandhi ! Qui ne connaît pas ce grand homme ? Sa pensée est connue et citée partout au monde. Plus d’un sont les hommes, et pas des moindres, qui se réclament de sa pensée.Le Mahatma Gandhi ! Qui ne connaît pas ce grand homme ? Sa pensée est connue et citée partout au monde. Plus d’un sont les hommes, et pas des moindres, qui se réclament de sa pensée. P N°1 D’EDUCATION A LA PAIX Le Mahatma GANDHI KRAME KADURHA David (Matricule : 14167) Tech 1 - Génie Informatique Le 21 Août 2022 0.1 Introduction Le Mahatma Gandhi ! Qui ne connaît pas ce grand homme ? Sa pensée est connue et citée partout au monde. Plus d’un sont les hommes, et pas des moindres, qui se réclament de sa pensée.Le Mahatma Gandhi ! Qui ne connaît pas ce grand homme ? Sa pensée est connue et citée partout au monde. Plus d’un sont les hommes, et pas des moindres, qui se réclament de sa pensée.Le Mahatma Gandhi ! Qui ne connaît pas ce grand homme ? Sa pensée est connue et citée partout au monde. Plus d’un sont les hommes, et pas des moindres, qui se réclament de sa pensée.Le Mahatma Gandhi ! Qui ne connaît pas ce grand homme ? Sa pensée est connue et citée partout au monde. Plus d’un sont les hommes, et pas des moindres, qui se réclament de sa pensée. TP N°1 D’EDUCATION A LA PAIX Le Mahatma GANDHI KRAME KADURHA David (Matricule : 14167) Tech 1 - Génie Informatique Le 21 Août 2022 0.1 Introduction Le Mahatma Gandhi ! Qui ne connaît pas ce grand homme ? Sa pensée est connue et citée partout au monde. Plus d’un sont les hommes, et pas des moindres, qui se réclament de sa pensée.Le Mahatma Gandhi ! Qui ne connaît pas ce grand homme ? Sa pensée est connue et citée partout au monde. Plus d’un sont les hommes, et pas des moindres, qui se réclament de sa pensée.Le Mahatma Gandhi ! Qui ne connaît pas ce grand homme ? Sa pensée est connue et citée partout au monde. Plus d’un sont les hommes, et pas des moindres, qui se réclament de sa pensée.Le Mahatma Gandhi ! Qui ne connaît pas ce grand homme ? Sa pensée est connue et citée partout au monde. Plus d’un sont les hommes, et pas des moindres, qui se réclament de sa pensée. TP N°1 D’EDUCATION A LA PAIX Le Mahatma GANDHI KRAME KADURHA David (Matricule : 14167) Tech 1 - Génie Informatique Le 21 Août 2022 0.1 Introduction Le Mahatma Gandhi ! Qui ne connaît pas ce grand homme ? Sa pensée est connue et citée partout au monde. Plus d’un sont les hommes, et pas des moindres, qui se réclament de sa pensée.Le Mahatma Gandhi ! Qui ne connaît pas ce grand homme ? Sa pensée est connue et citée partout au monde. Plus d’un sont les hommes, et pas des moindres, qui se réclament de sa pensée.Le Mahatma Gandhi ! Qui ne connaît pas ce grand homme ? Sa pensée est connue et citée partout au monde. Plus d’un sont les hommes, et pas des moindres, qui se réclament de sa pensée.Le Mahatma Gandhi ! Qui ne connaît pas ce grand homme ? Sa pensée est connue et citée partout au monde. Plus d’un sont les hommes, et pas des moindres, qui se réclament de sa pensée. | TP N°1 D’EDUCATION A LA PAIX Le Mahatma GANDHI KRAME KADURHA David (Matricule : 14167) Tech 1 - Génie Informatique Le 21 Août 2022 0.1 Introduction Le Mahatma Gandhi ! Qui ne connaît pas ce grand homme ? Sa pensée est connue et citée partout au monde. Plus d’un sont les hommes, et pas des moindres, qui se réclament de sa pensée.Le Mahatma Gandhi ! Qui ne connaît pas ce grand homme ? Sa pensée est connue et citée partout au monde. Plus d’un sont les hommes, et pas des moindres, qui se réclament de sa pensée.Le Mahatma Gandhi ! Qui ne connaît pas ce grand homme ? Sa pensée est connue et citée partout au monde. Plus d’un sont les hommes, et pas des moindres, qui se réclament de sa pensée.Le Mahatma Gandhi ! Qui ne connaît pas ce grand homme ? Sa pensée est connue et citée partout au monde. Plus d’un sont les hommes, et pas des moindres, qui se réclament de sa pensée. TP N°1 D’EDUCATION A LA PAIX Le Mahatma GANDHI KRAME KADURHA David (Matricule : 14167) Tech 1 - Génie Informatique Le 21 Août 2022 0.1 Introduction Le Mahatma Gandhi ! Qui ne connaît pas ce grand homme ? Sa pensée est connue et citée partout au monde. Plus d’un sont les hommes, et pas des moindres, qui se réclament de sa pensée.Le Mahatma Gandhi ! Qui ne connaît pas ce grand homme ? Sa pensée est connue et citée partout au monde. Plus d’un sont les hommes, et pas des moindres, qui se réclament de sa pensée.Le Mahatma Gandhi ! Qui ne connaît pas ce grand homme ? Sa pensée est connue et citée partout au monde. Plus d’un sont les hommes, et pas des moindres, qui se réclament de sa pensée.Le Mahatma Gandhi ! Qui ne connaît pas ce grand homme ? Sa pensée est connue et citée partout au monde. Plus d’un sont les hommes, et pas des moindres, qui se réclament de sa pensée. TP N°1 D’EDUCATION A LA PAIX Le Mahatma GANDHI KRAME KADURHA David (Matricule : 14167) Tech 1 - Génie Informatique Le 21 Août 2022 0.1 Introduction Le Mahatma Gandhi ! Qui ne connaît pas ce grand homme ? Sa pensée est connue et citée partout au monde. Plus d’un sont les hommes, et pas des moindres, qui se réclament de sa pensée.Le Mahatma Gandhi ! Qui ne connaît pas ce grand homme ? Sa pensée est connue et citée partout au monde. Plus d’un sont les hommes, et pas des moindres, qui se réclament de sa pensée.Le Mahatma Gandhi ! Qui ne connaît pas ce grand homme ? Sa pensée est connue et citée partout au monde. Plus d’un sont les hommes, et pas des moindres, qui se réclament de sa pensée.Le Mahatma Gandhi ! Qui ne connaît pas ce grand homme ? Sa pensée est connue et citée partout au monde. Plus d’un sont les hommes, et pas des moindres, qui se réclament de sa pensée. P N°1 D’EDUCATION A LA PAIX Le Mahatma GANDHI KRAME KADURHA David (Matricule : 14167) Tech 1 - Génie Informatique Le 21 Août 2022 0.1 Introduction Le Mahatma Gandhi ! Qui ne connaît pas ce grand homme ? Sa pensée est connue et citée partout au monde. Plus d’un sont les hommes, et pas des moindres, qui se réclament de sa pensée.Le Mahatma Gandhi ! Qui ne connaît pas ce grand homme ? Sa pensée est connue et citée partout au monde. Plus d’un sont les hommes, et pas des moindres, qui se réclament de sa pensée.Le Mahatma Gandhi ! Qui ne connaît pas ce grand homme ? Sa pensée est connue et citée partout au monde. Plus d’un sont les hommes, et pas des moindres, qui se réclament de sa pensée.Le Mahatma Gandhi ! Qui ne connaît pas ce grand homme ? Sa pensée est connue et citée partout au monde. Plus d’un sont les hommes, et pas des moindres, qui se réclament de sa pensée. TP N°1 D’EDUCATION A LA PAIX Le Mahatma GANDHI KRAME KADURHA David (Matricule : 14167) Tech 1 - Génie Informatique Le 21 Août 2022 0.1 Introduction Le Mahatma Gandhi ! Qui ne connaît pas ce grand homme ? Sa pensée est connue et citée partout au monde. Plus d’un sont les hommes, et pas des moindres, qui se réclament de sa pensée.Le Mahatma Gandhi ! Qui ne connaît pas ce grand homme ? Sa pensée est connue et citée partout au monde. Plus d’un sont les hommes, et pas des moindres, qui se réclament de sa pensée.Le Mahatma Gandhi ! Qui ne connaît pas ce grand homme ? Sa pensée est connue et citée partout au monde. Plus d’un sont les hommes, et pas des moindres, qui se réclament de sa pensée.Le Mahatma Gandhi ! Qui ne connaît pas ce grand homme ? Sa pensée est connue et citée partout au monde. Plus d’un sont les hommes, et pas des moindres, qui se réclament de sa pensée. TP N°1 D’EDUCATION A LA PAIX Le Mahatma GANDHI KRAME KADURHA David (Matricule : 14167) Tech 1 - Génie Informatique Le 21 Août 2022 0.1 Introduction Le Mahatma Gandhi ! Qui ne connaît pas ce grand homme ? Sa pensée est connue et citée partout au monde. Plus d’un sont les hommes, et pas des moindres, qui se réclament de sa pensée.Le Mahatma Gandhi ! Qui ne connaît pas ce grand homme ? Sa pensée est connue et citée partout au monde. Plus d’un sont les hommes, et pas des moindres, qui se réclament de sa pensée.Le Mahatma Gandhi ! Qui ne connaît pas ce grand homme ? Sa pensée est connue et citée partout au monde. Plus d’un sont les hommes, et pas des moindres, qui se réclament de sa pensée.Le Mahatma Gandhi ! Qui ne connaît pas ce grand homme ? Sa pensée est connue et citée partout au monde. Plus d’un sont les hommes, et pas des moindres, qui se réclament de sa pensée. |
Nous voulons que tous les êtres humains, ensemble ou pris isolément, jeunes ou vieux, riches ou pauvres, nobles ou roturiers, hommes ou femmes, puissent pleinement s'instruire et devenir des êtres achevés. Nous voulons qu'ils soient instruits parfaitement et formés non seulement sur tel ou tel point, mais également sur tout ce qui permet à l'homme de réaliser intégralement son essence. D'apprendre à connaître la vérité, à ne pas être trompé par des faux semblants. A aimer le bien, à ne pas être séduit par le mal, à faire ce qu'on doit faire et à se garder de ce qu'il faut éviter. A parler sagement de tout, avec tout le monde. Enfin, à toujours traiter les choses, les hommes et Dieu avec prudence et non à la légère. Et à ne jamais s'écarter de son but, le bonheur. Le Galilée de l'éducation comme on le surnommait s'est posé une question à la fois très simple et très révolutionnaire. Il s'était demandé en effet : 'Comment faire en sorte que tous les hommes accèdent à tout le savoir disponible ?'Comment offrir à tous un panorama complet de ce que les hommes savent ? C'est de l'ignorance, et de l'ignorance seule que l'homme doit se libérer.C'est de l'ignorance, et de l'ignorance seule que l'homme doit se libérer....Nous voulons que tous les êtres humains, ensemble ou pris isolément, jeunes ou vieux, riches ou pauvres, nobles ou roturiers, hommes ou femmes, puissent pleinement s'instruire et devenir des êtres achevés. | Nous voulons que tous les êtres humains, ensemble ou pris isolément, jeunes ou vieux, riches ou pauvres, nobles ou roturiers, hommes ou femmes, puissent pleinement s'instruire et devenir des êtres achevés. Nous voulons qu'ils soient instruits parfaitement et formés non seulement sur tel ou tel point, mais également sur tout ce qui permet à l'homme de réaliser intégralement son essence. D'apprendre à connaître la vérité, à ne pas être trompé par des faux semblants. A aimer le bien, à ne pas être séduit par le mal, à faire ce qu'on doit faire et à se garder de ce qu'il faut éviter. A parler sagement de tout, avec tout le monde. Enfin, à toujours traiter les choses, les hommes et Dieu avec prudence et non à la légère. Et à ne jamais s'écarter de son but, le bonheur. Le Galilée de l'éducation comme on le surnommait s'est posé une question à la fois très simple et très révolutionnaire. Il s'était demandé en effet : 'Comment faire en sorte que tous les hommes accèdent à tout le savoir disponible ?'Comment offrir à tous un panorama complet de ce que les hommes savent ? C'est de l'ignorance, et de l'ignorance seule que l'homme doit se libérer.C'est de l'ignorance, et de l'ignorance seule que l'homme doit se libérer....Nous voulons que tous les êtres humains, ensemble ou pris isolément, jeunes ou vieux, riches ou pauvres, nobles ou roturiers, hommes ou femmes, puissent pleinement s'instruire et devenir des êtres achevés. |
Mahatma Gandhi était l'une des personnalités politiques les plus importantes du XXe siècle. | Les exemples ne manquent pas : la marche du sel, le rouet, le satyagraha, la destruction des vêtement de style européen, la libération des femmes et des intouchables… Il entraînai des millions de personnes dans son action. Gandhi ne se déplaçait pas en «papamobile» à l’épreuve des balles, il n’avait comme garde du corps que deux jeunes cousines frêles et délicates et il ne portait que des sandales et un châle de coton qu’il avait filé et tissé lui-même. |
La science a un contrat avec la société. Contrat qui consiste à faire avancer les connaissances.
AMOS COMENIUS (père sprituel de l'UNESCO) : " Nous voulons que tous les êtres humains, ensemble ou pris isolément, jeunes ou vieux, riches ou pauvres, nobles ou roturiers, hommes ou femmes, puissent pleinement s'instruire et devenir des êtres achevés. Nous voulons qu'ils soient instruits parfaitement et formés non seulement sur tel ou tel point, mais également sur tout ce qui permet à l'homme de réaliser intégralement son essence.
D'apprendre à connaître la vérité, à ne pas être trompé par des faux semblants. A aimer le bien, à ne pas être séduit par le mal, à faire ce qu'on doit faire et à se garder de ce qu'il faut éviter.
A parler sagement de tout, avec tout le monde. Enfin, à toujours traiter les choses, les hommes et Dieu avec prudence et non à la légère. Et à ne jamais s'écarter de son but, le bonheur ".
Le Galilée de l'éducation comme on le surnommait s'est posé une question à la fois très simple et
très révolutionnaire. Il s'était demandé en effet : "Comment faire en sorte que tous les hommes
accèdent à tout le savoir disponible ?"
Comment offrir à tous un panorama complet de ce que les hommes savent ?
" C'est de l'ignorance, et de l'ignorance seule que l'homme doit se libérer. " Disait .... ???
Ce qui fait écho à la Bible (mon peuple périt par manque de connaissance...)
Nelson MANDELA : " L'éducation est la plus grande puissance transformatrice de la société". |
|
Gandhi est reconnu comme le Père de la Nation en Inde, où son anniversaire est une fête nationale. Gandhi est né à Porbandar (Gujarat) le 2 octobre 1869 et assassiné à Delhi le 30 janvier 1948. Il est communément connu et appelé en Inde et dans le monde sous le nom de Mahatma Gandhi (grande âme) | TP N°1 D’EDUCATION A LA PAIX Le Mahatma GANDHI KRAME KADURHA David (Matricule : 14167) Tech 1 - Génie Informatique Le 21 Août 2022 0.1 Introduction Le Mahatma Gandhi ! Qui ne connaît pas ce grand homme ? Sa pensée est connue et citée partout au monde. Plus d’un sont les hommes, et pas des moindres, qui se réclament de sa pensée. Il demeure une icône centrale de la non-violence et en est sans doute un parfait pionnier. La force de sa personnalité et des idées qu’il défend réside, non seulement en leur beauté mais surtout en leur pouvoir transformateur. Sa pratique d’une philosophie constamment mise à l’épreuve le distingue des idéalistes purs. Mais sa pensée toujours justifiée par des grands idéaux, le rapproche encore paradoxalement des idéalistes modérés. Son impact sur le monde a largement dépassé sa seule terre natale. 0.2 Brève biographie de Gandhi [1, 2] Mohandas Karamchand Gandhi est un dirigeant politique indien, important guide spirituel et icône de la non-violence. Né à Porbandar (Gujarat) le 2 octobre 1869 et mort assassiné à Delhi le 30 janvier 1948, il est communément connu et appelé en Inde et dans le monde comme Mahatma Gandhi (grande âme). Toutefois, il refusera le titre de Mahatma durant toute sa vie. Comme il a été élevé dans les valeurs hindouistes, il apprend à connaître les autres religions et la tolérance envers elles. D’ailleurs, la Baghavad-Gita est un texte de l’hindouisme qui aura une très grande influence sur lui. Suivant les coutumes de sa caste, il s’est marie à l’âge de 14 ans avec Kasturbai qui restera son épouse jusqu’à sa mort en 1942. Après ses études de droit à Londres, Gandhi est retourné dans son pays mais les affaires juridiques n’y tournent pas très bien pour lui. En 1893, il est employé comme conseiller juridique pour une société indienne en Afrique du Sud. Il y découvre comment les noirs ainsi que les indiens y sont privés de nombreux droits civiques et sont victimes de l’intolérance et du racisme. Il entreprend alors, pendant les vingt années qui suivent, un combat de résistance non violente et de non-coopération face aux autorités d’Afrique du Sud. Influsencé par l’écrivain américain Henry David Thoreau (1817-1862), il développe en 1909 ses théories du combat par la non-violence et la désobéissance civile de masse, la 2 0.3. PREMIERS PAS DANS LA NON VIOLENCE [?, ?] satyagraha, dans un ouvrage intitulé Hind Swaraj. L’Afrique du Sud a été à la foiscomme un terrain de croissance, de mûrissement, mais aussi de mise en pratique préparatoire des théories de non violence qu’il mettait au point. Ayant obtenu des avancées significatives en 1914 de la part du gouvernement sud-africain, Gandhi retourne en Inde, qu’il parcourt pour mieux la connaître. Après la Première Guerre mondiale, Gandhi, vite rejoint par des millions d’Indiens, s’oppose aux Britanniques en organisant la résistance civique et des campagnes de non-coopération (boycott des autorités, des tribunaux et des écoles,...). Gandhi conduisit ensuite aussi la marche du sel, célèbre opposition à la taxe sur le sel, et pendant la seconde guerre mondiale, refusant de soutenir les Britanniques sans la contrepartie d’indépendance immédiate, il lance un appel pour que ceux-ci quittent l’Inde : Quit India. Il s’ensuit la plus radicale révolte pour l’indépendance et de terribles répressions. Il fut emprisonné plusieurs fois en Afrique du Sud et en Inde pour ses activités ; il passa en tout six ans en prison. L’Inde accède finalement à l’indépendance le 15 Août 1947 malgré sa partition en Inde et Pakistan (partition à laquelle Gandhi s’oppose de toutes ses forces mais est obligé de l’accepter pour garantir la paix intérieure). Il ne peut empêcher le déchaînement de violence entre les musulmans et les hindous et meurt assassiné le 30 janvier 1948 par un fanatique hindou. Les combats non violents de Gandhi pour la défense des droits de l’homme eurent une influence importante sur les mouvements de libération et de défense des droits civiques dans le monde entier, notamment pour les noirs en Amérique du Nord avec Martin Luther King. Gandhi est reconnu comme le Père de la Nation en Inde, où son anniversaire est une fête nationale. Cette date a également été déclarée « Journée internationale de la non-violence » par l’Assemblée générale des Nations unies en 2007. 0.3 Premiers pas dans la non violence [1, 3] Lorsque Gandhi débarqua en Afrique du Sud, au mois de mai 1893, il avait uniquement pour mission de gagner un procès, de se procurer un peu d’argent et, peut-être, en fin de 3 compte, de commencer sa carrière : « Je tente ma chance dans l’Afrique du Sud. » Le procès exigeait la présence de Gandhi à Prétoria, capitale du Transvaal. On acheta pour lui à Durban un billet de première classe et il prit le train pour un voyage de nuit. A Maritzbourg, un blanc entra dans le compartiment et, voyant l’intrus à peau brune, se retira pour reparaître un moment plus tard avec deux employés du chemin de fer qui ordonnèrent à Gandhi de déménager dans le fourgon. Gandhi protesta en disant qu’il avait un billet de première. Cela ne fit aucun effet. Il fallait qu’il sortît. Il refusa et resta. Alors on alla chercher un policier qui le jeta dehors avec ses bagages. Gandhi aurait pu rentrer dans le train et trouver une place dans le wagon de troisième. Il préféra rester dans la salle d’attente. Il faisait froid dans ces montagnes. Son pardessus était dans sa valise que retenaient les gens de la gare; par peur d’être de nouveau injurié, il n’alla pas le réclamer. Il resta là assis toute la nuit, grelottant et dépité. Devait-il retourner aux Indes? Cet épisode était le reflet d’une situation bien plus importante. Fallait-il en prendre son parti ou simplement chercher une réparation pour son injure personnelle, terminer le procès et retourner chez lui dans l’Inde? Il s’était heurté au terrible fléau du préjugé de la couleur. Son devoir était de le combattre. Fuir en abandonnant ses compatriotes dans cette mauvaise situation aurait été lâche. Bien des années après, aux Indes, le Dr John R. Mott, un missionnaire chrétien, demanda à Gandhi : « Quelles ont été les expériences les plus décisives de toute votre vie? » En réponse, Gandhi lui raconta ce qui s’était passé cette nuit-là à la gare de Maritzbourg. Au cours de cette nuit glaciale à Maritzbourg le germe, de la protestation sociale était né en Gandhi. |
Plus d’un sont les hommes, et pas des moindres, qui se réclament de sa pensée.
Plus d’un sont les hommes, et pas des moindres, qui se réclament de sa pensée.Le Mahatma Gandhi ! | TP N°1 D’EDUCATION A LA PAIX Le Mahatma GANDHI KRAME KADURHA David (Matricule : 14167) Tech 1 - Génie Informatique Le 21 Août 2022 0.1 Introduction Le Mahatma Gandhi ! Qui ne connaît pas ce grand homme ? Sa pensée est connue et citée partout au monde. Plus d’un sont les hommes, et pas des moindres, qui se réclament de sa pensée.Le Mahatma Gandhi ! Qui ne connaît pas ce grand homme ? Sa pensée est connue et citée partout au monde. Plus d’un sont les hommes, et pas des moindres, qui se réclament de sa pensée.Le Mahatma Gandhi ! Qui ne connaît pas ce grand homme ? Sa pensée est connue et citée partout au monde. Plus d’un sont les hommes, et pas des moindres, qui se réclament de sa pensée.Le Mahatma Gandhi ! Qui ne connaît pas ce grand homme ? Sa pensée est connue et citée partout au monde. Plus d’un sont les hommes, et pas des moindres, qui se réclament de sa pensée. TP N°1 D’EDUCATION A LA PAIX Le Mahatma GANDHI KRAME KADURHA David (Matricule : 14167) Tech 1 - Génie Informatique Le 21 Août 2022 0.1 Introduction Le Mahatma Gandhi ! Qui ne connaît pas ce grand homme ? Sa pensée est connue et citée partout au monde. Plus d’un sont les hommes, et pas des moindres, qui se réclament de sa pensée.Le Mahatma Gandhi ! Qui ne connaît pas ce grand homme ? Sa pensée est connue et citée partout au monde. Plus d’un sont les hommes, et pas des moindres, qui se réclament de sa pensée.Le Mahatma Gandhi ! Qui ne connaît pas ce grand homme ? Sa pensée est connue et citée partout au monde. Plus d’un sont les hommes, et pas des moindres, qui se réclament de sa pensée.Le Mahatma Gandhi ! Qui ne connaît pas ce grand homme ? |
Les luttes non violentes de Gandhi pour la défense des droits de l'homme ont eu une influence importante sur les mouvements de libération et de défense des droits civiques à travers le monde. Martin Luther King est considéré comme une personnalité marquante et la pensée gandhienne est très présente dans sa démarche, justifiée par les Évangiles. Gandhi aurait pu monter dans le train et trouver une place dans le troisième wagon, mais il ne l'a pas réclamée. Il dit aussi que s'il devait choisir entre la non-violence et la vérité, il choisirait cette dernière. | TP N°1 D’EDUCATION A LA PAIX Le Mahatma GANDHI KRAME KADURHA David (Matricule :14167) Tech 1 - Génie Informatique Le 21 Août 2022 0.1 Introduction Le Mahatma Gandhi ! Qui ne connaît pas ce grand homme ? Sa pensée est connue et citée partout au monde. Plus d’un sont les hommes, et pas des moindres, qui se réclament de sa pensée. Il demeure une icône centrale de la non-violence et en est sans doute un parfait pionnier. La force de sa personnalité et des idées qu’il défend réside, non seulement en leur beauté mais surtout en leur pouvoir transformateur. Sa pratique d’une philosophie constamment mise à l’épreuve le distingue des idéalistes purs. Mais sa pensée toujours justifiée par des grands idéaux, le rapproche encore paradoxalement des idéalistes modérés. Son impact sur le monde a largement dépassé sa seule terre natale. 0.2 Brève biographie de Gandhi [1, 2] Mohandas Karamchand Gandhiest un dirigeant politique indien, important guide spirituel et icône de la non-violence. Né à Porbandar (Gujarat) le 2 octobre 1869 et mort assassiné à Delhi le 30 janvier 1948, il est communément connu et appelé en Inde et dans le monde commeMahatma Gandhi(grande âme). Toutefois, il refusera le titre de Mahatmadurant toute sa vie. Comme il a été élevé dans les valeurs hindouistes, il apprend à connaître les autres religions et la tolérance envers elles. D’ailleurs, la Baghavad-Gita est un texte de l’hin- douisme qui aura une très grande influence sur lui. Suivant les coutumes de sa caste, il s’est marie à l’âge de 14 ans avecKasturbaiqui restera son épouse jusqu’à sa mort en 1942. Après ses études de droit à Londres, Gandhi est retourné dans son pays mais les affaires juridiques n’y tournent pas très bien pour lui. En 1893, il est employé comme conseiller juridique pour une société indienne en Afrique du Sud. Il y découvre comment les noirs ainsi que les indiens y sont privés de nombreux droits civiques et sont victimes de l’intolérance et du racisme. Il entreprend alors, pendant les vingt années qui suivent, un combat de résistance non violente et de non-coopération face aux autorités d’Afrique du Sud. Influsencé par l’écrivain américain Henry David Thoreau (1817-1862), il développe en 1909 ses théories du combat par la non-violence et la désobéissance civile de masse, la 2 0.3. PREMIERS PAS DANS LA NON VIOLENCE [?,?] satyagraha, dans un ouvrage intitulé "Hind Swaraj". L’Afrique du Sud a été à la fois comme un terrain de croissance, de mûrissement, mais aussi de mise en pratique préparatoire des théories de non violence qu’il mettait au point. Ayant obtenu des avancées significatives en 1914 de la part du gouvernement sud-africain, Gandhi retourne en Inde, qu’il parcourt pour mieux la connaître. Après la Première Guerre mondiale, Gandhi, vite rejoint par des millions d’Indiens, s’oppose aux Britanniques en organisant la résistance civique et des campagnes de non-coopération (boycott des autorités, des tribunaux et des écoles,...). Gandhi conduisit ensuite aussi la marche du sel, célèbre opposition à la taxe sur le sel, et pendant la seconde guerre mondiale, refusant de soutenir les Britanniques sans la contrepartie d’indépendance im- médiate, il lance un appel pour que ceux-ci quittent l’Inde : "Quit India". Il s’ensuit la plus radicale révolte pour l’indépendance et de terribles répressions. Il fut emprisonné plusieurs fois en Afrique du Sud et en Inde pour ses activités ; il passa en tout six ans en prison. L’Inde accède finalement à l’indépendance le 15 Août 1947 malgré sa partition en Inde et Pakistan (partition à laquelle Gandhi s’oppose de toutes ses forces mais est obligé de l’accepter pour garantir la paix intérieure). Il ne peut empêcher le déchaînement de violence entre les musulmans et les hindous et meurt assassiné le 30 janvier 1948 par un fanatique hindou. Les combats non violents de Gandhi pour la défense des droits de l’homme eurent une influence importante sur les mouvements de libération et de défense des droits civiques dans le monde entier, notamment pour les noirs en Amérique du Nord avec Martin Luther King. Gandhi est reconnu comme le Père de la Nation en Inde, où son anniversaire est une fête nationale. Cette date a également été déclarée « Journée internationale de la non-violence » par l’Assemblée générale des Nations unies en 2007. 0.3 Premiers pas dans la non violence [1, 3] Lorsque Gandhi débarqua en Afrique du Sud, au mois de mai 1893, il avait uniquement pour mission de gagner un procès, de se procurer un peu d’argent et, peut-être, en fin de 3 compte, de commencer sa carrière : « Je tente ma chance dans l’Afrique du Sud. » Le procès exigeait la présence de Gandhi à Prétoria, capitale du Transvaal. On acheta pour lui à Durban un billet de première classe et il prit le train pour un voyage de nuit. A Maritzbourg, un blanc entra dans le compartiment et, voyant 1’intrus à peau brune, se retira pour reparaître un moment plus tard avec deux employés du chemin de fer qui ordonnèrent à Gandhi de déménager dans le fourgon. Gandhi protesta en disant qu’il avait un billet de première. Cela ne fit aucun effet. Il fallait qu’il sortît. Il refusa et resta. Alors on alla chercher un policier qui le jeta dehors avec ses bagages. Gandhi aurait pu rentrer dans le train et trouver une place dans le wagon de troisième. Il préféra rester dans la salle d’attente. Il faisait froid dans ces montagnes. Son pardessus était dans sa valise que retenaient les gens de la gare; par peur d’être de nouveau injurié, il n’alla pas le réclamer. Il resta là assis toute la nuit, grelottant et dépité. Devait-il retourner aux Indes? Cet épisode était le reflet d’une situation bien plus importante. Fallait-il en prendre son parti ou simplement chercher une réparation pour son injure personnelle, terminer le procès et retourner chez lui dans l’Inde? Il s’était heurté au terrible fléau du préjugé de la couleur. Son devoir était de le combattre. Fuir en abandonnant ses compatriotes dans cette mauvaise situation aurait été lâche. Bien des années après, aux Indes, le Dr John R. Mott, un missionnaire chrétien, demanda à Gandhi : « Quelles ont été les expériences les plus décisives de toute votre vie? » En réponse, Gandhi lui raconta ce qui s’était passé cette nuit-là à la gare de Maritzbourg. Au cours de cette nuit glaciale à Maritzbourg, le germe de la protestation sociale était né en Gandhi. Mais il ne fit rien encore. Il poursuivit son travail à Prétoria.Une fois son procès terminé, Gandhi retourna à Durban et se prépara à prendre le bateau pour les Indes. Il avait séjourné dans l’Afrique du Sud douze mois environ. Avant son départ, ses associés donnèrent en son honneur une fête d’adieu. Pendant cette fête quelqu’un lui remit le Natal Mercury du jour, où il découvrit un bref écho concernant une loi proposée par le gouvernement de Natal en vue de priver les Indiens du droit d’élire les membres du corps législatif. Gandhi comprit la nécessité de résister à cette tendance. Ses amis y étaient 4 0.3. PREMIERS PAS DANS LA NON VIOLENCE [?,?] disposés, mais sans lui, disaient-ils, « ils étaient ignorants, incapables et sans force ». Il consentit à rester un mois de plus. Il resta vingt ans, luttant pour la défense des droits des Indiens. Il remporta la victoire. Au début de la Deuxième Guerre des Boers, en 1899, Gandhi déclare que les Indiens doivent soutenir l’effort de guerre s’ils veulent légitimer leur demande de citoyenneté. Il organise un corps d’ambulanciers volontaires de 300 Indiens libres et de 800 coolies indiens, appelé le Indian Ambulance Corps, une des rares unités médicales qui secouraient les Sud-Africains noirs. Gandhi lui-même est porteur de civière à la bataille de Spion Kop. Il est décoré à cette occasion. Malgré tout, à la fin de la guerre, la situation des Indiens ne s’améliore pas, et continue même à se détériorer. En 1906, le gouvernement du Transvaal vote une nouvelle loi demandant l’en- registrement de toute la population indienne. Lors d’une rencontre de protestation à Johannesbourg le 11 septembre 1906, Gandhi met en pratique pour la première fois sa méthodologie dusatyagraha(attachement à la vérité), ou protestation non violente, dont il avait exposé la théorie en 1904. Il appelle ses compagnons indiens à défier la nouvelle loi et à subir les punitions qui en résulteraient au lieu de résister par la violence. Il s’inspire en cela des préceptes, de son ami indienShrimad Rajchandra, un ascète jaïn avec lequel il correspond jusqu’à la mort de celui-ci, et considéré comme son premier maître spirituel. Ce plan est adopté, ce qui mène à une lutte de sept ans au cours de laquelle des milliers d’Indiens et de Chinois sont emprisonnés (incluant Gandhi lui-même en de nombreuses occasions), fouettés ou même abattus pour avoir fait grève, refusé de s’enregistrer, brûlé leur carte d’enregistrement ou avoir résisté de manière non violente. C’est durant cette période que Gandhi entame une correspondance avecLéon Tolstoï, où ils échangent leurs vues sur la non-violence et la politique globale jusqu’à la mort de l’écrivain russe. La désobéissance civile culmine en 1913 avec une grève des mineurs et la marche des femmes indiennes. Bien que le gouvernement sud-africain réprime les manifestants indiens avec succès, l’opinion publique réagit violemment aux méthodes extrêmement dures employées contre les manifestants asiatiques pacifiques. Finalement le général Jan Christiaan Smuts est forcé de négocier un compromis avec Gandhi. Les mariages non chrétiens redeviennent 5 légaux et une taxe de trois livres qui représentait six mois de salaire, imposée aux Indiens qui voulaient devenir des travailleurs libres (c’est-à-dire les coolies), est abolie. C’étaient ses débuts dans la lutte non violente. L’Afrique du sud a servi de premier plateau d’application des principes qui mûrissaient en lui. 0.4 Approche de la lutte non violente [4, 5] La puissance du Mahatma prenait racine dans l’action. Il ne demandait jamais à quiconque de faire quoi que ce soit qu’il ne faisait pas lui-même. Il ne faisait que ce qu’il croyait devoir faire. Les exemples sont nombreux : la marche du sel, le rouet, le satyagraha, la destruction des vêtement de style européen, la libération des femmes et des intouchables... Il entraînait des millions de personnes dans son action. Il ne prêchait pas, il agissait, il faisait ce qu’il croyait devoir faire et les foules le suivaient par milliers, par million ou par centaines de millions. La pensée de Gandhi n’émerge pas de manière spontanée. Elle se nourrit notamment des ouvrages de Henry David Thoreau, de Léon Tolstoï ou encore de John Ruskin. Gandhi ne peut que se reconnaître dans l’expérience de Thoreau, incarcéré parce qu’il refusait de payer tout impôt à un État esclavagiste et portant la guerre au Mexique. Il reprend à son compte l’idée de désobéissance civile, laquelle résonne avec les moyens de lutte qu’il adopte en Afrique du Sud pendant le combat contre les lois sur l’immigration. Il la transforme aussi. Non sans grandes difficultés, il cherche à en faire une pratique collective. Il désire, en outre, la disjoindre absolument de toute violence, alors que l’écrivain américain, Thoreau, sans être un apôtre de la violence, n’hésitait aucunement à justifier son usage. Sur cette question, c’est l’influence de Tolstoï que l’on perçoit. Ne laissant planer aucun doute à ce propos, Gandhi affirme : « Lorsque je suis allé en Angleterre, j’étais un défenseur de la violence, je croyais en elle, et aucunement en la non-violence. Mais après que j’ai luLe Royaume de Dieu est en vousde Tolstoï, cette absence de foi en la non- violence s’est volatilisée. » En 1909, les deux hommes échangent quelques lettres. Dans la dernière de celles-ci, le romancier russe offre une véritable consécration à l’entreprise de 6 0.4. APPROCHE DE LA LUTTE NON VIOLENTE [?,?] son correspondant : « Votre activité au Transvaal (Afrique du Sud), pays qui semble être aux confins de la Terre, est une réalisation centrale, l’accomplissement le plus important parmi tous ceux qui ont actuellement lieu dans le monde. » Quelque temps plus tard, Gandhi baptisera « ferme Tolstoï » son second projet de vie communautaire. On en arrive à Ruskin.Unto This Lastest pour Gandhi une révélation. L’ouvrage le pousse à quitter la ville pour la campagne. En 1904, avec son ami Hermann Kallenbach, il acquiert à cette fin plusieurs hectares de terrain près de Durban et crée la communauté de Phoenix. Il s’agit là de faire l’expérience d’une vie collective où la simplicité règne. Les positions que chacun occupe au sein de la société doivent s’effacer, le travail agricole et artisanal doit acquérir une place centrale. Les locaux d’Indian Opinion sont aussi installés à cet endroit. Au fil des textes, on verra le choix d’un tel mode de vie se joindre à l’argumentaire sur le combat non violent ; il sera présenté comme son aspect constructif. Ces auteurs, Gandhi ne se contente pas de les lire : il étaie ses arguments en les citant abondamment et traduit certaines de leurs œuvres en gujarati. La traduction, chez Gandhi, n’est pas simplement une pratique textuelle, c’est aussi l’une des opérations fondamentales grâce auxquelles les concepts s’affinent et la pensée chemine. Pour qualifier la lutte qu’il invite à mener en Afrique du Sud, il parle d’abord de « résistance passive». Mais l’expression, selon lui trop étriquée, a des connotations ambiguës : elle semble désigner « l’arme des faibles ». Invoquer, à l’instar de Thoreau, la « désobéissance civile » s’avère plus pertinent. Une telle appellation, néanmoins, malgré le génie de son auteur, ne suffit pas à décrire toute la portée de la révolte en cours. Comme « résistance passive », en outre, elle provient de la langue des colons. Si Gandhi utilise abondamment l’anglais, c’est à son grand dam ! Le respect de sa langue maternelle et de la pensée qui s’y déploie lui commande de ne pas employer de termes qui ne s’y laisseraient traduire. Gandhi organise donc en 1907, prix à la clef, un concours dans lequel il invite à trouver des équivalents à « résistance passive », « désobéissance civile » et leurs dérivés. L’appel est lancé, en gujarati, dans Indian Opinion. Avec sa précision de juriste, Gandhi commente l’ensemble des propositions qui lui sont faites, et n’en retient qu’une : la sienne.Satyagraha [être arrimé à la vérité], ainsi seront condensés en un mot les multiples aspects de la lutte non violente qu’il entend mener. Ironie de l’histoire, celui-là sonnera si juste à ses oreilles 7 que fréquemment, lorsqu’il s’exprimera en anglais, il le restituera tel quel.Il en viendra même à distinguer satyagraha et désobéissance civile, invitant à imaginer le premier comme un arbre et la seconde comme l’une de ses multiples branches. En bref donc, parsatyagrahaon entend le refus de se soumettre à une loi, un règlement ou aux autorités, tout en menant un combat et une action pacifiques. Le but d’une « action de satyagraha » est devaincre l’injustice et de se libérer de l’oppresseur.L’idéologie non violente de Gandhi revient à rejeter tout ce qui détruit la personne humaine.Pour ce faire, elle emprunte plusieurs voies : la vérité, la justice, l’amour et le sacrifice de soi. Cette forme de résistance a été instaurée par Gandhi afin de lutter pour la libération de son peuple face à la couronne britannique et de la diaspora indienne, victime d’apartheid, en Afrique du Sud. Gandhi perçoit la lutte armée comme un acte de barbarie car celle-ci utilise la force des armes afin de faire taire l’adversaire ou de lui imposer son point de vue. Cause de souffrances et de nuisances, la violence est l’expression du mal. Elle entraîne une réplique de la part de celui qui la subit, s’engage alors un cycle infernal de violences successives. A l’inverse,la non-violence prônée par le Mahatma Gandhi est l’absence totale de malveillance à l’égard de tout ce qui vit. Par sa stratégie, Gandhi propose une autre façon de résoudre les conflits. Pourtant l’homme accorde aujourd’hui encore une plus grande confiance dans la lutte armée. Peut-on au contraire considérer avec Gandhi que la non-violence est une forme de lutte plus efficace que la lutte armée ? Selon Gandhi, la non-violence est préférable à la lutte armée évidemment car toute violence, de quelque nature qu’elle soit, est contraire à la vérité. 0.5 Retombées sur le plan politique et social [6] L’importance et l’influence de Gandhi sur le monde contemporain ne font aucun doute. Il est parmi les personnes ayant marqué le XXe siècle et cette influence ne s’est pas tarie avec le temps. Il s’agit d’une pensée riche et complexe qui n’a pas encore été totalement épuisée malgré les très nombreux commentaires dont elle n’a cessé de faire l’objet. 8 0.5. RETOMBÉES SUR LE PLAN POLITIQUE ET SOCIAL [?] Si l’on considère Gandhi comme l’homme qui a mené le pays à l’indépendance et voulait proposer un mode original de développement du pays, force est de déplorer un bilan plus que négatif. La condamnation à mort et l’exécution de ses assassins constituaient en elles-mêmes les preuves d’un rejet de ses idées. Au sens strict, l’Inde n’a adopté aucune des options politiques, économiques et sociales propres à la pensée de Gandhi : si l’on s’en tient à ce constat, on peut légitimement parler d’échec. Néanmoins, de son vivant, il a énormément réussi. De l’abolition des lois ségrégationnistes à l’égard des indiens en Afrique du Sud à l’indépendance de son pays, en passant par l’obtention d’une adoption unanime de ses vues, Gandhi a énormément aidé son peuple et l’humanité en général, par l’espoir qu’il fit renaître auprès des opprimés. La pensée de Ganghi est une inépuisable source de réflexion pour des millions de gens et, parmi ces derniers, de très nombreuses personnalités de toute sorte, qu’elles soient activistes, philosophes voire politiques. Parmi ces derniers, une figure vient immédiatement à l’esprit dont l’action et la personnalité furent inlassablement associées à Gandhi. Aux États-Unis, en effet, Martin Luther King est considéré comme une personnalité de premier plan et la pensée gandhienne est très présente dans son approche, justifiée aussi par les évangiles. Il fut impliqué dans le mouvement d’émancipation des noirs américains et y joua un rôle remarquable. On peut également évoquer Nelson Mandela, une autre grande figure de la non violence et de la libération des peuples. Ainsi, l’héritage de Gandhi n’est pas moindre. Une autre grande figure, et pas des moindres, inspiré fortement de la pensée gandienne est léconomiste Ernst Friedrich Schumacher. Selon Schumacher, l’économie doit se plier aux besoins de la nation et le libéralisme n’est pas adapté aux pays en dé- veloppement. Elle doit aussi tenir compte de l’ensemble des ressources de la planète et c’est ainsi qu’il fut un des premiers à parler de « développement durable », concept qui fait florès aujourd’hui. Gandhi, poursuit-il, proposait trois remèdes à la maladie de l’économie : taille réduite (smallness), simplicité et non-violence. Et il prend pour autre fondement ce principe énoncé par Gandhi lui-même : « La Terre fournit assez pour satisfaire les besoins de chaque homme, mais pas pour l’avidité de chacun ». C’est encore Gandhi qui considérait qu’il fallait privilégier la production pour les masses davantage 9 que la production de masse.Schumacher montre surtout que les principes gandhiens de l’économie fondent les besoins de l’économie moderne pour un développement durable. Il faut, par exemple, recentrer le transport et la distribution sur le local pour éviter des coûts humains et environnementaux excessifs. Comme déjà mentionné, Gandhi a toujours été une source d’inspiration sans précédent pour tout adepte de la non violence et l’écho de sa pensée est toujours présent aujourd’hui. Bien que sa pensée ne s’applique explicitement ni directement par ceux qui se réclament de lui, c’est une icône mondiale centrale dans la lutte non violente. 0.6 Conclusion La pensée de Gandhi est très profonde et ne se limite pas à l’aspect pratique qui l’a accompagnée. En fait, au-delà d’être une pensée en mouvement, une pensée mise directe- ment en pratique par son auteur, la pensée gandhienne est tout d’abord une idéologie forte. Cette pensée tient beaucoup plus compte de la source profonde des principes véhiculées que de leur mise en pratique qui peut être victime des aléas de la vie. Toute la pensée de Gandhi tourne autour de lavérité. Il dit d’ailleurs que, s’il devait choisir entre non-violence et vérité, il choisirait cette dernière en lieu et place de celle-là [5]. C’est en ce sens que, paradoxalement, bien que s’étant réclamé inspiré de l’hindouisme, Gandhi peut être considéré comme un disciple directe de la pensée de Jésus. 10 Bibliographie [1] Wikipedia.org. https://fr.wikipedia.org/wiki/Gandhi, 2022. [2] La toupie.org. https://www.toupie.org/Biographies/Gandhi.htm, 2022. [3] Louis Fischer.La Vie du Mahâtma Gandhi. Paris, 1983. [4] Ridoré Cécile Woodlyne et Vincent Nyrkah Brice Arnaud Hello, Dieumercy Junie Edwina. L’idéologie non violente de gandhi, 2014. [5] Mohandas Karamchand Gandhi, Krishna Kripalani, Guy Vogelweith, Sarvepalli Radhakrishnan, and Sarvepalli Radhakrishnan.La voie de la non-violence. Gallimard, 2004. [6] Robert Deliège. https://books.openedition.org/septentrion/13949, 2022. 11 |
Nous voulons que tous les êtres humains, ensemble ou pris isolément, jeunes ou vieux, riches ou pauvres, nobles ou roturiers, hommes ou femmes, puissent pleinement s'instruire et devenir des êtres achevés. Nous voulons qu'ils soient instruits parfaitement et formés non seulement sur tel ou tel point, mais également sur tout ce qui permet à l'homme de réaliser intégralement son essence. D'apprendre à connaître la vérité, à ne pas être trompé par des faux semblants. A aimer le bien, à ne pas être séduit par le mal, à faire ce qu'on doit faire et à se garder de ce qu'il faut éviter. A parler sagement de tout, avec tout le monde. Enfin, à toujours traiter les choses, les hommes et Dieu avec prudence et non à la légère. Et à ne jamais s'écarter de son but, le bonheur. Le Galilée de l'éducation comme on le surnommait s'est posé une question à la fois très simple et très révolutionnaire. Il s'était demandé en effet : 'Comment faire en sorte que tous les hommes accèdent à tout le savoir disponible ?'Comment offrir à tous un panorama complet de ce que les hommes savent ? C'est de l'ignorance, et de l'ignorance seule que l'homme doit se libérer.C'est de l'ignorance, et de l'ignorance seule que l'homme doit se libérer. | Nous voulons que tous les êtres humains, ensemble ou pris isolément, jeunes ou vieux, riches ou pauvres, nobles ou roturiers, hommes ou femmes, puissent pleinement s'instruire et devenir des êtres achevés. Nous voulons qu'ils soient instruits parfaitement et formés non seulement sur tel ou tel point, mais également sur tout ce qui permet à l'homme de réaliser intégralement son essence. D'apprendre à connaître la vérité, à ne pas être trompé par des faux semblants. A aimer le bien, à ne pas être séduit par le mal, à faire ce qu'on doit faire et à se garder de ce qu'il faut éviter. A parler sagement de tout, avec tout le monde. Enfin, à toujours traiter les choses, les hommes et Dieu avec prudence et non à la légère. Et à ne jamais s'écarter de son but, le bonheur. Le Galilée de l'éducation comme on le surnommait s'est posé une question à la fois très simple et très révolutionnaire. Il s'était demandé en effet : 'Comment faire en sorte que tous les hommes accèdent à tout le savoir disponible ?'Comment offrir à tous un panorama complet de ce que les hommes savent ? C'est de l'ignorance, et de l'ignorance seule que l'homme doit se libérer.C'est de l'ignorance, et de l'ignorance seule que l'homme doit se libérer. |
Nous voulons que tous les êtres humains, ensemble ou pris isolément, jeunes ou vieux, riches ou pauvres, nobles ou roturiers, hommes ou femmes, puissent pleinement s'instruire et devenir des êtres achevés. Nous voulons qu'ils soient instruits parfaitement et formés non seulement sur tel ou tel point, mais également sur tout ce qui permet à l'homme de réaliser intégralement son essence. D'apprendre à connaître la vérité, à ne pas être trompé par des faux semblants. A aimer le bien, à ne pas être séduit par le mal, à faire ce qu'on doit faire et à se garder de ce qu'il faut éviter. A parler sagement de tout, avec tout le monde. Enfin, à toujours traiter les choses, les hommes et Dieu avec prudence et non à la légère. Et à ne jamais s'écarter de son but, le bonheur. Le Galilée de l'éducation comme on le surnommait s'est posé une question à la fois très simple et très révolutionnaire. Il s'était demandé en effet : 'Comment faire en sorte que tous les hommes accèdent à tout le savoir disponible ?'Comment offrir à tous un panorama complet de ce que les hommes savent ? C'est de l'ignorance, et de l'ignorance seule que l'homme doit se libérer.C'est de l'ignorance, et de l'ignorance seule que l'homme doit se libérer. | Nous voulons que tous les êtres humains, ensemble ou pris isolément, jeunes ou vieux, riches ou pauvres, nobles ou roturiers, hommes ou femmes, puissent pleinement s'instruire et devenir des êtres achevés. Nous voulons qu'ils soient instruits parfaitement et formés non seulement sur tel ou tel point, mais également sur tout ce qui permet à l'homme de réaliser intégralement son essence. D'apprendre à connaître la vérité, à ne pas être trompé par des faux semblants. A aimer le bien, à ne pas être séduit par le mal, à faire ce qu'on doit faire et à se garder de ce qu'il faut éviter. A parler sagement de tout, avec tout le monde. Enfin, à toujours traiter les choses, les hommes et Dieu avec prudence et non à la légère. Et à ne jamais s'écarter de son but, le bonheur. Le Galilée de l'éducation comme on le surnommait s'est posé une question à la fois très simple et très révolutionnaire. Il s'était demandé en effet : 'Comment faire en sorte que tous les hommes accèdent à tout le savoir disponible ?'Comment offrir à tous un panorama complet de ce que les hommes savent ? C'est de l'ignorance, et de l'ignorance seule que l'homme doit se libérer.C'est de l'ignorance, et de l'ignorance seule que l'homme doit se libérer. |
Gandhi est né à Porbandar (Gujarat) le 2 octobre 1869 et assassiné à Delhi le 30 janvier 1948. Il est communément connu et appelé en Inde et dans le monde sous le nom de Mahatma Gandhi (grande âme) Gandhi ne peut que se reconnaître dans l'expérience de Thoreau, emprisonné parce qu'il refusait de payer un impôt à un État esclavagiste. La pensée de Gandhi est très profonde et ne se limite pas à l'aspect pratique qui l'accompagnait. | TP N°1 D’EDUCATION A LA PAIX Le Mahatma GANDHI KRAME KADURHA David (Matricule : 14167) Tech 1 - Génie Informatique Le 21 Août 2022 0.1 Introduction Le Mahatma Gandhi ! Qui ne connaît pas ce grand homme ? Sa pensée est connue et citée partout au monde. Plus d’un sont les hommes, et pas des moindres, qui se réclament de sa pensée. Il demeure une icône centrale de la non-violence et en est sans doute un parfait pionnier. La force de sa personnalité et des idées qu’il défend réside, non seulement en leur beauté mais surtout en leur pouvoir transformateur. Sa pratique d’une philosophie constamment mise à l’épreuve le distingue des idéalistes purs. Mais sa pensée toujours justifiée par des grands idéaux, le rapproche encore paradoxalement des idéalistes modérés. Son impact sur le monde a largement dépassé sa seule terre natale. 0.2 Brève biographie de Gandhi [1, 2] Mohandas Karamchand Gandhi est un dirigeant politique indien, important guide spirituel et icône de la non-violence. Né à Porbandar (Gujarat) le 2 octobre 1869 et mort assassiné à Delhi le 30 janvier 1948, il est communément connu et appelé en Inde et dans le monde comme Mahatma Gandhi (grande âme). Toutefois, il refusera le titre de Mahatma durant toute sa vie. Comme il a été élevé dans les valeurs hindouistes, il apprend à connaître les autres religions et la tolérance envers elles. D’ailleurs, la Baghavad-Gita est un texte de l’hindouisme qui aura une très grande influence sur lui. Suivant les coutumes de sa caste, il s’est marie à l’âge de 14 ans avec Kasturbai qui restera son épouse jusqu’à sa mort en 1942. Après ses études de droit à Londres, Gandhi est retourné dans son pays mais les affaires juridiques n’y tournent pas très bien pour lui. En 1893, il est employé comme conseiller juridique pour une société indienne en Afrique du Sud. Il y découvre comment les noirs ainsi que les indiens y sont privés de nombreux droits civiques et sont victimes de l’intolérance et du racisme. Il entreprend alors, pendant les vingt années qui suivent, un combat de résistance non violente et de non-coopération face aux autorités d’Afrique du Sud. Influsencé par l’écrivain américain Henry David Thoreau (1817-1862), il développe en 1909 ses théories du combat par la non-violence et la désobéissance civile de masse, la 2 0.3. PREMIERS PAS DANS LA NON VIOLENCE [?, ?] satyagraha, dans un ouvrage intitulé Hind Swaraj. L’Afrique du Sud a été à la foiscomme un terrain de croissance, de mûrissement, mais aussi de mise en pratique préparatoire des théories de non violence qu’il mettait au point. Ayant obtenu des avancées significatives en 1914 de la part du gouvernement sud-africain, Gandhi retourne en Inde, qu’il parcourt pour mieux la connaître. Après la Première Guerre mondiale, Gandhi, vite rejoint par des millions d’Indiens, s’oppose aux Britanniques en organisant la résistance civique et des campagnes de non-coopération (boycott des autorités, des tribunaux et des écoles,...). Gandhi conduisit ensuite aussi la marche du sel, célèbre opposition à la taxe sur le sel, et pendant la seconde guerre mondiale, refusant de soutenir les Britanniques sans la contrepartie d’indépendance immédiate, il lance un appel pour que ceux-ci quittent l’Inde : Quit India. Il s’ensuit la plus radicale révolte pour l’indépendance et de terribles répressions. Il fut emprisonné plusieurs fois en Afrique du Sud et en Inde pour ses activités ; il passa en tout six ans en prison. L’Inde accède finalement à l’indépendance le 15 Août 1947 malgré sa partition en Inde et Pakistan (partition à laquelle Gandhi s’oppose de toutes ses forces mais est obligé de l’accepter pour garantir la paix intérieure). Il ne peut empêcher le déchaînement de violence entre les musulmans et les hindous et meurt assassiné le 30 janvier 1948 par un fanatique hindou. Les combats non violents de Gandhi pour la défense des droits de l’homme eurent une influence importante sur les mouvements de libération et de défense des droits civiques dans le monde entier, notamment pour les noirs en Amérique du Nord avec Martin Luther King. Gandhi est reconnu comme le Père de la Nation en Inde, où son anniversaire est une fête nationale. Cette date a également été déclarée « Journée internationale de la non-violence » par l’Assemblée générale des Nations unies en 2007. 0.3 Premiers pas dans la non violence [1, 3] Lorsque Gandhi débarqua en Afrique du Sud, au mois de mai 1893, il avait uniquement pour mission de gagner un procès, de se procurer un peu d’argent et, peut-être, en fin de 3 compte, de commencer sa carrière : « Je tente ma chance dans l’Afrique du Sud. » Le procès exigeait la présence de Gandhi à Prétoria, capitale du Transvaal. On acheta pour lui à Durban un billet de première classe et il prit le train pour un voyage de nuit. A Maritzbourg, un blanc entra dans le compartiment et, voyant l’intrus à peau brune, se retira pour reparaître un moment plus tard avec deux employés du chemin de fer qui ordonnèrent à Gandhi de déménager dans le fourgon. Gandhi protesta en disant qu’il avait un billet de première. Cela ne fit aucun effet. Il fallait qu’il sortît. Il refusa et resta. Alors on alla chercher un policier qui le jeta dehors avec ses bagages. Gandhi aurait pu rentrer dans le train et trouver une place dans le wagon de troisième. Il préféra rester dans la salle d’attente. Il faisait froid dans ces montagnes. Son pardessus était dans sa valise que retenaient les gens de la gare; par peur d’être de nouveau injurié, il n’alla pas le réclamer. Il resta là assis toute la nuit, grelottant et dépité. Devait-il retourner aux Indes? Cet épisode était le reflet d’une situation bien plus importante. Fallait-il en prendre son parti ou simplement chercher une réparation pour son injure personnelle, terminer le procès et retourner chez lui dans l’Inde? Il s’était heurté au terrible fléau du préjugé de la couleur. Son devoir était de le combattre. Fuir en abandonnant ses compatriotes dans cette mauvaise situation aurait été lâche. Bien des années après, aux Indes, le Dr John R. Mott, un missionnaire chrétien, demanda à Gandhi : « Quelles ont été les expériences les plus décisives de toute votre vie? » En réponse, Gandhi lui raconta ce qui s’était passé cette nuit-là à la gare de Maritzbourg. Au cours de cette nuit glaciale à Maritzbourg le germe, de la protestation sociale était né en Gandhi. Mais il ne fit rien encore. Il poursuivit son travail à Prétoria. Une fois son procès terminé, Gandhi retourna à Durban et se prépara à prendre le bateau pour les Indes. Il avait séjourné dans l’Afrique du Sud douze mois environ. Avant son départ, ses associés donnèrent en son honneur une fête d’adieu. Pendant cette fête quelqu’un lui remit le Natal Mercury du jour, où il découvrit un bref écho concernant une loi proposée par le gouvernement de Natal en vue de priver les Indiens du droit d’élire les membres du corps législatif. Gandhi comprit la nécessité de résister à cette tendance. Ses amis y étaient 4 0.3. PREMIERS PAS DANS LA NON VIOLENCE [?, ?] disposés, mais sans lui, disaient-ils, « ils étaient ignorants, incapables et sans force ». Il consentit à rester un mois de plus. Il resta vingt ans, luttant pour la défense des droits des Indiens. Il remporta la victoire. Au début de la Deuxième Guerre des Boers, en 1899, Gandhi déclare que les Indiens doivent soutenir l’effort de guerre s’ils veulent légitimer leur demande de citoyenneté. Il organise un corps d’ambulanciers volontaires de 300 Indiens libres et de 800 coolies indiens, appelé le Indian Ambulance Corps, une des rares unités médicales qui secouraient les Sud-Africains noirs. Gandhi lui-même est porteur de civière à la bataille de Spion Kop. Il est décoré à cette occasion. Malgré tout, à la fin de la guerre, la situation des Indiens ne s’améliore pas, et continue même à se détériorer. En 1906, le gouvernement du Transvaal vote une nouvelle loi demandant l’enregistrement de toute la population indienne. Lors d’une rencontre de protestation à Johannesbourg le 11 septembre 1906, Gandhi met en pratique pour la première fois sa méthodologie du satyagraha (attachement à la vérité), ou protestation non violente, dont il avait exposé la théorie en 1904. Il appelle ses compagnons indiens à défier la nouvelle loi et à subir les punitions qui en résulteraient au lieu de résister par la violence. Il s’inspire en cela des préceptes, de son ami indien Shrimad Rajchandra, un ascète jaïn avec lequel il correspond jusqu’à la mort de celui-ci, et considéré comme son premier maître spirituel. Ce plan est adopté, ce qui mène à une lutte de sept ans au cours de laquelle des milliers d’Indiens et de Chinois sont emprisonnés (incluant Gandhi lui-même en de nombreuses occasions), fouettés ou même abattus pour avoir fait grève, refusé de s’enregistrer, brûlé leur carte d’enregistrement ou avoir résisté de manière non violente. C’est durant cette période que Gandhi entame une correspondance avec Léon Tolstoï, où ils échangent leurs vues sur la non-violence et la politique globale jusqu’à la mort de l’écrivain russe. La désobéissance civile culmine en 1913 avec une grève des mineurs et la marche des femmes indiennes. Bien que le gouvernement sud-africain réprime les manifestants indiens avec succès, l’opinion publique réagit violemment aux méthodes extrêmement dures employées contre les manifestants asiatiques pacifiques. Finalement le général Jan Christiaan Smuts est forcé de négocier un compromis avec Gandhi. Les mariages non chrétiens redeviennent 5 légaux et une taxe de trois livres qui représentait six mois de salaire, imposée aux Indiens qui voulaient devenir des travailleurs libres (c’est-à-dire les coolies), est abolie. C’étaient ses débuts dans la lutte non violente. L’Afrique du sud a servi de premier plateau d’application des principes qui mûrissaient en lui. 0.4 Approche de la lutte non violente [4, 5] La puissance du Mahatma prenait racine dans l’action. Il ne demandait jamais à quiconque de faire quoi que ce soit qu’il ne faisait pas lui-même. Il ne faisait que ce qu’il croyait devoir faire. Les exemples sont nombreux : la marche du sel, le rouet, le satyagraha, la destruction des vêtement de style européen, la libération des femmes et des intouchables... Il entraînait des millions de personnes dans son action. Il ne prêchait pas, il agissait, il faisait ce qu’il croyait devoir faire et les foules le suivaient par milliers, par million ou par centaines de millions. La pensée de Gandhi n’émerge pas de manière spontanée. Elle se nourrit notamment des ouvrages de Henry David Thoreau, de Léon Tolstoï ou encore de John Ruskin. Gandhi ne peut que se reconnaître dans l’expérience de Thoreau, incarcéré parce qu’il refusait de payer tout impôt à un État esclavagiste et portant la guerre au Mexique. Il reprend à son compte l’idée de désobéissance civile, laquelle résonne avec les moyens de lutte qu’il adopte en Afrique du Sud pendant le combat contre les lois sur l’immigration. Il la transforme aussi. Non sans grandes difficultés, il cherche à en faire une pratique collective. Il désire, en outre, la disjoindre absolument de toute violence, alors que l’écrivain américain, Thoreau, sans être un apôtre de la violence, n’hésitait aucunement à justifier son usage. Sur cette question, c’est l’influence de Tolstoï que l’on perçoit. Ne laissant planer aucun doute à ce propos, Gandhi affirme : « Lorsque je suis allé en Angleterre, j’étais un défenseur de la violence, je croyais en elle, et aucunement en la non-violence. Mais après que j’ai lu Le Royaume de Dieu est en vous de Tolstoï, cette absence de foi en la nonviolence s’est volatilisée. » En 1909, les deux hommes échangent quelques lettres. Dans la dernière de celles-ci, le romancier russe offre une véritable consécration à l’entreprise de 6 0.4. APPROCHE DE LA LUTTE NON VIOLENTE [?, ?] son correspondant : « Votre activité au Transvaal (Afrique du Sud), pays qui semble être aux confins de la Terre, est une réalisation centrale, l’accomplissement le plus important parmi tous ceux qui ont actuellement lieu dans le monde. » Quelque temps plus tard, Gandhi baptisera « ferme Tolstoï » son second projet de vie communautaire. On en arrive à Ruskin. Unto This Last est pour Gandhi une révélation. L’ouvrage le pousse à quitter la ville pour la campagne. En 1904, avec son ami Hermann Kallenbach, il acquiert à cette fin plusieurs hectares de terrain près de Durban et crée la communauté de Phoenix. Il s’agit là de faire l’expérience d’une vie collective où la simplicité règne. Les positions que chacun occupe au sein de la société doivent s’effacer, le travail agricole et artisanal doit acquérir une place centrale. Les locaux d’Indian Opinion sont aussi installés à cet endroit. Au fil des textes, on verra le choix d’un tel mode de vie se joindre à l’argumentaire sur le combat non violent ; il sera présenté comme son aspect constructif. Ces auteurs, Gandhi ne se contente pas de les lire : il étaie ses arguments en les citant abondamment et traduit certaines de leurs œuvres en gujarati. La traduction, chez Gandhi, n’est pas simplement une pratique textuelle, c’est aussi l’une des opérations fondamentales grâce auxquelles les concepts s’affinent et la pensée chemine. Pour qualifier la lutte qu’il invite à mener en Afrique du Sud, il parle d’abord de « résistance passive ». Mais l’expression, selon lui trop étriquée, a des connotations ambiguës : elle semble désigner « l’arme des faibles ». Invoquer, à l’instar de Thoreau, la « désobéissance civile » s’avère plus pertinent. Une telle appellation, néanmoins, malgré le génie de son auteur, ne suffit pas à décrire toute la portée de la révolte en cours. Comme « résistance passive », en outre, elle provient de la langue des colons. Si Gandhi utilise abondamment l’anglais, c’est à son grand dam ! Le respect de sa langue maternelle et de la pensée qui s’y déploie lui commande de ne pas employer de termes qui ne s’y laisseraient traduire. Gandhi organise donc en 1907, prix à la clef, un concours dans lequel il invite à trouver des équivalents à « résistance passive », « désobéissance civile » et leurs dérivés. L’appel est lancé, en gujarati, dans Indian Opinion. Avec sa précision de juriste, Gandhi commente l’ensemble des propositions qui lui sont faites, et n’en retient qu’une : la sienne. Satyagraha [être arrimé à la vérité], ainsi seront condensés en un mot les multiples aspects de la lutte non violente qu’il entend mener. Ironie de l’histoire, celui-là sonnera si juste à ses oreilles 7 que fréquemment, lorsqu’il s’exprimera en anglais, il le restituera tel quel. Il en viendra même à distinguer satyagraha et désobéissance civile, invitant à imaginer le premier comme un arbre et la seconde comme l’une de ses multiples branches. En bref donc, par satyagraha on entend le refus de se soumettre à une loi, un règlement ou aux autorités, tout en menant un combat et une action pacifiques. Le but d’une « action de satyagraha » est de vaincre l’injustice et de se libérer de l’oppresseur. L’idéologie non violente de Gandhi revient à rejeter tout ce qui détruit la personne humaine. Pour ce faire, elle emprunte plusieurs voies : la vérité, la justice, l’amour et le sacrifice de soi. Cette forme de résistance a été instaurée par Gandhi afin de lutter pour la libération de son peuple face à la couronne britannique et de la diaspora indienne, victime d’apartheid, en Afrique du Sud. Gandhi perçoit la lutte armée comme un acte de barbarie car celle-ci utilise la force des armes afin de faire taire l’adversaire ou de lui imposer son point de vue. Cause de souffrances et de nuisances, la violence est l’expression du mal. Elle entraîne une réplique de la part de celui qui la subit, s’engage alors un cycle infernal de violences successives. A l’inverse, la non-violence prônée par le Mahatma Gandhi est l’absence totale de malveillance à l’égard de tout ce qui vit. Par sa stratégie, Gandhi propose une autre façon de résoudre les conflits. Pourtant l’homme accorde aujourd’hui encore une plus grande confiance dans la lutte armée. Peut-on au contraire considérer avec Gandhi que la non-violence est une forme de lutte plus efficace que la lutte armée ? Selon Gandhi, la non-violence est préférable à la lutte armée évidemment car toute violence, de quelque nature qu’elle soit, est contraire à la vérité. 0.5 Retombées sur le plan politique et social [6] L’importance et l’influence de Gandhi sur le monde contemporain ne font aucun doute. Il est parmi les personnes ayant marqué le XXe siècle et cette influence ne s’est pas tarie avec le temps. Il s’agit d’une pensée riche et complexe qui n’a pas encore été totalement épuisée malgré les très nombreux commentaires dont elle n’a cessé de faire l’objet. 8 0.5. RETOMBÉES SUR LE PLAN POLITIQUE ET SOCIAL [?] Si l’on considère Gandhi comme l’homme qui a mené le pays à l’indépendance et voulait proposer un mode original de développement du pays, force est de déplorer un bilan plus que négatif. La condamnation à mort et l’exécution de ses assassins constituaient en elles-mêmes les preuves d’un rejet de ses idées. Au sens strict, l’Inde n’a adopté aucune des options politiques, économiques et sociales propres à la pensée de Gandhi : si l’on s’en tient à ce constat, on peut légitimement parler d’échec. Néanmoins, de son vivant, il a énormément réussi. De l’abolition des lois ségrégationnistes à l’égard des indiens en Afrique du Sud à l’indépendance de son pays, en passant par l’obtention d’une adoption unanime de ses vues, Gandhi a énormément aidé son peuple et l’humanité en général, par l’espoir qu’il fit renaître auprès des opprimés. La pensée de Ganghi est une inépuisable source de réflexion pour des millions de gens et, parmi ces derniers, de très nombreuses personnalités de toute sorte, qu’elles soient activistes, philosophes voire politiques. Parmi ces derniers, une figure vient immédiatement à l’esprit dont l’action et la personnalité furent inlassablement associées à Gandhi. Aux États-Unis, en effet, Martin Luther King est considéré comme une personnalité de premier plan et la pensée gandhienne est très présente dans son approche, justifiée aussi par les évangiles. Il fut impliqué dans le mouvement d’émancipation des noirs américains et y joua un rôle remarquable. On peut également évoquer Nelson Mandela, une autre grande figure de la non violence et de la libération des peuples. Ainsi, l’héritage de Gandhi n’est pas moindre. Une autre grande figure, et pas des moindres, inspiré fortement de la pensée gandienne est léconomiste Ernst Friedrich Schumacher. Selon Schumacher, l’économie doit se plier aux besoins de la nation et le libéralisme n’est pas adapté aux pays en développement. Elle doit aussi tenir compte de l’ensemble des ressources de la planète et c’est ainsi qu’il fut un des premiers à parler de « développement durable », concept qui fait florès aujourd’hui. Gandhi, poursuit-il, proposait trois remèdes à la maladie de l’économie : taille réduite (smallness), simplicité et non-violence. Et il prend pour autre fondement ce principe énoncé par Gandhi lui-même : « La Terre fournit assez pour satisfaire les besoins de chaque homme, mais pas pour l’avidité de chacun ». C’est encore Gandhi qui considérait qu’il fallait privilégier la production pour les masses davantage 9 que la production de masse. Schumacher montre surtout que les principes gandhiens de l’économie fondent les besoins de l’économie moderne pour un développement durable. Il faut, par exemple, recentrer le transport et la distribution sur le local pour éviter des coûts humains et environnementaux excessifs. Comme déjà mentionné, Gandhi a toujours été une source d’inspiration sans précédent pour tout adepte de la non violence et l’écho de sa pensée est toujours présent aujourd’hui. Bien que sa pensée ne s’applique explicitement ni directement par ceux qui se réclament de lui, c’est une icône mondiale centrale dans la lutte non violente. 0.6 Conclusion La pensée de Gandhi est très profonde et ne se limite pas à l’aspect pratique qui l’a accompagnée. En fait, au-delà d’être une pensée en mouvement, une pensée mise directement en pratique par son auteur, la pensée gandhienne est tout d’abord une idéologie forte. Cette pensée tient beaucoup plus compte de la source profonde des principes véhiculées que de leur mise en pratique qui peut être victime des aléas de la vie. Toute la pensée de Gandhi tourne autour de la vérité. Il dit d’ailleurs que, s’il devait choisir entre non-violence et vérité, il choisirait cette dernière en lieu et place de celle-là [5]. C’est en ce sens que, paradoxalement, bien que s’étant réclamé inspiré de l’hindouisme, Gandhi peut être considéré comme un disciple directe de la pensée de Jésus. |
Dans ce chapitre, nous allons présenter brièvement le traitement automatique du langage naturel, ainsi que les techniques de traitement qui seront utiles pour la réalisation de l’objectif principal de ce travail.
Les stopwords sont, pour une langue donnée, des mots qui permettent de réaliser des phrases correctes mais qui n’apportent pas directement d’information significative sur l’ensemble (du point de vu traitement).
D’ailleurs, concernant ces dernières techniques, les modèles de l’état de l’art les plus adaptés sont les transformers et leur présentation exige une revue chronologique car en effet, pour y arriver, des modèles classiques basés sur des réseaux de neurones récurrents (RNN) ont été utilisés car plus adaptés aux données séquentielles que sont les textes.
On n’entrera pas dans le détail, vu que ce n’est pas exactement le sujet du travail mais, pour entamer la partie qui suit, il nous faut préciser que, comme pour les réseaux de neurones simples, l’entraînement exige d’appliquer une fonction de différentiation sur l’erreur produite par le système.
Et de cela on peut conclure que c’est plus intéressant d’avoir Ft et It qui prennent des valeurs entre 0 et 1 (pour modéliser la sélection) et ct devra dépendre de ces deux éléments, avec aussi l’état précédent de la mémoire à long terme.
Considérons que Ω, dont les termes sont représentés par wij, est la matrice des poids d’attention normalisés par une fonction softmax pour chaque ligne.
Les transformers sont des modèles du type encodeur-décodeur comme on peut le constater sur la figure ci-dessus (bien que certaines implémentations n’en utilisent qu’une partie selon la tâche).
7°) Module linéaire final : Il s’agit d’un réseau de neurones classique pour réaliser la déduction finale, le tout étant passé à la fin à travers une opération softmax qui permet de transformer les résultats en probabilité d’éléments générés (cela permet de choisir le terme le plus vraisemblable à générer comme sortie).
Les transformers constituent un type de modèle qui s’avère être le plus adapté (pour le moment) au résumé automatique du texte et, dans le chapitre suivant, nous commencerons par présenter les diverses spécificités du résumé automatique comme tâche du NLP, pour finir par présenter l’architecture globale du système que nous comptons élaborer.
Ensuite, nous présenterons les diverses approches utilisées pour le résumé automatique, sans oublier d’approfondir notre présentation des modèles de type transformer adaptés à cette tâche, pour finalement mentionner le modèle que nous estimons le plus adapté concernant l’approche basée sur le deep-learning pour la synthèse automatique. | UNIVERSITELIBREDESPAYSDESGRANDSLACS
FACULTE DES SCIENCES ET DES TECHNOLOGIES
APPLIQUEES
DEPARTEMENT DE GENIE ELECTRIQUE ET INFORMATIQUE
B.P 368 GOMA
www.ulpgl.net
CONCEPTION ET REALISATION D’UN
SYSTEME BASE SUR L’INTELLIGENCE
ARTIFICIELLE POUR RESUMER
AUTOMATIQUEMENT LES TEXTES
Par : KRAME KADURHA David
Travail présenté en vue de l’obtention du Diplôme d’ingénieur civil en génie électrique et informatique
Option : Génie informatique
Directeur : Prof BARAKA MUSHAGE Olivier
Encadreur : Ir MUHINDO WAMUHINDO Abdenego
ANNEE ACADEMIQUE 2021−2022
Dédicaces
Remerciements
Résumé
Sigles et abréviations
Table des matières
Dédicaces i
Remerciements ii
Résumé iii
Sigles et abréviations iv
Introduction générale 1
0.1 Contexte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
0.2 Identification et formulation du problème . . . . . . . . . . . . . . . . . . . 1
0.3 Questions de recherche . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
0.4 Hypothèses de travail . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
0.5 Justification du choix du sujet et motivations . . . . . . . . . . . . . . . . . 3
0.6 Objectifs de la recherche . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
0.6.1 Objectif général . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
0.6.2 Objectifs spécifiques . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
0.7 Méthodologie de recherche et délimitation du travail . . . . . . . . . . . . . 5
0.8 Subdivision du travail . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
Généralités sur le NLP 6
Introduction partielle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
Présentation et définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
Nécessité de l’approche par deep learning . . . . . . . . . . . . . . . . . . . 8
Quelques techniques courantes de traitement des textes . . . . . . . . . . . 9
La tokenisation (tokenization) . . . . . . . . . . . . . . . . . . . . . . 9
Les stopwords[44] . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
La racinisation (stemming) . . . . . . . . . . . . . . . . . . . . . . . . 10
La lemmatisation (lemmatization) . . . . . . . . . . . . . . . . . . . . 10
SYNTHESE AUTOMATIQUE DES TEXTES
Reconnaissance d’entités nommées (NER)[44] . . . . . . . . . . . . . 11
L’étiquetage morpho-syntaxique (POS tagging) . . . . . . . . . . . . 11
Approches du NLP . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
Les réseaux de neurones artificiels (ANN) . . . . . . . . . . . . . . . 12
Les réseaux de neurones récurrents (RNN) . . . . . . . . . . . . . . . 13
Mécanismes d’attention . . . . . . . . . . . . . . . . . . . . . . . . . 20
Les transformers . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
Conclusion partielle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
Résumé automatique et conception 29
Introduction partielle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
Présentation et définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
Catégorisation des résumés . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
Selon la fonction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
Selon le nombre de documents source . . . . . . . . . . . . . . . . . 32
Selon le genre des documents . . . . . . . . . . . . . . . . . . . . . . 32
Selon le type de sortie (résumé obtenu) . . . . . . . . . . . . . . . . . 33
Selon le type de résumeur . . . . . . . . . . . . . . . . . . . . . . . . 34
Selon le contexte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
Selon le destinataire du résumé . . . . . . . . . . . . . . . . . . . . . 35
Approches de résumé automatique . . . . . . . . . . . . . . . . . . . . . . . 35
Techniques intuitives de résumé [36] . . . . . . . . . . . . . . . . . . 35
Algorithmes classiques de résumé automatique . . . . . . . . . . . . 38
Modèles Seq2Seq . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
Methodes du Word-Embedding . . . . . . . . . . . . . . . . . . . . . 45
Modèles séquence-à-séquence proprement dits . . . . . . . . . . . . 46
Modèle BART pour la synthèse abstractive . . . . . . . . . . . . . . . 50
Conception de l’architecture globale du système . . . . . . . . . . . . . . . . 51
Spécifications du système . . . . . . . . . . . . . . . . . . . . . . . . 52
Présentation des éléments du système . . . . . . . . . . . . . . . . . 52
vi sur 68
TABLE DES MATIÈRES
Architecture du module de synthèse extractive . . . . . . . . . . . . 54
Architecture du module de synthèse abstractive . . . . . . . . . . . 56
Présentation des interfaces . . . . . . . . . . . . . . . . . . . . . . . . 58
Conclusion partielle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
Conception finale, réalisation et tests 60
Conclusion générale 61
Annexes 68
vii sur 68
Liste des figures
I.1 Réseau de neurones à une couche cachée et sans boucle [47] 13
I.2 Illustration de ce qu’est un RNN [22] 14
I.3 Comparaison entre cellules RNN classique et LSTM [18] 15
I.4 Vue fonctionnelle d’une cellule LSTM [18] 16
I.5 Cellule GRU [18] 19
I.6 Réseaux série-vers-série (en haut à gauche), série-vers-vecteur (en haut à
droite), vecteur-vers-série (en bas à gauche) et encodeur-décodeur (en bas àdroite) [16] 21
I.7 Architecture générique des transformers [50] 23
I.8 Vue éclatée d’un transformer [51] 27
II.1 Diagramme des fréquences des mots et le choix de Luhn [29] 40
II.2 Comparaison simplifiée entre BERT, GPT et BART [25] 50
II.3 Transformations de bruitage expérimentées pour BART [25] 50
II.4 Architecture globale de notre système 52
II.5 Architecture globale du système de synthèse abstractive 57
II.6 Architecture interne du modèle mentionné sur la figure II.5 57
II.7 Ébauche d’interface 58
viii
Introduction générale
0.1 Contexte
A l’ère du numérique, comme depuis l’invention de l’écriture, le texte est l’un des principaux moyens de communication et surtout, de transmission des connaissances.
Des livres aux SMS, en passant par diverses pages web, les données textuelles sont partout. En 2018, il s’agissait d’environs 80% de l’information qui circulait sur le web [23]. L’évolution de l’informatique continue à démontrer la possibilité de simplifier toujours grandement la vie de l’homme en automatisant de plus en plus l’accomplissement des tâches rébarbatives.
Certaines tâches comme celles liées explicitement à l’arithmétique semblent mieux se prêter à cette vague d’automatisation, les données numériques étant par essence celles prises en compte par les plateformes numériques.
Néanmoins, des transformations adéquates permettent de prendre en compte tout type de donnée, et le texte n’est pas exclu. C’est ainsi que, des avancées récentes en traitement automatique du langage naturel ont prouvé que le traitement du texte par l’ordinateur peut être raffiné autant qu’on veut, dans les limites du possible.
Cela est en fait une bonne nouvelle car, il s’avère que des nombreux sujets restent fermés à la majorité des gens suite au manque de temps, au regard de la quantité d’informations à consulter pour espérer avoir ne fusse qu’une lueur d’idée du domaine ou du sujet qu’on veut rapidement explorer.
C’est en ce sens que la mise au point des technologies pouvant faciliter l’exploration des connaissances présentées sous forme textuelle est salvatrice.
0.2 Identification et formulation du problème
Comme présenté dans la section précédente, la voie la plus privilégiée pour transmettre les connaissances est l’écriture. Mais, admettons que souvent, dans un long texte, la
1
SYNTHESE AUTOMATIQUE DES TEXTES
quantité d’information pertinente est moindre par rapport à la longueur du texte entier.
Comment faire donc pour identifier cette partie utile et gagner ainsi en temps ?
Il est souvent inintéressant de passer du temps à lire des textes très longs, surtout quand on veut juste avoir une compréhension suffisante en peu de temps de ce qui est écrit, ou quand le sujet traité ne fait pas partie de notre domaine de prédilection. Il est donc intéressant de mettre au point un système qui pourra assister l’homme dans la tâche de synthèse des connaissances afin de promouvoir par là-même un échange entre disciplines, ce qui est souvent très enrichissant.
0.3 Questions de recherche
Vu le problème que nous venons de présenter, une question se pose :
Est-il possible de mettre au point un système informatique capable de synthétiser les textes avec une performance de niveau humain ?
La précédente question nous amène aussi à nous demander ceci :
Un traitement purement linguistique ne pourrait-il pas nous permettre de générer des synthèses suffisamment bons pour atteindre notre objectif ?
L’inclusion des traitements basés sur l’intelligence artificielle dans les modules de synthèse est-elle obligatoire pour atteindre des bonnes performances ?
Quelle est l’architecture globale la plus adaptée pour réaliser un système de synthèse automatique performant ?
0.4 Hypothèses de travail
A la suite des questions que nous venons de soulever, nous postulons que :
Vu la complexité du langage naturel, un traitement purement linguistique ne nous permettrait pas de mettre au point un système de niveau humain en synthèse des textes;
0.5. JUSTIFICATION DU CHOIX DU SUJET ET MOTIVATIONS
Étant donné que, par définition, le langage naturel est difficile à formaliser complètement, on ne pourrait pas se passer de l’intelligence artificielle pour parvenir à réaliser un système performant;
Une architecture basé essentiellement sur des modèles du type transformer, joint à l’utilisation de quelques règles inspirées de la linguistique permettrait d’avoir un système de synthèse performant.
0.5 Justification du choix du sujet et motivations
Pour synthétiser un texte, il faut l’avoir aumoins lu! Et pourtant, pour lire un texte, il faut du temps, une denrée souvent rare.
Certains textes sont souvent fournis, accompagnés des synthèses qui sont parfois très bonnes, parfois incomplètes et parfois même très polarisées ou tout simplement mauvaises. Toutefois, avoir une synthèse à la demande serait mieux que de ne trouver que des synthèses de certains textes, sans d’ailleurs en avoir le plus souvent besoin. Nombreux sont des textes (livres, articles, pages web et autres documents) dont on voudrait avoir des bonnes synthèses, qu’on ne trouve que très rarement si on ne s’est pas découragé avant. C’est la raison pour laquelle, nous nous sommes fixé comme objectif de répondre à ce besoin précis en mettant au point une application web de synthèse des textes. Beaucoup de chercheurs en linguistique et en traitement automatique du langage naturel principalement se sont penché sur ce sujet [23, 48, 1, 21, 2].
Des solutions ont été proposées mais ne sont pas toujours à la hauteur de nos attentes (mettre au point un système de performance presqu’humaine en synthèse automatique des textes). Les plus prometteuses de ces solutions se limitent à des tailles bien réduites de texte, ce qui est déjà un grand pas mais pas suffisant évidemment. C’est pour cette raison qu’il nous semble pertinent d’étudier cette question en profondeur et de mettre au point un système complet et utilisable en dehors du monde de la recherche.
Socialement, la mise au point de ce système sera d’une très grande importance. Cela dans plusieurs axes dont principalement :
Pour les chercheurs, car il pourra faciliter le survol rapide des connaissances provenant SYNTHESE AUTOMATIQUE DES TEXTES
des filières liées à leurs domaines, sans être obligés de consulter à l’avance un tas de documents issus de ces domaines connexes;
Pour tout le monde alors, le système pourra permettre un gain de temps considérable chaque fois qu’il donnera la possibilité d’avoir accès à une synthèse de bonne qualité à la demande, en très peu de temps.
0.6 Objectifs de la recherche
Objectif général
Cette recherche a pour objectif principal de concevoir et réaliser un système (une application web) qui facilitera la génération automatique des synthèses de niveau humain.
Objectifs spécifiques
Pour arriver à bout de notre projet nous comptons :
Évaluer les failles et limites des techniques de synthèse automatique existantes;
Corriger les failles ou compléter les techniques de synthèse automatique existantes; • Établir des architectures logiques optimales pour obtenir des synthèses de qualité;
Élaborer une interface de programmation d’applications devant faciliter l’accès au service de synthèse automatique;
Mettre au point une base de données pour stocker les synthèses les mieux cotées par les usagers, en prévision d’une amélioration future du système;
Réaliser une interface web de qualité pour permettre l’accès au service par divers utilisateurs.
0.7. MÉTHODOLOGIE DE RECHERCHE ET DÉLIMITATION DU TRAVAIL
Méthodologie de recherche et délimitation du travail
Pour la mise au point du système, nous comptons utiliser les méthodes d’analyse moyennant les techniques expérimentale (pour vérifier l’adéquation du fonctionnement de l’application mise sur pied avec le problème posé), et documentaire (pour une vision approfondie des techniques couramment utilisées et d’éventuelles améliorations nécessaires).
Ce travail se focalisera sur la synthèse des documents du type informationnel (livres historiques, discours, articles de presse, lettres, nouvelles, romans et tout autre type de document ayant une faible densité d’expressions mathématiques) et il s’agira d’une synthèse mono-document.
Subdivision du travail
Excepté l’introduction et la conclusion générales, ce travail sera ainsi constitué :
Au premier chapitre, Généralités sur le traitement automatique du langage naturel, nous passerons en revu toute la théorie nécessaire à la compréhension de notre travail.
Au second chapitre, Présentation du résumé automatique et conception de l’architecture du système, nous y présenterons les aspects du résumé automatique essentiels à notre travail et y concevrons pas à pas le système de synthèse automatique des textes dans tous ses aspects (pas uniquement le côté synthèse).
Au troisième chapitre : Conception finale, réalisation et tests, nous y finaliserons la conception et expliquerons les points importants de l’implémentation en nous basant sur la conception faite, puis nous présenterons les résultats des tests que nous aurons effectué.
Chapitre I
Généralitéssurletraitementautomatique du langage naturel
Introduction partielle
Dans ce chapitre, nous allons présenter brièvement le traitement automatique du langage naturel, ainsi que les techniques de traitement qui seront utiles pour la réalisation de l’objectif principal de ce travail. Nous allons donc y présenter une vue d’ensemble des architectures généralement utilisées, en nous focalisant essentiellement sur l’aspect intelligence artificielle du NLP (Natural Language Processing).
Dans un premier temps, nous y présentons quelques techniques, souvent incontournables lorsqu’on veut réaliser une tâche de traitement du langage. Après cela, nous parcourons divers modèles qui nous permettrons d’aborder le modèle le plus adapté à la tâche de synthèse automatique des textes, qui est l’objectif de ce travail.
Présentation et définitions
Le NLP est une discipline rattachée à l’intelligence artificielle et ayant pour principal objectif, l’étude des possibilités du traitement du langage humain par des machines. La raison pour laquelle la discipline s’inscrit comme faisant partie du domaine d’intelligence artificielle est que le langage est considéré comme étant une aptitude centrale de l’intelligence humaine, étant donné que l’usage d’un langage si complexe est l’un des éléments distinctifs principaux entre humains et autres animaux.
Le NLP inclut l’ensemble d’algorithmes, des tâches et des problèmes prenant en entrée
6
I.2. PRÉSENTATION ET DÉFINITIONS
des textes produits par des humains, pour finalement ressortir des informations pertinentes à propos de ces derniers ou alors du texte modifié de façon approprié selon l’objectif poursuivi. C’est ainsi que des tâches comme la traduction automatique, la génération automatique des textes ou aussi la synthèse automatique qui va nous intéresser dans ce travail, produisent directement du texte en sortie.
Mais, dans tous les cas, la sortie est soit immédiatement utilisable, soit alors elle est prise comme entrée d’un autre système dans la chaîne de traitement du texte.
On peut toutefois se demander la raison pour laquelle on parle de traitement automatique du "langage naturel" (quitte à se demander ce qui distinguerait un langage naturel des autres langages).
Pour établir clairement cette différence, il est nécessaire de donner une définition de ce qu’est un langage formel. Pour caricaturer, un langage formel est celui pour lequel il existe un mécanisme fini, et explicite, permettant d’en faire une analyse, quand bien même il serait constitué d’un nombre infini de mots. Donc, c’est un ensemble de mots analysable par un automate (au sens mathématique du terme) [9].
On peut donc comprendre directement que le mot "naturel" est ici utilisé pour faire une distinction avec les langages formels. C’est donc dans ce sens que toutes les langues parlées peuvent être vues comme des langages naturels. Les langages formels ont une syntaxe précise et sont spécifiquement conçus pour des objectifs bien cernés (penser à tous les langages de programmation par exemple). Ils sont donc très précis tant au point de vu grammatical que sémantique.
Concernant les langues humaines usuellement utilisées, on ne peut pas dire, sans être démenti, qu’elles sont dénuées d’imprécisions. Elles regorgent en générale une grande richesse, ce qui a pour conséquence d’introduire très souvent une grande ambiguïté. Pour s’en convaincre, il suffirait par exemple de considérer la phrase suivante :
Je le vois avec mes jumelles.
Très vite on remarque que cette phrase peut s’interpréter selon le contexte. On ne sait pas, en effet, si le sujet affirme voir quelqu’un avec ses jumelles d’observation, se promenant avec ses enfants jumelles, ou si le sujet voit quelque chose en utilisant ses jumelles en tant qu’instrument.
Ceci n’est qu’un exemple particulier pour illustrer cette dichotomie inhérente à l’emploi de la langue quelle qu’elle soit, mais cela suffit pour qu’on s’aperçoive que le problème est bel et bien réel.
Ce n’est d’ailleurs pas juste au niveau des interprétations qu’on peut identifier ce problème. Il s’observe même quand on considère les règles de grammaire. Certaines règles sont ainsi admises par certains linguistes mais rejetées ou trouvées superflues par d’autres [20].
C’est tout ce qui précède qui rend le langage humain à la fois riche et challengeant quand il s’agit de doter les machines de cette aptitude. D’où la raison d’être d’une discipline à part entière dédiée à la mise au point des règles de traitement du langage naturel, le NLP
[17].
I.3 Nécessité de l’approche par deep learning
Avant l’avènement du deep learning, des techniques traditionnelles du NLP étaient utilisées pour des tâches comme la détection des spams, l’analyse des sentiments et le POS (Part Of Speech tagging). Ces approches utilisaient essentiellement des caractéristiques statistiques des séquences comme, la fréquence des mots et les co-occurences par exemple. Néanmoins, le principal désavantage de ces techniques était qu’elles ne parvenaient pas à capturer une grande partie de la complexité linguistique du langage humain, comme par exemple le contexte.
Ainsi, les développements, récents d’ailleurs, des réseaux de neurone et du deep learning ont donné des nouveaux outils, pour approcher dans une large mesure les performances humaines en terme de traitement de langage. A notre avis, ces techniques sont les plus adaptées car, tout d’abord elles se rapprochent beaucoup plus des méthodes de traitement d’information par le cerveau humain, et ensuite, il serait autrement très couteux, voir impossible, d’élaborer des modèles capables d’embrasser toute la complexité du langage humain.
Le deep learning pour le NLP est axé grosso-modo sur la représentation d’entités textu-
I.4. QUELQUES TECHNIQUES COURANTES DE TRAITEMENT DES TEXTES
elles et le traitement élaboré sur ces représentations, de manière à en tirer des informations pertinentes ou à réaliser des transformations appropriées. Cette représentation constitue d’ailleurs un problème fondamental car c’est d’elle que dépend toute la chaîne de traitement des systèmes de NLP [46].
I.4 Quelquestechniquescourantesdetraitementdestextes
Dans cette partie, nous allons présenter diverses techniques intervenant dans le traitement des données de langage naturel. Ces traitements seront présentés de manière à dégager un pattern presque récurrent en terme de structure de traitement pour divers systèmes de NLP. Pour cela, nous allons d’abord présenter certaines manipulations réalisées sur les données en guise de pré-traitement. Puis, nous évoquerons deux techniques utiles aux tâches relevant du NLU (Natural Language Understanding).
I.4.1 La tokenisation (tokenization)
Manipuler des longues chaînes de caractères ne serait pas envisageable. Mais en informatique on est habitué à traiter des structures en terme de listes, de tableaux, de vecteurs,... Le tout étant représenté numériquement. C’est pour cela que l’opération consistant à réduire un corpus de texte en ses tokens est centrale.
Dans notre contexte, la tokenisation est une opération qui consiste à décomposer un texte
(une suite de phrases) en ses phrases constitutives ou une phrase en ses mots constitutifs. Cela est une première étape pour diminuer la difficulté inhérente au traitement des textes. En considérant la décomposition en mots, pour diminuer au maximum les difficultés de traitement et l’ambiguïté, on ajoute à la tokenisation d’autres traitements qui sont en général : la désaccentuation, le passage aux minuscules, la suppression des stopwords, la racinisation et la lemmatisation appliqués aux tokens obtenus [22].
I.4.2 Les stopwords[44]
Les stopwords sont, pour une langue donnée, des mots qui permettent de réaliser des phrases correctes mais qui n’apportent pas directement d’information significative sur l’ensemble (du point de vu traitement). Il s’agit par exemple en français de mots comme de, la, le,... ce qui correspond en gros aux prépositions, aux articles, aux conjonctions,... Il faut néanmoins préciser qu’on peut très bien décider de ne pas supprimer certains stopwords.
I.4.3 La racinisation (stemming)
La racinisation ou stemming en anglais consiste à découper le token de manière à n’en conserver qu’une partie qui semble rendre mieux compte de ce dont dérive ledit token. Seulement, ceci est fait sans se fier à ce que le résultat obtenu en tant que racine fasse partie du dictionnaire de la langue considérée [44, 22].
Cela permet juste de maximiser la probabilité de confondre des mots semblables qui sont présentés différemment dans diverses phrases. C’est à des fins de comparaison de phrases et de réduction d’ambiguïté. Pour illustration, on voudrait par exemple que si on retrouve les éléments "manger", "mange", "mangeable", "mangeons" dans un corpus, qu’ils soient transformés en un seul terme "mange". Cela se fait en découpant tous les mots qui ajoutent
d’autres affixes au terme. C’est cela en bref le stemming et, contrairement à ce que le nom suggère, il ne s’agit pas exactement de trouver la racine des mots (les mots dont ils dérivent). L’opération consiste essentiellement à réaliser un découpage des mots de manière à en supprimer les affixes.
I.4.4 La lemmatisation (lemmatization)
La lemmatisation quant à elle est une opération plus soignée mais plus coûteuse en terme d’implémentation [44, 22]. Elle réalise en fait ce qui n’est pas réalisé par le stemming en ce sens que lemmatiser un token consiste à la transformer en sa racine, et cette dernière doit être présente dans le dictionnaire. Par exemple, pour un mot au pluriel, il s’agira de le remplacer par son singulier, un verbe conjugué, par son infinitif,... Pour illustration, la
I.4. QUELQUES TECHNIQUES COURANTES DE TRAITEMENT DES TEXTES
lemmatisation consisterait à transformer par exemple "va", "allions", "irons" et "allé" par "aller" et "une" et "des" par "un". Cette tâche est grandement facilitée par des techniques de deep learning.
L’obtention des tokens peut également conduire à des tâches plus élaborées comme la détection des entités nommées et l’étiquetage morpho-syntaxique. Il s’agit des tâches très importantes que nous devons nécessairement mentionner.
I.4.5 Reconnaissance d’entités nommées (NER)[44]
La détection des entités nommées (Named Entity Recognition ou NER) consiste à repérer tout ce qui correspond à des noms de personnes, des noms d’organisations ou d’entreprises, des noms de lieux, des quantités, des distances, des valeurs, des dates ou tout autre élément qui constitue une nomination d’une entité existante précise dans un texte donné. Cette tâche est visiblement très importante dans la phase d’interprétation des données textuelles et il s’agit d’un simple problème de classification.
I.4.6 L’étiquetage morpho-syntaxique (POS tagging)
Le Part-Of-Speech tagging est une tâche consistant en gros, à associer aux éléments des textes, des informations grammaticales. En général, il s’agit d’associer aux termes des textes, leur nature grammaticale. Cela consisterait à dire que tel élément est un nom, tel autre un verbe,...[44, 22]
Cette tâche n’est pas une fin en soi. En effet, c’est une première étape dans l’analyse structurelle des textes, permettant de déduire diverses dépendances du point de vu linguistique. Elle est fortement facilitée par des approches basées sur le deep learning comme c’est le cas aussi pour la reconnaissance d’entités nommées.
Nous allons passer sous silence certains autres concepts du NLP comme le sacs de mots et le word embeddings dont nous parlerons dans la partie qui va suivre et qui présentera le résumé automatique, en tant que tâche du NLP.
I.5 Approches du NLP
Comme cela a été maintes fois mentionné, deux approches majeures sont d’usage pour traiter automatiquement les données de langage naturel. Il s’agit de l’approche numérique et de l’approche symbolique ou linguistique. Mais les deux approches sont dans la majorité des cas complétées par certaines heuristiques [31].
En ce qui nous concerne, l’approche sera essentiellement numérique avec un penchant prononcé pour les techniques du deep learning. D’ailleurs, concernant ces dernières techniques, les modèles de l’état de l’art les plus adaptés sont les transformers et leur présentation exige une revue chronologique car en effet, pour y arriver, des modèles classiques basés sur des réseaux de neurones récurrents (RNN) ont été utilisés car plus adaptés aux données séquentielles que sont les textes. Ensuite, le constat de leur mémoire limitée a fait à ce qu’on les modifie pour obtenir des unités à mémoire plus large dont les LSTM(Long Short-Term Memory) et les GRU(Gated Recurrent Unit). Furent ensuite introduits les mécanismes d’attention qui améliorèrent les techniques, aboutissant finalement aux modèles dits transformers, plus adaptés à des tâches de NLP élaborées.
I.5.1 Les réseaux de neurones artificiels (ANN)
Les réseaux de neurones artificiels (Artificial Neural Network ou ANN) sont un ensemble de neurones (artificiels) assemblés pour résoudre des tâches considérées comme requérant une certaine intelligence. Le neurone artificiel est un algorithme élaboré en s’inspirant du modèle théorique simplifié d’un neurone naturel. Il s’agit essentiellement d’une fonction d’agrégation ayant pour rôle de réaliser une somme pondérée des entrées qui lui sont présentées et d’une fonction d’activation qui formate la sortie de la fonction d’agrégation selon les valeurs attendues en sortie [12].
Les neurones sont généralement assemblés par couche comme présenté sur la figure qui suit :
Figure I.1: Réseau de neurones à une couche cachée et sans boucle [47]
Ce qui vient d’être présenté est suffisant pour avoir une idée globale de ce qu’est réellement un réseau de neurones artificiel. Néanmoins, nous pousserons plus loin pour toucher le plus vite possible aux modèles qui nous intéressent dans ce travail.
I.5.2 Les réseaux de neurones récurrents (RNN)
Un RNN(Recurrent Neural Network) est un type de réseaux de neurones conçu en principe pour traiter les données séquentielles, comme les données textuelles,...
La principale différence structurelle entre les ANN simples et les RNN est l’existence des connexions de récurrence dans ces derniers. Il s’agit des boucles permettant la prise en compte des sorties passées dans le traitement final des données [16].
Pour l’illustrer, rien de mieux qu’une image représentant la structure fonctionnelle des réseaux de neurones récurrents :
Figure I.2: Illustration de ce qu’est un RNN [22]
Où xi, hi et A représentent respectivement les entrées (à chaque pas temporel i), les états internes qui en résultent et le module récurent utilisé.
Pour une meilleure compréhension, une présentation formelle serait plus commode : Soient Wx la matrice des poids associée au vecteur d’entrée x, Wy une matrice associée au vecteur de sortie y et Wh celle associée au vecteur représentant les états cachés du réseau, avec bh et by respectivement les vecteurs des biais des neurones pour l’état caché et pour la sortie. Si on nomme aussi par yt la sortie du réseau à un instant donné t, on aura [15] :
ht
yt
= fact (Wxxt +Whht−1 +bh)
= gact Wyht +by
(I.1)
On voit très bien que la sortie du système dépend non seulement de l’entrée, mais aussi de l’état du système (h).
Les fonctions d’activation fact et gact qui sont mentionnées dans les équations I.1 représentent respectivement la tangente hyperbolique tanh et la fonction dite sof tmax [15].
L’entraînement des réseaux de neurones récurrents se fait de la même façon que pour les réseaux de neurones simples (avec uniquement une différence due au fait que pour le RNN on prend en compte le temps). On n’entrera pas dans le détail, vu que ce n’est pas exactement le sujet du travail mais, pour entamer la partie qui suit, il nous faut préciser que, comme pour les réseaux de neurones simples, l’entraînement exige d’appliquer une fonction de différentiation sur l’erreur produite par le système. Il s’agit de la fonction gradient. Mais, comme ici le gradient tient compte des grandeurs précédentes dans le temps, il y a un certain nombre de termes multiplicatifs qui peuvent amener le modèle à ne jamais converger ou au contraire, à la saturation. C’est le problème classique d’évanouissement (disparition) des gradients ou d’explosion des gradients [15].
En réponse au problème de disparition des gradients, les cellules LSTM (Long Short-Term Memory) sont utilisées en lieu et place des cellules RNN normales.
Les cellules LSTM
Les cellules LSTM (pour Long Short-Term Memory) sont utilisées en lieu et place des cellules RNN classiques (dites vanilla) pour permettre au réseau de traiter des séquences de plus en plus longues sans perte rapide d’information [16]. Pour cela, des éléments de contrôle de la mémoire de la cellule sont ajoutés. Pour illustrer nos propos, voici une image qui nous permettra de différencier une cellule RNN classique d’une cellule LSTM :
Figure I.3: Comparaison entre cellules RNN classique et LSTM [18]
Présentée comme cela, la cellule LSTM semble superflue mais si on présentait les équations associées à un réseau fait de ces cellules, on se rendra compte que c’est plutôt intuitif. Pour aborder les équations associées, considérons l’image suivante :
Figure I.4: Vue fonctionnelle d’une cellule LSTM [18]
Une cellule LSTM se comprend en la considérant comme constituée d’un ensemble de portes avec des fonctions bien particulières. Il s’agit d’une porte d’entrée, une porte d’oubli et une porte de sortie.
Il est évident que, pour chacune de ces portes que nous nommerons, à un instant t donné par It, Ft et Ot, le système doit apprendre ses paramètres en fonction de l’entrée et de l’état interne. Mais on doit aussi remarquer que, l’état est défini par deux paramètres au lieu d’un seul comme pour les RNN simples. Il s’agit, à un instant t donné, de ht (considéré comme état à court terme) et de ct (qui est un état à long terme mais dont le contenu est contrôlé, au vu de l’architecture de la cellule).
De ce que nous venons de dire, nous pouvons conclure que Ft, It et Ot sont des fonctions de Xt et de ht−1 aux poids près. On sait aussi que, si on veut une mémoire à long terme contrôlée, la valeur finale de ct doit être mise à jour en repérant ce qui doit être oublié parmi les éléments qui étaient précédemment dans la mémoire, pour y ajouter ensuite ce qui est sélectionné comme pertinent à l’entrée. Cela revient à utiliser Ft et It comme des portes de contrôle (ou de sélection). Et de cela on peut conclure que c’est plus intéressant d’avoir Ft et It qui prennent des valeurs entre 0 et 1 (pour modéliser la sélection) et ct devra dépendre de ces deux éléments, avec aussi l’état précédent de la mémoire à long terme.
Il est aussi vraisemblable que, l’état à court terme doit provenir de la mémoire à long terme (ça correspondra à une sélection de ce qui doit être pris en compte directement dans la mémoire à long terme). Cet état ht doit par conséquent dépendre de ct (il faut néanmoins noter qu’une autre approche serait possible ici, mais celle-ci est déjà pertinente). Finalement, on sait que la sortie finale doit nécessairement dépendre de l’état interne de la cellule. Il va ici s’agir de ht vu que la cellule est développée par analogie avec le processus de mémorisation des systèmes naturels (mémoire à court terme correspondant à la mémoire de travail).
De ce qu’on vient de dire on peut tirer que, fondamentalement on doit avoir :
F
t
I t
O
t
c t
h t
y t
= F (Xt,ht−1) = G(Xt,ht−1) = J (Xt,ht−1)
= K(ct−1,Xt,ht−1)
= L(ct)
= M(ht)
(I.2)
Avec F ,G,J ,K,L,M des fonctions dépendant des coefficients considérés (poids et/ou éléments de sélection qui sont les diverses portes définies).
Une implémentation classique de ce raisonnement se présente comme suit [16, 15] :
F
t
I t
O
t
c t
h t
y t
= σ Wf xXt +Wf hht−1 +bf
= σ WixXt +Wf iht−1 +bi
= σ (WoxXt +Wohht−1 +bo)
= Ft ◦ct−1 +It ◦tanh(WcxXt +Wchht−1 +bc)
= Ot ◦tanh(ct)
= Wyhht +by
(I.3)
Il faut remarquer qu’on a utilisé la fonction sigmoïde σ pour restreindre les valeurs des sélecteurs (portes) entre 0 et 1, puis on a utilisé le produit de Hadamard (produit terme à terme des matrices) pour réaliser effectivement la sélection grâce aux portes, en diminuant les termes dont les valeurs correspondantes des portes sont proches de 0 et en essayant de conserver ceux dont les valeurs correspondantes des portes sont proches de 1.
Cette implémentation peut être modifiée, surtout en ce qui concerne les fonctions d’activation utilisées (σ et tanh), et en particulier la fonction d’activation de finalisation tanh ici, mais c’est l’une des plus optimales.
Le seul problème qui demeure est que le nombre de termes à apprendre est très grand. Cela a fait à ce qu’on puisse essayer de le diminuer en implémentant le GRU (Gated Recurrent Unit) poussant un peu plus loin l’abstraction des portes pour diminuer le nombre de paramètres.
Les cellules GRU
Les cellules GRU (Gated Recurrent Unit) sont une autre implémentation des cellules des réseaux de neurones récurrents comme les LSTM à la différence près que, bien que partant de la même idée fondamentale évoquée précédemment, les GRU apparaissent comme une simplification des LSTM.
Elles possèdent néanmoins des performances comparables en ce qui concerne la prédiction des séries temporelles,... Les simplifications sont réalisées au niveau des états cachés et des portes. On conserve un seul état caché h (quitte à le contrôler à l’interne pour implémenter la mémorisation à long terme et à court terme). Et pour les portes, on fusionne les portes de sélection des entrées avec celle des éléments à oublier (donc les portes I et F) pour former une porte dite de mise à jour (porte qui sera appelée update ou U). La porte de sélection des éléments de sortie quant à elle, est transformée en porte de réinitialisation.
Ces deux portes (de mise à jour et de réinitialisation) sont en fait implémentées de façon identique que celles des cellules LSTM. La particularité des GRU se situe principalement au niveau de la gestion de la mémoire (l’implémentation du processus de mémorisation) car, ayant supprimé la distinction long-terme/court-terme, il fallait bien trouver un mécanisme devant permettre de bien gérer les deux aspects de la mémoire avec un seul état interne conservé.
C’est ainsi que, la porte de mise à jour (porte U) est introduite dans le calcul de l’état h pour assurer la sélection du type de mise à jour à effectuer. Il s’agit de faire en sorte que, selon l’état interne et l’entrée, tout l’état interne précédent soit considéré mais que certains éléments soient complètement modifiés, selon le besoin, et d’autres presque conservés.
Ainsi donc, h devient une combinaison d’éléments provenant de l’état interne précédent avec ceux provenant des nouveaux calculs effectués par la cellule (en fonction de l’entrée et de l’état interne précédent). Le comportement est alors le suivant :
Quand le vecteur de mise à jour a un terme proche de 1, cet état interne est presque conservé. Par conséquent, sa mise à jour est presque ignorée. Quand c’est plutôt 0, l’état interne précédent est presque ignorée et une mise à jour complète de cet état est effectuée.
La formulation mathématique permet de mieux en saisir le fonctionnement [16, 15] :
U
t
R
t
h t
y t
= σ (WuxXt +Wuhht−1 +bu)
= σ (WrxXt +Wriht−1 +br)
= Ut ◦ht−1 +(1−Ut)◦tanh(WhxXt +Whr (Rtht−1)+bc)
= Wyhht +by
(I.4)
Et pour illustration, on peut considérer l’image suivante :
Figure I.5: Cellule GRU [18]
Il faut noter que sur cette image (figure I.5), l’implémentation de la mise à jour est l’inverse de celle que nous avons décrit par les équations I.4. C’est-à-dire que les termes Ut et (1−Ut) sont permutés. Mais aussi, ici Zt représente Ut.
Ces modèles fonctionnent très bien et certaines implémentations permettent d’améliorer encore leurs performances. Ils sont néanmoins lents à entraîner, surtout à cause de l’aspect temporel. Parmi les techniques d’amélioration des performances, une peut être considérée car elle a un rapport direct avec notre travail. Il s’agit des mécanismes d’attention [3].
I.5.3 Mécanismes d’attention
Les mécanismes d’attention sont en bref des techniques permettant de lutter contre la perte de mémoire qu’on constate par exemple dans les cellules récurrentes ci-haut décrites, en se focalisant sur des éléments les plus importants à chaque traitement. Le travail consiste donc à repérer, pour chaque entrée, les éléments sur lesquels se focaliser.
C’est là qu’interviennent donc ces mécanismes.
L’une des implémentations les plus commodes est l’attention globale [30].
Pour l’expliquer, nous allons considérer une architecture jusque là passée sous silence, mais qui permet aux modèles introduits là haut de s’utiliser efficacement pour les tâches courantes du NLP en particulier. Il s’agit des modèles dits encodeur-décodeur.
En effet, lorsqu’on a un modèle à séquence fonctionnel, les objectifs peuvent être multiples. On peut vouloir :
1°) fournir une série d’éléments en entrée et ressortir une autre série (utile pour la prédiction de la valeur des actions par exemple,... );
2°) fournir un série en entrée mais faire ressortir un seul élément ou vecteur (utile pour la classification des textes, l’analyse des sentiments,...);
3°) fournir un vecteur plusieurs fois en entrée et produire une série (pour la génération des légendes pour des images par exemple,...);
4°) on peut aussi avoir un réseau série-vers-vecteur, appelé encodeur, suivi d’un réseau vecteur-vers-série, appelé décodeur (très utile pour la traduction et la synthèse automatique par exemple,...). Il s’agit du modèle encodeur-décodeur.
Une illustration par image sera suffisante :
Figure I.6: Réseaux série-vers-série (en haut à gauche), série-vers-vecteur (en haut à
droite), vecteur-vers-série (en bas à gauche) et encodeur-décodeur (en bas à droite) [16]
.
L’élément (le vecteur d’état) passé entre l’encodeur et le décodeur est dit vecteur de contexte. Il représente en quelques sortes un condensé des informations passés à l’entrée de l’encodeur. Toutefois, plus la séquence d’entrée est longue, plus le risque que la mémoire de certaines séquences puisse s’étioler devient grand. Ainsi, si par exemple on est entrain de vouloir traduire une longue phrase, on peut finir par transmettre un vecteur de contexte qui a perdu toute information sur les premiers éléments de la séquence passée en entrée. C’est pour cela qu’au lieu de passer un vecteur de contexte général, les mécanismes d’attention permettraient ici de ne se focaliser que sur certaines informations lors du traitement d’un élément particulier de la séquence (en ayant évidemment passé tous les états internes passés au décodeur). Pour le réaliser concrètement, le mécanisme d’attention global consiste à formater le vecteur de contexte en fonction des éléments de l’encodeur à prendre en compte lors du traitement par le décodeur.
Considérons que Ω, dont les termes sont représentés par wij, est la matrice des poids d’attention normalisés par une fonction softmax pour chaque ligne. Et que Π, dont les termes sont représentés par αij, est la matrice des poids d’attention générée par le mécanismes avant normalisation.Si les éléments ci représentent à chaque fois le vecteur contexte final à l’étape i de décodage et les hj sont les vecteurs d’état interne de l’encodeur, l’attention globale revient à réaliser la manipulation suivante, pour formater le vecteur de contexte à prendre en compte pour l’élément en cours de traitement [30] :
wij = sof tmax(αij) = Pekαeijαik (I.5)
ci = Pj wijhj
La dernière relation du système I.5 revient à réaliser une somme pondérée des vecteurs d’état internes passés de l’encodeur, selon l’importance de chaque état pour le traitement en cours. De ces équations il faut aussi remarquer que la notation des sommations n’est pas rigoureuse. Cela est volontaire car c’est intuitif (on réalise des sommations sur tous les éléments).
Plusieurs techniques arrivant à réaliser l’attention existent. En général, comme on peut d’ailleurs le déduire des relations de l’attention globale, ces mécanismes étaient utilisés dans le cadre des réseaux récurrents. Une question s’est toutefois naturellement posée : ne pourrait-on pas se passer des RNN pour mettre au point des réseaux complètement basés sur l’attention ?. La réponse est oui, avec des ajustements adéquats pour résoudre les faiblesses des modèles classiques dans le traitement des données séquentielles. C’est cela qui a conduit aux modèles dits transformers [50].
I.5.4 Les transformers
Il s’agit des modèles dont l’architecture générique se présente comme suit :
Figure I.7: Architecture générique des transformers [50]
Les transformers sont des modèles du type encodeur-décodeur comme on peut le constater sur la figure ci-dessus (bien que certaines implémentations n’en utilisent qu’une partie selon la tâche). Ils sont essentiellement basé sur les mécanismes d’attention, se passant de la récurrence [16, 15].
Nous donnerons une explication succincte de chacun des modules présents dans l’image I.7. En effet, présentons les modules selon l’ordre dans lequel les données traversent le modèle :
1°) Moduled’embedding : Nous savons que les données textuelles doivent être présentées au modèle sous forme numérique. Elles doivent donc être transformées avant de les passer aux parties suivantes. Néanmoins, vu que la représentation des entrées a
un impact significatif sur les performances d’un modèle, cette représentation doit être bien choisie. Un choix intuitif, et qui s’avère être performant, est de tout faire pour que si deux termes ont des sens proches, ils aient aussi des représentations vectorielles proches. Cela est réalisé par différentes techniques que nous présenterons dans le chapitre suivant, mais c’est là le rôle de la couche d’enchâssement (embedding).
2°) L’encodage positionnel (positionnal encoding) : Ce module ajoute l’information sur la position relative de chacun des éléments placés en entrée par rapport aux autres. Cela pallie au problème de perte d’information sur la position des mots quand on utilise un réseau non séquentiel comme les réseaux récurrents. Donc, la position de chaque terme de la séquence placée en entrée est encodée dans un vecteur puis ajoutée à l’encodage global du terme. L’un des encodages les plus utilisés est celui basé sur les fonctions trigonométriques tel qu’introduit dans [50].
3°) Module d’auto-attention : La couche d’attention, présentée en première position dans la boîte de l’encodeur, est en fait une couche dite de self-attention car elle opère sur la même séquence d’entrée. L’opération est réalisée pour permettre au modèle d’avoir une représentation de l’importance des termes dans la séquence d’entrée, les uns par rapport aux autres.
Pour illustration, considérons la phrase suivante : Walter est malade, il préfère se reposer.
Dans cette phrase, l’un des constats qu’on peut faire est que, le nom "Walter" est beaucoup plus lié au pronom "il" qu’au verbe "préférer". C’est à l’établissement des tels liens dans les représentations que sert le module d’auto-attention ici présenté. Il est important que ce lien soit implicitement présent dans les représentations, pour que le traitement soit efficace comme on l’a mentionné lors de la présentation des mécanismes d’attention. Donc cette couche est en fait un prolongement de celle d’embedding. Ici, le mécanisme d’attention utilisé est différent de celui qui a été présenté là-haut (attention globale). Il s’agit ici d’un mécanisme plutôt basé sur le produit scalaire mis à l’échelle (scaled dot-product). En effet, très brièvement, l’idée du scaled dot-product attention consiste à opérer une recherche des termes sur lesquels focaliser l’attention de la même façon qu’on réalise la recherche de la signification d’un mot dans un dictionnaire. Supposons qu’on veuille avoir la signification d’un mot dont on ne connaît pas l’orthographe exacte. Pour retrouver ce dernier dans un dictionnaire, il suffit de rechercher le mot qui ressemble le plus à l’orthographe que nous estimons être la plus vraisemblable. Mathématiquement, cette recherche de similitude correspond à un produit scalaire.
Similairement, le scaled dot-product consiste à générer trois éléments qui sont la clé ou key k, la valeur ou value v et la requête ou query q. La requête correspond au mot
qu’on cherche (orthographié selon ce que nous pensons), la clé correspond au mot présent dans le dictionnaire et la valeur correspond à la signification associée. Si on supposait qu’il existe plusieurs termes du dictionnaire qui s’orthographient presque de la même façon que le mot qu’on cherche, on devra passer par une mesure de similarité avant de se décider sur le sens le plus probable. Cela correspond à réaliser le produit de tous les k par les q présents, puis à normaliser l’ensemble des résultats de manière à ce qu’ils représentent des mesures de probabilité, et finir par choisir le sens v le plus probable.
Pour aller plus vite, on implémente ce processus en considérant tous les k, q et v au même moment de manière à réaliser le calcul une fois pour toutes. Cela revient à regrouper tous les k, q et v dans des matrices K, Q et V . Ce qui donne la relation qui définit l’attention par produit scalaire mis à l’échelle [50] :
Q ·KT
Attention(Q,K,V ) = sof tmax p ·V (I.6) dk
Dans cette relation, expression I.6, le terme pdk permet de mettre à l’échelle le résultat du produit scalaire de Q par K, c’est-à-dire Q·KT . Il faut noter que dk est la dimension d’une clé, et que cette normalisation permet d’améliorer les performances du modèle mais elle n’est pas la seule envisageable.
Il est aussi important de remarquer que la couche d’attention utilise trois termes pour arriver à bout du problème. Ces trois termes sont obtenus par une transformation linéaire dont les poids sont appris à travers un réseau de neurones simple.
Il faut aussi noter que l’on utilise parallèlement plusieurs modules d’attention pour capture toutes les caractéristiques des séquences (on parle de multi-head attention). Pour une plus ample illustration, voir la figure I.8.
4°) Le module feed-forward : Il s’agit en fait d’un réseau de neurones de propagation avant classique (réseau à couches ajoutées de façon séquentielle). Il permet de réaliser le traitement qui fait suite à l’attention.
5°) Couche d’attention encodeur-décodeur : Il s’agit de la couche qui reçoit les données en provenance de l’encodeur. Il s’agit ici d’une couche d’attention et non d’autoattention comme c’était le cas pour la première couche de l’encodeur. En effet, contrairement à la couche de self-attention, pour laquelle tous les trois paramètres sont calculés à partir de la même séquence, la couche d’attention ici prend les clés K et valeurs V provenant de l’encodeur mais une requête Q provenant du décodeur.
Une autre couche feed-forward suit celle-ci et a le même rôle que celle de l’encodeur.
6°) Module d’attention masquée : Il s’agit de la première couche du décodeur. C’est aussi un module de self-attention auquel on ajoute le masquage. Ce module est dit masqué suite au fait que, comme le décodeur est un module de génération, on ne regarde que les termes précédemment générés, en masquant les termes qui seront probablement générés aux pas d’après. Cela est réalisé en rendant juste leurs probabilités nulles.
7°) Module linéaire final : Il s’agit d’un réseau de neurones classique pour réaliser la déduction finale, le tout étant passé à la fin à travers une opération softmax qui permet de transformer les résultats en probabilité d’éléments générés (cela permet de choisir le terme le plus vraisemblable à générer comme sortie).
Cette explication simplifiée se comprend mieux si on y joint la vue éclatée suivante :
I.6. CONCLUSION PARTIELLE
Figure I.8: Vue éclatée d’un transformer [51]
Les transformers, ici succinctement présentés, sont un modèle très adapté aux tâches de traitement automatique du langage naturel. C’est un modèle incontournable vu aussi que ses traitements peuvent être facilement parallélisés. Cela est rendu possible par le fait que l’architecture des transformers est parallèle par essence.
I.6 Conclusion partielle
Nous venons de réaliser une vue d’ensemble du domaine de traitement automatique du langage naturel, ainsi que diverses techniques couramment utilisées. Pour cela, nous avons tout d’abord justifié la préséance des modèles basés sur le deep learning pour diverses tâches du NLP.
Ensuite, nous avons évoqué les technique de pré-traitement des textes, souvent incontournables, comme la réduction des séquences en leurs tokens constitutifs, la suppression des mots fréquents mais n’apportant pas assez d’informations et la réduction des mots en leurs racines respectives. Nous y avons aussi joint quelques techniques utiles à la compréhension du langage humain comme le POS tagging et la reconnaissance d’entités nommées. Ce qui précède nous a finalement conduit à présenter les modèles courants du NLP basés sur les RNNs et, nous avons terminé par la présentation de l’architecture transformer, modèle que nous utiliserons pour ce travail (les précisions sur les modèles particuliers seront données au chapitre suivant).
Les transformers constituent un type de modèle qui s’avère être le plus adapté (pour le moment) au résumé automatique du texte et, dans le chapitre suivant, nous commencerons par présenter les diverses spécificités du résumé automatique comme tâche du NLP, pour finir par présenter l’architecture globale du système que nous comptons élaborer.
Chapitre II
Présentation du résumé automatique et conception du système
II.1 Introduction partielle
Le résumé automatique étant le sujet principal de ce mémoire, dans cette partie nous le présentons alors en détail en tant que discipline et tâche du NLP. Nous allons ici présenter les théories sur la synthèse automatique des textes, en classifiant les diverses méthodes utilisées pour pouvoir situer notre système dans l’ensemble des travaux jusque-là menés sur ce sujet.
Ensuite, nous présenterons les diverses approches utilisées pour le résumé automatique, sans oublier d’approfondir notre présentation des modèles de type transformer adaptés à cette tâche, pour finalement mentionner le modèle que nous estimons le plus adapté concernant l’approche basée sur le deep-learning pour la synthèse automatique. Enfin, nous allons réaliser une conception rapide mais suffisante de l’architecture globale de notre système, tout en précisant le rôle et le fonctionnement de chaque partie.
II.2 Présentation et définitions
Selon Le Petit Robert, résumer c’est reprendre en plus court un discours, le présenter brièvement en conservant l’essentiel. En d’autres termes, c’est l’abréger, l’écourter, le réduire. De même, en tant qu’exercice intellectuel, le résumé, consiste à réduire un texte tout en lui restant fidèle. Il exige donc de restituer les idées en un nombre déterminé de mots, en évitant au mieux de recopier le texte à résumer. Il faut alors composer un texte
29
plus court qui contienne l’essentiel du message initial.
De cela on tire que le résumé devient automatique s’il est généré par un logiciel ou un système informatique.
Cette définition est en fait correcte bien qu’elle ne soit assez précise pour notre contexte. Il nous faut une définition assez générale et précise, embrassant au mieux l’aspect automatique, ou mieux, l’aspect informatique, qui nous intéresse dans ce mémoire. Une définition assez valable est celle de TORRES-MORENO Juan-Manuel qui dit qu’un résumé automatique est un texte généré par un logiciel, cohérent et contenant une partie importante des informations pertinentes de la source, et dont le taux de compression est inférieur au tiers de la taille du(des) document(s) source(s) [48].
L’introduction du taux de compression dans la définition n’est pas anodine car, on s’est très vite rendu compte que la performance d’un système de résumé automatique dépendait fortement du taux de compression. En effet, les études de [26] montrent que les meilleures performances des systèmes de résumé automatique sont généralement atteintes pour des taux de compression compris entre 15 et 30% [48].
Nous allons adopter, dans ce travail, la définition de TORRES-MORENO Juan-Manuel ci-haut présentée.
Toutefois, on ne doit pas manquer de signaler que la génération automatique des résumés est un problème complexe en soi, tout comme l’évaluation des résultats. Le résumé est en effet une tâche cognitive requérant la compréhension du texte considéré et, les humains n’étant pas toujours bons dans les tâches de synthèse, le manque d’étalon explique qu’il y ait également une difficulté d’automatisation du processus.
II.3 Catégorisation des résumés
Les résumés peuvent être classifiés selon différents critères tels que leur fonction, le nombre de documents source, le genre de document, le type de résumé, le type de résumeur, le contexte,...
II.3. CATÉGORISATION DES RÉSUMÉS
Parcourons de manière succincte ces différents critères de classification [36, 31, 32, 38, 37, 48] :
II.3.1 Selon la fonction
Selon leur fonction, on classifie les résumés en deux groupes qui sont le résumé indicatif et le résumé informatif.
Résumé indicatif
Tel une table des matières, un résumé indicatif renseigne le lecteur sur les thèmes abordés dans un document. Il liste donc les sujets les plus importants évoqués par le texte. Certains systèmes de résumé guidé génèrent un résumé indicatif du texte comme étape initiale, l’utilisateur choisit alors parmi les sujets proposés par le résumé ceux qui l’intéressent et le système produit enfin un résumé informatif du texte guidé par la requête de l’utilisateur. La requête dans ce cas est l’ensemble des sujets sélectionnés à partir du résumé indicatif.
Résumé informatif
Il s’agit d’un modèle rétréci du texte d’origine, relatant le plus largement possible les informations contenues dans celui-ci. Ce type de résumé répond souvent à une attente en résumant de plus le contenu. La problématique ici est donc double : comprendre ce qui n’est pas information dans un texte et connaître le besoin de l’utilisateur final. Néanmoins, si on n’a pas de requête spécifique de la part de l’utilisateur, le résumé informatif est réalisé en veillant à ce que l’ensemble des principaux sujets du texte d’origine soit rapporté. Ainsi, les sujets principaux qui sont rappelés dans le résumé sont répartis de manière fidèle par rapport à l’organisation initiale afin de donner un juste aperçu du texte source.
II.3.2 Selon le nombre de documents source
Selon le nombre de documents source on a les résumés mono-document et multidocument.
Résumé mono-document
Il consiste à résumer un document isolé. Le corpus de documents source est donc ici constitué d’un seul et unique document.
Résumé multi-document
Il s’agit d’un résumé de plusieurs documents (un groupe de documents), très souvent liés thématiquement, en faisant attention à ne pas insérer des informations déjà évoquées.
II.3.3 Selon le genre des documents
Résumé des documents journalistiques
Il s’agit de résumer les documents du type article de presse (sachant qu’ils ont une structure particulière). En effet, on sait par exemple que dans le domaine journalistique, les informations les plus importantes sont souvent mentionnées au début du texte.[36]
Résumé des documents spécialisés
Il s’agit de résumer des documents en provenance d’un domaine précis (géologie, médecine, mathématique,...), fortement spécialisé.
Résumé des documents littéraires
C’est le résumé de documents du type narratif, des textes littéraires, des textes argumentatifs, ...
II.3. CATÉGORISATION DES RÉSUMÉS
Résumé des documents encyclopédiques
Ici il s’agit de résumer des documents de type encyclopédique (en général multithématiques de toute évidence) à l’exemple de Wikipédia...
II.3.4 Selon le type de sortie (résumé obtenu)
Cette classification est très importante et très utilisée. Il s’agit des :
Résumés extractifs (extractive summarization)
Le résumé extrait est formé de segments de texte extraits du(des) document(s) source(s). Ces segments peuvent être des phrases, des propositions ou n’importe quelle unité textuelle présent dans le(s) document(s) à résumer. Le problème consiste donc à repérer les segments de texte qui semblent être les plus pertinents pour faire partie du résumé final. Les éléments obtenus à la fin sont donc explicitement présents dans le(s) document(s) source(s).
Résumés abstractifs (abstractive summarization)
Les méthodes de résumé abstractives imitent, jusqu’à un certain degré, le processus naturel accompli par l’homme pour résumer un document. Par conséquent, elles produisent des résumés plus similaires aux résumés manuels (humains). Ce processus peut être décrit par deux étapes majeures : la compréhension du texte source et la génération du résumé. La première étape vise à analyser sémantiquement le contenu du texte et à identifier les parties à exprimer dans le résumé. C’est en quelques sortes une tâche d’extraction d’information liée au domaine abordé ou de regroupement des phrases du texte source. Vient ensuite la génération du texte.
Bref, on produit un résumé rapportant le contenu du(des) texte(s) source(s) en utilisant un vocabulaire différent et plus concis.
Il existe aussi des résumés dits semi-extractifs, et même aussi des résumés dits par compression [48] mais nous estimons inutile de les décrire ici étant donné que la distinction abstractif-extractif suffit pour notre contexte.
II.3.5 Selon le type de résumeur
Le résumeur est le système qui réalise le résumé. Il peut s’agir d’une entité naturelle (un humain) ou artificielle (un logiciel). On a donc essentiellement les deux cas suivants :
Résumé humain (manuel)
Il s’agit d’un résumé réalisé par un humain. Il peut être fait par l’auteur même du document (on parle souvent de résumé d’auteur), par un expert du domaine traité (on parle souvent de résumé d’expert) ou par un professionnel de résumé (on parle de résumé professionnel).
Résumé automatique
Il s’agit, comme on l’a maintes fois mentionné, d’un résumé fait par un système informatique.
II.3.6 Selon le contexte
Résumé générique
Ici on résume le document sans prendre en compte les besoins d’information de l’utilisateur. On produit juste un résumé complet et le plus mieux fait possible.
Résumé guidé
Pour ces types de résumé, l’utilisateur commande la génération du résumé en précisant les types d’information dont il a besoin.
Résumé mis à jour
Il s’agit d’un résumé de type dynamique par essence. Ici, un ensemble de documents sources est résumé en veillant minutieusement à ce que le document dont le résumé est ajouté à la suite d’un précédent résumé ne puisse pas créer une répétition d’information.
Il y a donc un contrôle de nouveauté.
II.3.7 Selon le destinataire du résumé
On peut aussi classifier un résumé selon le public auquel il est destiné.
Résumé sans profil
Il s’agit d’un résumé qui ne tient pas compte d’un quelconque profil utilisateur. Le résumé est donc généré sans tenir compte de la personnalité des utilisateurs.
Résumé avec profil
Il s’agit d’un résumé dont l’un des éléments guides (requête) est le profil des individus auxquels le résumé est destiné.
En ce qui concerne notre système, nous implémenterons à la fois un résumeur abstractif et un résumeur extractif et ce sera mono-document. En plus de cela, le résumé ne sera pas guidé, il s’agira de produire des résumés génériques, pour des documents de type littéraire (documents du type narratif, des textes littéraires, des textes argumentatifs,...).
II.4 Approches de résumé automatique
Nous allons présenter ici diverses approches algorithmiques pour résumer les documents textuels. Les approches seront abordées en supposant que les résumés sont principalement classés en abstractif et extractif.
II.4.1 Techniques intuitives de résumé [36]
Avec des critères centrés sur le contenu des textes, il existe un grand nombre d’algorithmes assez triviaux de résumé, qui sont basés entre autres sur : • La fréquence d’occurrence des mots et
• L’annotation en rôle sémantique.
Ces critères mettent l’accent sur le contenu du texte et le message qu’il communique.
Fréquence d’occurrence des mots
L’idée majeure des techniques qui utilisent ce critère consiste à considérer que les mots les plus fréquents sont les plus liés au sujet principal du texte à résumer. Cette approche assez simpliste mais fonctionnelle fut introduite en 1958 par Luhn [29], une première tentative de résumé automatique.
On affecte des scores aux phrases présentes dans le texte, en additionnant chaque fois les poids des mots les constituant (on attribue ce poids en fonction de la fréquence d’apparition du mot considéré dans le texte entier). Et, à la fin, le résumé est constitué avec les phrases extraites du texte source, et dont le score dépasse un certain seuil dépendant de la taille maximale imposée pour le résumé. Le tout est finalement réarrangé selon l’ordre d’apparition (des phrases sélectionnées) dans le texte d’origine.
L’annotation en rôle sémantique
Ici, l’idée est simple. En utilisant des techniques de repérage d’entités nommées (voir le chapitre précédent), on identifie les entités présentes dans le document. Après cela, l’entité la plus fréquente est identifiée et considérée comme entité principale. Par la suite, les phrases contenant cette entité sont sélectionnées. Enfin, seules les phrases où l’entité principale possède un rôle sémantique fondamental (non auxiliaire) sont gardées pour le résumé.
L’un des moyens les plus simples pour repérer les entités nommées est de passer par l’apprentissage profond comme on l’a précédemment mentionné.
Il existe tout de même des techniques qui ne se fient qu’à la forme et à la structure du texte, sans en considérer le contenu. L’intuition derrière cette approche est basée sur le constat que dans un texte, les éléments ne sont pas présentés de façon arbitraire. De manière usuelle, les techniques utilisées se basent sur :
La position des phrases;
La similarité avec le titre
La longueur des phrases ou sinon,
Les mots indices (cue word)
La position des phrases
Cette approche est à appliquer en fonction de la nature du document et de son genre. Pour certains types de documents (documents journalistiques par exemple), les phrases se trouvant au début sont généralement plus informatives et décrivent le sujet principal du document. De plus, les phrases situées au début de chaque paragraphe tendent à apporter plus d’informations pertinentes. Le résumé des articles scientifiques par contre, peut essentiellement se former en se basant sur les contenus des parties résumé et introduction (sous l’hypothèse que ces dernières parties sont bien faites). En revanche, dans le cas des revues intégratives (critique et comparaison des études), les phrases les mieux notées sont celles des parties résultats et discussion et conclusion.
Ces exemples suffisent pour illustrer dans quelle mesure cette approche peut s’appliquer.
La similarité avec le titre
Cette approche part du principe selon lequel un bon titre doit informer de manière brève du contenu principal du texte qu’il encadre. Cela permet alors de fixer comme mesure de pertinence des phrases, leur similarité avec les titres. Toute la problématique se réduit donc à la construction d’algorithmes capables de capturer efficacement la similarité.
La longueur des phrases
L’approche consistant à se baser sur la longueur des phrases est assez naïve mais fonctionnelle.
En effet, la longueur moyenne d’une phrase dans un texte dépend de son genre. Généralement, les phrases très courtes sont considérées comme peu informatives alors que les phrases très longues sont présumées favoriser la redondance. Cette caractéristique est exploitée en fixant un intervalle de longueur (entre 15 et 30 mots). Une phrase ayant une longueur en dehors de cet intervalle est pénalisée [45].
Les mots indices
Ici, on considère une liste de mots, constituée manuellement, et qui a comme rôle de permettre de se décider si une phrase doit être prise dans le résumé ou rejetée, selon qu’elle contient ou non un(des) mot(s) de la liste qualifié(s) inhibiteur(s) ou valorisant(s). Comme exemple des mots ou groupes de mots inhibiteurs on trouve : par exemple, accessoirement, ... Et pour les mots valorisants on peut citer : notez bien, ...
Nous devons quand même préciser encore une fois que tout dépend de celui qui écrit la liste.
Les méthodes que nous venons de présenter sont assez intuitives mais constituent la base des processus de synthèse. En effet, synthétiser un texte revient au fond à implémenter un certain nombre de règles, dont font parties évidemment celles que nous venons de mentionner. Néanmoins, ce que nous venons de présenter est décrit en se basant sur le concept de résumé extractif. Nous devons toutefois signaler que les résumés abstractifs se basent au fond sur les mêmes principes, soit en partant des résumés extractifs pour ensuite réaliser des paraphrases, insérer des connecteurs appropriés et éliminer les références anaphoriques dans les résumés, soit en implémentant indirectement toutes ces techniques à travers un modèle d’apprentissage automatique ou un modèle basé sur les graphes capables de capturer d’un seul coup tous ces aspects (ou une grande partie d’entre-eux). Les techniques intuitives ci-haut présentées ne sont pas les seules. Il en existe également d’autres, basées essentiellement sur les théories linguistiques. Entre autres les méthodes d’analyse du discours (par exemple la RST [31] ou Rhetorical Structure Theory)...
II.4.2 Algorithmes classiques de résumé automatique
Comme nous venons de l’introduire dans la section précédente, le résumé automatique est abordé essentiellement selon deux approches qui sont [31] :
1°) Les approches numériques, fondées sur les techniques à base des scores (poids), et
2°) Les approches symboliques fondées sur les techniques purement linguistiques, basées en premier sur une étude sémantique.
Il faut noter qu’on peut considérer aussi des approches basées sur la théorie des graphes comme intégrant les idées de ces deux approches de façon implicite, tout comme celles basées sur l’apprentissage automatique. Mais, dans tous les cas, une vue sur quelques heuristiques (méthodes basées sur le bon sens) est toujours à considérer (surtout en amont, puis en aval du processus de synthèse).
Ici, nous allons présenter les approches essentiellement numériques (on va y inclure celles basées sur l’apprentissage automatique et celles basées sur la théorie des graphes).
Algorithme de Luhn [29]
Il s’agit d’une méthode heuristique pour la synthèse des documents. C’est la plus ancienne méthode de résumé automatique (au sens moderne du terme).
Cette approche n’est pas considérée comme très bien formalisée. Elle exécute implicitement l’approche du TfIdf que nous allons décrire dans la sous-section qui suit celle-ci (sous-section II.4.2).
La sélection (des mots ici) se fait en considérant les hypothèses qui suivent :
la synthèse consiste à supprimer certains mots pour n’en conserver que les plus importants;
les mots se trouvant au début sont probablement importants;
les autres mots utiles respectent une certaine distribution. La figure II.1 montre, selon Luhn, comment choisir ces mots importants (partie hachurée de la courbe).
Figure II.1: Diagramme des fréquences des mots et le choix de Luhn [29]
Cette approche, comme on l’a mentionné au début, est assez moins précise et empirique, mais elle sous-entend les idées fondamentales appliquées plus tard.
Algorithme TF-IDF
Le tf-idf (time-frequency inverse document frequency est une approche essentiellement utilisée pour le résumé extractif. Il s’agit d’une correction de l’approche naïve consistant à poser que plus un mot est répété dans un corpus de texte, plus il y est important.
Soit donc un corpus constitué de D documents et Nj le nombre total de mots (termes) présents dans un document j donné du corpus. Nommons Freq(i,j) le nombre de fois qu’un terme i apparaît dans le document j.
On définit classiquement la fréquence d’apparition par :
Freq(i,j)
T F(i,j) = (II.1)
Nj
L’approche qui se base naïvement sur la fréquence d’apparition des mots dans les textes pour juger de leur importance relative, accorde à chaque mot un poids égal à T F(i,j). La grande faiblesse de cette approche est d’inclure ainsi des termes sans grande pertinence informationnelle comme des prépositions, des articles,... très présents au sein des documents.
Pour corriger cette faiblesse, on pose l’hypothèse que les termes importants apparaissent plusieurs fois dans un document (ou juste dans peu de documents du corpus) et non pas dans plusieurs documents. Puisque dans ce second cas, il est souvent question des éléments communs du langage, sans grande utilité informationnelle. Ceci constitue en fait la loi de Zipt [55] et c’est le fondement de l’approche du tf-idf.
A cet effet, on définit DFi comme étant le nombre de documents dans le corpus, qui contiennent le terme numéro i. Cela permet d’affecter alors le poids selon la formule [5] :
D !
T FIDF(i,j) = log(1+T F(i,j))·log (II.2)
DFi
Dans l’expression, II.2, en supposant que N est le dictionnaire des termes présents dans l’ensemble des documents, il faut noter que : i ∈ {1,...,N} et j ∈ {1,...,D}.
D’où finalement, le poids d’un terme i dans un document j est donné par :
wij = T FIDF(i,j) (II.3)
Pour notre cas, l’application de cette approche consiste à décomposer un long texte en ses phrases et de considérer que chacune de ces phrases est un document et que le texte entier constitue le corpus.
Plusieurs définitions des éléments T F(ij) et IDFi formant l’expression II.2 sont toutefois possibles selon les besoins en terme de performance.
Mais, dans l’ensemble, l’idée de base demeure la même car il ne s’agit en général que de changement des types de normalisation [55].
L’application de cette méthode pour le résumé consiste finalement à calculer le poids de chaque phrase en additionnant les poids des termes la constituant, puis à normaliser le résultat en fonction de la taille de la phrase considérée. Après tout, on définit un seuil qui permet de soutirer les phrases selon leur pertinence ainsi évaluée (en considérant évidemment plus pertinente une phrase dont le résultat de la sommation des poids est élevé).
Algorithme TextRank
TextRank est un algorithme de résumé extractif, basé sur la théorie des graphes et qui s’inspire de l’algorithme PageRank de Google [8, 4].
A la base, on considère un ensemble de N phrases donné, et on calcule les coefficients de liaison de chaque phrase aux N −1 autres. A la fin, on peut obtenir une matrice M de taille N ×N dont chaque terme Mij représente le degré de liaison entre la phrase numéro i et la numéro j. Il s’agit en fait d’une matrice d’adjacence dans laquelle on pose au préalable que Mii = 0, pour tout i (c’est la même idée pour l’algorithme PageRank étant donné qu’il est logique de considérer qu’une page ne peut s’auto-référencer).
Soit donc i ∈ {1,...,N}. Appelons P hri la phrase numéro i du corpus. Cela veut dire qu’on peut écrire :
Liaison P hri ↭ P hrj = Mij = Mji (II.4)
Les valeurs de Mij sont calculées au choix, selon le programmeur. Ce dernier implémente en effet une mesure de similarité selon sa définition de la liaison entre phrases et les besoins en performance.
C’est ainsi qu’on peut utiliser par exemple une mesure de similarité classique nommée similarité cosinus en la basant par exemple sur T FIDF [19].
Pour représenter les mots à comparer, on utilise les méthodes classiques de vectorisation des mots (word embedding). Nous esquisserons ces méthodes dans les sections qui vont suivre, parlant du word embedding ( II.5 ).
Le rang des phrases sont alors calculés de manière itérative en s’inspirant de la formule [33] :
N
Xh i
T extRank(P hri) = (1−K)+K · T extRank(P hrj) ·Mij (II.5)
j=1 j,i
Dans cette formule, K est une constante comprise entre 0 et 1.
Initialement, on prend en général une valeur identique de T extRank(P hri) pour toutes les phrases (souvent T extRank(P hri) = 1), mais la valeur initiale prise n’affecte pas les valeurs finales, juste le temps de convergence [33].
La formule II.5 n’est pas arbitraire, elle est d’ailleurs triviale si on s’inspire de l’algorithme de PagePank la plus simple. Pour cet algorithme (PageRank), on avait pris à l’origine K = 0.85 [8].
Justification de la formule Le principe de PageRank consiste à se dire que, si une page
P agi contient Ni références vers d’autres pages, la probabilité qu’on aille vers l’une de ces pages référencées est de N1i (avec l’hypothèse que les références ne sont pas répétées et que la distribution de leur importance est uniforme). On sait tout de même que plus une page est référencée, plus on doit lui donner de l’importance.
Si alors on pose que l’importance de la page P agi est connue, le calcul de l’importance d’une page P agj vers laquelle elle pointe se calculera logiquement par :
X 1
Importance(P agj) = Importance(P agi)· (II.6) i Ni
Avec i appartenant à l’ensemble des pages qui mentionnent la page P agj en leur sein.
Malheureusement, pour les phrases non référencées (pages dites isolées), on trouve une importance nulle. Pour lutter contre cela, la formule II.6 est un peu modifiée en y introduisant adéquatement une constante non nulle K.
Ce qui donne l’expression [8] :
X 1
Importance(P agj) = (1−K)+K · Importance(P agi)· (II.7) i Ni
On voit alors qu’il s’agit belle et bien de la formule utilisée pour TextRank (formule II.5).
Après initialisation des rangs de chaque phrase du texte ( les T extRank(P hri)) et après calcul de la matrice d’adjacence M. On applique la formule II.5 itérativement et à la convergence, on choisit les phrases qui vont former le résumé selon leur importance ( valeurs des T extRank(P hri) pour toute valeur de i).
A la fin, les phrases sélectionnées sont réarrangées pour former un résumé extrait plus ou moins cohérent.
Il existe également un algorithme nommé LexRank [14] qui est assez similaire à TextRank ici décrit, à la différence près que :
Il prend essentiellement en compte les métriques de similarité robustes;
Il considère la position et la longueur des phrases dans le calcul de leur pertinence; - Il est optimisé pour le résumé multi-document.
Plusieurs autres algorithmes populaires existent, par exemple les algorithmes LSA (Latent Semantic Analysis ou Analyse Sémantique Latente) et LDA (Latent Dirichlet Allocation ou Allocation Latente de Dirichlet) [5].
Le premier, la LSA, est un algorithme statistique, basé sur l’algorithme SVD (Singular Value Decomposition ou décomposition en valeurs singulières). Seulement, cette technique est très gourmande en ressources suite à la complexité de l’algorithme qui implémente le SVD. Le second, la LDA, basé sur la détection des thématiques, peut aussi être utilisé.
Toutefois, il faut remarquer que les algorithmes ici présentés sont essentiellement adaptés à la synthèse extractive. Même si, ces traitements peuvent être mélangés avec les techniques de résolution d’anaphores et les paraphrases pour obtenir des synthèses qui tendent vers la synthèse abstractive, nous devons souligner que les techniques jusque là les plus performantes pour la synthèse abstractive sont essentiellement basées sur le deep learning [36]. Le deep learning peut également être utilisé pour la synthèse extractive, permettant ainsi la génération des synthèses extraites plus cohérentes (avec résolution d’anaphores). Ainsi donc, nous abordons les méthodes de deep learning utilisées pour cet effet dans les parties qui suivent.
II.5 Modèles Seq2Seq
II.5.1 Methodes du Word-Embedding
Tout traitement commence par une représentation numérique des termes (des mots ici) pour qu’ils soient assimilables par le modèle. Une approche naïve consisterait à regrouper tous les mots de notre vocabulaire dans une liste (un dictionnaire) et de les représenter chacun par un nombre unique (un identifiant). Une autre approche, plus classique, consiste à représenter chaque mot par un vecteur de dimension égale à la taille du dictionnaire et dont tous les termes sont nuls, sauf à la position, dans le dictionnaire, du mot qu’on est entrain de vouloir représenter (on parle du one-hot encoding).
Ces représentations, et toutes celles qui s’y apparentent, ont la grande faiblesse d’être peu informatives (au point de vu sémantique). Étant artificiellement construites, sans tenir compte du sens des mots, ni de leur contexte, ces méthodes de représentation rendent la tâche de découverte des caractéristiques par les systèmes de machine learning encore plus difficile. D’ailleurs, l’une des faiblesses de la seconde méthode décrite (le one-hot encoding) est que les vecteurs sont creux (une majorité de valeurs nulles) et de dimension inutilement très grande. On pourrait directement songer à une représentation plus judicieuse pour éviter ces deux soucis, et qui consisterait à réaliser une représentation binaire des termes mais, le problème de la sémantique sera toujours là.
On recourt donc à des méthodes de représentation plus élaborées, partant du principe selon lequel le contexte d’un mot suffit pour en appréhender le sens. Ainsi, tout mot est représenté en réalisant une statistique (implicitement bien sûr) sur les divers mots qui l’accompagnent souvent, de telle sorte que les mots aux sens proches aient aussi des vecteurs très proches. Bref, on en arrive à réaliser la proposition : "Similarité sémantique implique similarité de représentation". Ce sont les méthodes classiques du word embedding (ou plongement lexical). Il s’agit par exemple des méthodes comme le Word2Vec [34, 35], Glove [39], fastText [6]...
II.5.2 Modèles séquence-à-séquence proprement dits
S’agissant des modèles séquence-à-séquence (Seq2Seq), ils ont été présentés dans la section I.5.3 (voir particulièrement la figure I.6). Il s’agit bel et bien des modèles adaptés aux tâches de synthèse, vu qu’en entrée on reçoit une séquence pour ressortir une autre séquence en sortie.
Comme nous l’avons déjà bien mentionné au précédent chapitre, nous n’allons parler que des modèles Seq2Seq de type transformer car actuellement, ils sont les plus adaptés à la tâche que nous voulons réaliser (celle de synthèse automatique). Les transformers (voir la figure I.7) sont un modèle très avantageux car en fait, au-delà de leurs performances et autres avantages, ils facilitent encore plus la recherche en NLP en rendant effectif le transfer learning (apprentissage par transfert) dans ce domaine.
L’entraînement des transformers est semi-supervisé. Il se fait en deux crans (nous les décrirons dans le cadre du NLP) :
1°) Pré-entraînement : il s’agit d’un apprentissage non supervisé, qui consiste à donner au modèle une masse colossale de données textuelles, non étiquetées, pour qu’il développe une compréhension statistique du langage qu’on veut qu’il puisse assimiler.
Au final, on obtient un modèle pré-entraîné.
2°) Affinage de l’apprentissage (fine-tuning) : Ça consiste à finaliser l’apprentissage du modèle pré-entraîné de manière supervisée pour qu’il soit en mesure de réaliser une tâche donnée du NLP (il s’agit du transfer learning en fait). Cette spécialisation, requiert une très faible quantité de données car le modèle aura déjà une représentation assez bonne de la langue. Cela pallie à la fois au problème de manque des données labellisées en NLP et de la consommation en terme de ressource énergétique des gros modèles lors de leur entraînement.
Les méthodes de pré-entraînement sont très déterminantes pour les performances finales du modèle. Ce premier entraînement du modèle a pour rôle de l’amener à construire un modèle de langage [25].
Il existe ainsi plusieurs objectifs de de pré-entraînement (pour construire le modèle de langue). On peut par exemple entraîner le modèle à :
Prédire le mot suivant : donc, lors de cet entraînement non supervisé, on fournit chaque fois au modèle une séquence de mots en lui demandant de prédire le suivant. Il s’agit d’un objectif d’entraînement dit NSP (Next Sentence Prediction) visant à transformer implicitement le transformer en un modèle de langue [11];
Deviner le mot caché (masqué) : on fournit au modèle du texte dont certaines parties (mots ou suite de mots) sont cachées. L’objectif assigné au modèle est alors de retrouver les mots masqués. On parle du MMLMasked Language Modelling [11].
Ainsi, au fur et à mesure, les paramètres du modèle s’affinent, le transformant en un modèle de langue performant. Mais, à part les deux que nous venons de mentionner, il existe d’autres objectifs de pré-entraînement [25, 54] selon les variantes de transformers et les objectifs finaux de spécialisation du modèle.
Bien que la forme classique des transformers est bel et bien celle de la figure I.7, il existe 3 types d’implémentation selon les types de tâche visées en dernier lieu :
1°) Modèles à encodeur seul : on supprime la partie décodeur. Ces modèles sont très bons pour les tâches de compréhension du langage comme la classification par exemple.
2°) Modèles à décodeur seul : on supprime alors la partie décodeur du modèle. Ils sont bons pour les tâches de génération de texte.
3°) Modèles encodeur-décodeur : ou encore modèles seq2seq proprement-dits. Ils sont bons pour les tâches demandant à la fois la compréhension et la génération des textes.
Pour illustrer ce fait, on va considérer donc 3 types de transformers [49, 52] :
1°) Like-BERT : semblables au transformer dénommé BERT Bidirectional Encoder Representations from Transformers. Ce sont des modèles du type encodeur seul. Ils sont également bidirectionnels. Donc, les phrases sont lues dans les deux sens pour mieux saisir tout le contexte.
2°) Like-GPT : donc semblables au transformer dénommé GPT (Generative Pre-trained Transformer) qui n’ont que la partie décodeur et sont dits auto-regressifs car, seules les parties précédant le mot en cours de traitement sont connues du modèle et il y a chaque fois réinjection des sorties à l’entrée.
3° Like-BART/T5 : semblables à BART (Bidirectional and Auto-Regressive Transformers) ou à T5 (Text-To-Text Transfer Transformer). C’est donc ceux du type encodeur-décodeur.
Modèles encodeurs (encoder-model) : Comme on l’a dit, pour ces modèles, on n’implé-
mente que la partie encodeur du transformer d’origine (celui de Vaswani et al. [50]). En plus de cela, ces modèles ont une couche d’attention bidirectionnelle et sont généralement appelés auto-encodeurs (auto-encoding model). Ces modèles sont principalement bons pour les tâches de NLU (Natural Language Understanding) comme la classification, le NER (Name Entity Recognition), l’extractive question-answering,...
Dans ce groupe, les modèles les plus connus sont :
ALBERT [24],
BERT [11],
DistilBERT [43],
RoBERTA [28],
Etc.
Modèles décodeurs (decoder-models): Utilisent seulement la partie décodeur, sont auto-
regressifs et par conséquent les têtes de self-attention n’accèdent qu’aux mots précédant l’étape à laquelle elles sont (pas de regard dans le futur) comme on l’a déjà un peu mentionné. Ces modèles sont particulièrement bons pour les tâches liées fortement au NLG (Natural Language Generation).
Dans ce groupe, les modèles les plus connus sont :
Les GPT (1, 2 et 3) [41],
TransformerXL [10],
Etc.
Modèles encodeur-décodeur (sequence-to-sequence models): Ces modèles utilisent l’in-
tégralité de l’architecture des transformers et sont ainsi bons pour les tâches demandant à la fois du NLU et du NLG comme la synthèse automatique abstractive, le generative question-answering et la traduction automatique.
Ici nous pouvons particulièrement mentionner les modèles comme :
BART [25],
mBART [27],
BARThez [13],
T5 [42],
mT5 [53], • PEGASUS [54],
Etc.
II.5.3 Modèle BART pour la synthèse abstractive
Le modèle BART est comme une combinaison de BERT [11] et de GPT-2 [40, 41] en terme
d’architecture et d’objectif de pré-entraînement, avec quelques optimisations supplémentaires [25]. Pour illustration, voici une image de comparaison :
Figure II.2: Comparaison simplifiée entre BERT, GPT et BART [25]
L’image II.2 étant claire, nous pouvons illustrer les diverses corruptions que peuvent subir les données pour le pré-entraînement. L’image ci-dessous l’illustre :
Figure II.3: Transformations de bruitage expérimentées pour BART [25]
Le modèle BART est bien adapté à la tâche de synthèse abstractive. C’est celui que nous
allons privilégier (les modèles dérivés de BART principalement) pour réaliser cette tâche dans notre système.
Justification du choix de BART
Le choix de BART est dû au fait que c’est le modèle que nous avons trouvé réalisant un bon compromis poids-performances. Aussi, après quelques tests, ses résultats nous ont paru être plus intéressants. En outre, l’objectif d’entraînement utilisé pour BART nous paraît assez général pour construire un modèle de langage performant. Nous justifierons plus précisément ce choix dans le chapitre qui suit, en présentant également quelques résultats des tests.
II.6 Conception de l’architecture globale du système
Il existe un large éventail des méthodes de développement des systèmes informatiques mais, en règle générale, toutes suivent les étapes suivantes [7] :
1°) Spécifications : on définit avec précision ce que fera le système (à quoi est-il destiné?);
2°) Conception et mise en oeuvre : on conçoit et on réalise le système;
3°) Validation : on teste le système pour voir s’il correspond aux objectifs précisés dans les spécifications;
4°) Évolution : ça correspond à tout ce qui vient après la livraison du produit (versionning, maintenances,...).
Ici, on ne va pas utiliser une méthode de conception particulière. Pour pouvoir tout de même y aller méthodiquement, nous nous inspirerons de ces étapes classiquement suivies lors de la conception des systèmes informatiques.
Dans ce second chapitre, nous ne présenterons que les spécifications du système ainsi qu’une ébauche de conception avec une présentation de l’architecture globale. La suite sera traitée dans le chapitre suivant.
II.6.1 Spécifications du système
Le système devra pouvoir permettre de réaliser ce qui suit :
Synthétiser les textes qui lui sont fournis en entrée (saisis directement ou importés dans fichiers .pdf non scannés, des fichiers .docx et .txt);
Servir les synthèses directement ou à travers un fichier .pdf à télécharger;
Obtenir des synthèses produites par plusieurs algorithmes et les évaluer;
Stocker les couples document-synthèse;
Faciliter le parcours des documents en soulignant les parties saillantes;
Permettre l’affinage d’un modèle de synthèse automatique (ici nous réaliserons le fine-tuning du modèle mBART ou du modèle mT5 selon celui qui se prêtera mieux à cet affinage).
C’est cela le minimum de besoins que le système devra être capable de combler.
II.6.2 Présentation des éléments du système
L’architecture globale de notre système est un trois-tiers classique. Elle se présente comme sur la figure II.4 :
Figure II.4: Architecture globale de notre système
La figure II.4 presente l’architéture du système qui est d’une architecture 3 − tiers classique. Il y a toutefois une partie qui n’est pas ici représentée car nous voulons nous donner une grande liberté de conception à son sujet. Il s’agit en fait de l’interface d’accès à l’API (Application Programming Interface), qui permettra aux développeurs de s’authentifier et générer éventuellement un token à utiliser pour implémenter leur propres interfaces devant permettre d’utiliser les services de cette API. Il s’agit donc d’une API privée.
Cette interface permettra aussi de voir toute la documentation de l’API (pour les développeurs) pour mieux utiliser ses services.
Quant au bloc interface que nous venons de présenter sur la figure II.4, c’est en nous mettant à la place d’un développeur lambda qui exploite les services de l’API.
Notre API quant à elle, est une API REST (REpresentationnal State Transfer qui aura 4 end-points principaux dédiés à la synthèse automatique (selon les besoins d’implémentation, on pourra en insérer d’autres mais qui ne concernerons probablement pas la synthèse).
Module de synthèse extraite : ce module réalisera une synthèse en combinant divers résultats d’algorithmes de synthèse extraite. Nous prévoyons, dans un premier temps, ne l’utiliser que pour des petits documents (la taille optimale sera déterminée avec les expérimentations au chapitre suivant).
Module de synthèse abstraite : ce module donnera une synthèse abstraite en utilisant l’un des transformers affinés pour la synthèse ou bien par le module qui sera en train de s’auto-améliorer au cours de l’utilisation du système (on l’a nommé expérimental, voir la figure II.7). Comme les transformers réalisent des synthèses de documents de taille généralement limitée à environ une page, nous mettrons au point, dans cette partie, une pipeline qui nous permettra d’augmenter le nombre de pages (nous pensons à 100 pages mais les expérimentations nous permettrons de choisir une taille optimale, tenant compte surtout de la rapidité).
Module de synthèse extrait simplifié : Il s’agira d’un module qui permettra la réalisation de la synthèse mais en utilisant l’un des algorithmes de synthèse extraite implémentés (soit de manière aléatoire, soit par choix de l’utilisateur).
Module expérimental : Il s’agira d’un module de synthèse abstraite qui sera essentiellement utilisé pour la synthèse des petits documents (quelques pages). Pour ce module, nous comptons mettre au point une routine d’entraînement à partir des synthèses collectées par le système, pour améliorer au fur et à mesure les performances de ce module. Nous comptons réaliser l’entraînement par transfer learning avec les transformers mT5[53] ou mBART [27] comme base. N’ayant pas encore testé cette partie, nous serons fixé sur la méthode à utiliser ainsi que le modèle de base à choisir au chapitre suivant, après les expérimentations.
On peut aussi remarquer qu’il y a un module pre-processing dans la partie interfaces. C’est par suite du fait que, pour des raisons de performance, on devra envoyer à l’API le fichier sous un format particulier. Il faudra réaliser l’acquisition des données dans divers formats (pdf,docx,...) mais les données acquises seront envoyées dans un format plus léger à l’API (du JSON pour notre cas).
La base des données, que nous avons mentionné dans la figure II.4, a un double rôle :
1°) Le stockage des données de l’utilisateur (il s’agira en fait des identifiants des interfaces qui utiliseront l’API);
2°) Le stockage des paires document-synthèse, ainsi que l’appréciation de l’utilisateur (évaluation par les utilisateurs).
II.6.3 Architecture du module de synthèse extractive
Le module de synthèse extractive se présente comme suit :
Comme nous pouvons le voir, un traitement sera fait pour adapter les données reçues à ce qui peut être traité par le système. Ce traitement consistera à ne retenir que des symboles alphanumériques, à réaliser la tokenisation des textes (chaque token sera une phrase pour cette partie) et à affecter un identifiant unique à chaque phrase.
Après cela, les données seront invariablement passées aux algorithmes de synthèse extractive, qui générerons chacun un groupe de poids des phrases. Après cela, le module de pondération et sélection réalisera successivement ce qui suit :
Acquisition des sorties de chaque algorithme de synthèse extractive (il s’agira des dictionnaires dont les clés seront les identifiant uniques des phrases et les valeurs seront les poids affectés par l’algorithme). A chaque algorithme, on donnera un poids qu’on nommera WNomdel′algo compris entre 0 et 1, selon la confiance qu’on lui porte (la somme des poids sera égale à 1 et par défaut, tous les algorithmes pourront avoir le même poids) ;
Élimination des phrases de poids faible (avec comme seuil, la taille maximale de résumé précisée par l’utilisateur);
Réarrangement de chaque dictionnaire obtenu après expulsion des phrases non significatives (les éléments seront arrangés par ordre décroissant des poids pour chaque sortie);
Donner des propabilités aux espaces des poids de chaque dictionnaire par application d’un softmax sur chacun d’eux. Ce qui donnera, pour chaque phrase de chaque dictionnaire, un nouveau poids ωphri, avec i le numéro du dictionnaire et phr le numéro de la phrase considérée dans ce dictionnaire ;
Listage complet des éléments (leurs identifiants) de tous les dictionnaires.
Pour chaque élément de la liste globale ainsi établie, appliquer la formule suivante pour obtenir un nouveau poids :
X
W = Wi ·ωphri (II.8) j
i∈D
Avec Wj le nouveau poids affecté à la phrase ayant un identifiant global j (l’identifiant là d’origine) et D la liste des dictionnaires (les sorties de chaque algorithme);
Arranger toutes les phrases par ordre décroissant dans une unique liste et sélectionner les plus haut dans la liste jusqu’à atteindre le seuil fixé (nombre de mots fixé pour la synthèse).
Constituer une liste avec les éléments sélectionnés.
Réarranger les phrases de la liste selon leur ordre de succession dans le texte d’origine.
Constituer la synthèse extraite.
Ce qui précède constitue en fait l’algorithme que nous allons implémenter pour le module de pondération et sélection.
II.6.4 Architecture du module de synthèse abstractive
Le module de synthèse abstraite n’est pas unique. Nous implémenterons plusieurs modèles (BART, BARThez, PEGASUS, mBART ou mT5 entraîné avec nos données, ainsi que tous ceux qui nous paraîtrons utiles durant les essais); Chaque module de synthèse se présentera néanmoins comme suit :
Figure II.5: Architecture globale du système de synthèse abstractive
Comme nous pouvons le remarquer, il y a toujours un module de mise en forme initial (pre-processing) qui nous permettra en gros de supprimer tous les caractères que nous ne pourrons pas gérer. Vient ensuite le module de tokenisation (le tokenizer ou tokeniseur) [49] qui consistera ici à diviser tout le texte en ses mots constitutifs et à leur affecter des identifiants numériques. Ce sont ces identifiants qui seront fournis au modèle et transformés en vecteurs par la couche d’embedding du modèle.
Le modèle quant à lui, aura toujours une architecture pareille :
Figure II.6: Architecture interne du modèle mentionné sur la figure II.5
Il s’agit en effet de l’architecture classique d’un transformer, comme présenté sur la figure I.7 à l’exception du fait qu’ici on fait explicitement apparaître l’existence de la sortie du modèle. Ça correspond au réseau linéaire suivi d’une couche de softmax tel que présenté sur la figure
I.7. Cette partie, que nous avons nommé head est différente selon les tâches [52], c’est pourquoi nous avons voulu la mentionner explicitement car, selon le besoin, on peut la modifier.
Nous devons finalement mentionner que les modules de tokenisation (nommés tokenizer en anglais) dépendront explicitement des modèles utilisés.
II.6.5 Présentation des interfaces
La partie interface nous permettra juste d’utiliser le service que nous aurons élaboré et d’évaluer par la même occasion ses performances. Elle n’est pas donc cruciale. Toutefois, voici une ébauche d’interface que nous comptons utiliser pour exploiter le service :
Figure II.7: Ébauche d’interface
Avec cette interface, on a une idée générale de la manière dont nous comptons servir le système aux utilisateurs.
II.7. CONCLUSION PARTIELLE II.7 Conclusion partielle
Dans cette partie, nous venons de présenter le résumé automatique des textes, tout en réalisant une vue d’ensemble des méthodes utilisées dans la littérature à cet effet. Nous avons mentionné que la classification des résumés que nous utiliserons sera celle les départageant en abstractive summarization et extractive summarization et que, pour notre cas, il s’agira de réaliser un système de résumé mono-document, avec une partie abstractive et une autre extractive, générant un résumé générique pour des documents de type narratif et argumentatifs.
Nous avons également listé les divers modèles de transformer adaptés à la tâche de synthèse automatique abstraite, et nous avons mentionné devoir privilégier les modèles du type BART pour des raisons qui serons précisées dans le chapitre suivant.
Enfin, nous avons réalisé la conception préliminaire du système tout en précisant que, concernant l’API, la BD (Base des Données) et les interfaces, les détails d’implémentation utiles seront précisés dans la partie dédiée à la conception proprement dite et aux tests, c’est-à-dire au chapitre suivant. Le chapitre suivant nous permettra donc finalement de préciser, réaliser et tester les méthodes que nous avons jusque-là adoptées pour la mise au point de notre système de synthèse automatique des documents.
GENERALEMENT
Place les références là où il le faut STP. Même si c’est une interpretation personnelle, elle tire la source quelque part.
Verifie aussi tous les commentaires que j’ai placé aux différents niveaux du texte
Chapitre III
Conception finale, réalisation et tests
Conclusion générale
Bibliographie
D. Adams. Combining State-of-the-art Models for Multi-document Summarization Using Maximal Marginal Relevance. University of Lethbridge, 2021.
Stergos D. Afantenos, Vangelis Karkaletsis, and Panagiotis Stamatopoulos. Summarization from medical documents: A survey. CoRR, abs/cs/0504061, 2005.
Dzmitry Bahdanau, Kyunghyun Cho, and Yoshua Bengio. Neural machine translation by jointly learning to align and translate. arXiv preprint arXiv:1409.0473, 2014.
Catherine Benincasa, Adena Calden, Emily Hanlon, Matthew Kindzerske, Kody Law, Eddery Lam, John Rhoades, Ishani Roy, Michael Satz, Eric Valentine, et al. Page rank algorithm. Department of Mathematics and Statics, University of Massachusetts, Amherst, Research, 2006.
Michael W Berry and Jacob Kogan. Text mining: applications and theory. John Wiley & Sons, 2010.
Piotr Bojanowski, Edouard Grave, Armand Joulin, and Tomas Mikolov. Enriching word vectors with subword information. Transactions of the association for computational linguistics, 5:135–146, 2017.
Boudjemaa Boudaa. Cours de génie logiciel (avec exercices résolus). Université IbnKhaldoun-Tiaret, Algérie, 02 2020.
Sergey Brin and Lawrence Page. The anatomy of a large-scale hypertextual web search engine. Computer networks and ISDN systems, 30(1-7):107–117, 1998.
O. Carton and D. Perrin. Langages formels : calculabilité et complexité : cours et exercices corrigés. Vuibert, 2014.
Zihang Dai, Zhilin Yang, Yiming Yang, Jaime Carbonell, Quoc V Le, and Ruslan Salakhutdinov. Transformer-xl: Attentive language models beyond a fixed-length context. arXiv preprint arXiv:1901.02860, 2019.
Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. Bert: Pretraining of deep bidirectional transformers for language understanding. arXiv preprint arXiv:1810.04805, 2018.
Youcef Djeriri. Les Réseaux de Neurones Artificiels. 09 2017.
Moussa Kamal Eddine, Antoine J-P Tixier, and Michalis Vazirgiannis. Barthez:
a skilled pretrained french sequence-to-sequence model. arXiv preprint arXiv:2010.12321, 2020.
Günes Erkan and Dragomir R Radev. Lexrank: Graph-based lexical centrality as salience in text summarization. Journal of artificial intelligence research, 22:457–479, 2004.
Thushan Ganegedara. Natural Language Processing with TensorFlow: Teach language to machines using Python’s deep learning library. Packt Publishing Ltd, 2018.
A. Géron. Deep Learning avec Keras et TensorFlow: Mise en oeuvre et cas concrets. Dunod, 2020.
M. Hagiwara. Real-World Natural Language Processing: Practical Applications with Deep Learning. Manning, 2021.
Patrick Hairy. Les réseaux de neurones récurrents pour les séries temporelles, Septembre 2021.
Nitin Indurkhya and Fred J Damerau. Handbook of natural language processing.
Chapman and Hall/CRC, 2010.
D. Jurafsky and J.H. Martin. Speech and Language Processing. Always learning.
Pearson, 2014.
SYNTHESE AUTOMATIQUE DES TEXTES
Min-Yen Kan, Kathleen R. McKeown, and Judith L. Klavans. Applying natural language generation to indicative summarization. CoRR, cs.CL/0107019, 2001.
Akshay Kulkarni and Adarsha Shivananda. Natural language processing recipes. Springer, 2019.
S. Lamsiyah, S. Ouatik El Alaoui, and B Espinasse. Résumé automatique guidé de textes: Etat de l’art et perspectives (guided summarization : State-of-the-art and perspectives ). In Actes de la Conférence TALN. Volume 2 - Démonstrations, articles des Rencontres Jeunes Chercheurs, ateliers DeFT, pages 55–72, Rennes, France, 5 2018. ATALA.
Zhenzhong Lan, Mingda Chen, Sebastian Goodman, Kevin Gimpel, Piyush Sharma, and Radu Soricut. Albert: A lite bert for self-supervised learning of language representations. arXiv preprint arXiv:1909.11942, 2019.
Mike Lewis, Yinhan Liu, Naman Goyal, Marjan Ghazvininejad, Abdelrahman Mohamed, Omer Levy, Ves Stoyanov, and Luke Zettlemoyer. Bart: Denoising sequence-to-sequence pre-training for natural language generation, translation, and comprehension. arXiv preprint arXiv:1910.13461, 2019.
Chin-Yew Lin. Training a selection function for extraction. In CIKM ’99, 1999.
Yinhan Liu, Jiatao Gu, Naman Goyal, Xian Li, Sergey Edunov, Marjan Ghazvininejad, Mike Lewis, and Luke Zettlemoyer. Multilingual denoising pre-training for neural machine translation. Transactions of the Association for Computational Linguistics, 8:726–742, 2020.
Yinhan Liu, Myle Ott, Naman Goyal, Jingfei Du, Mandar Joshi, Danqi Chen, Omer Levy, Mike Lewis, Luke Zettlemoyer, and Veselin Stoyanov. Roberta: A robustly optimized bert pretraining approach. arXiv preprint arXiv:1907.11692, 2019.
H. P. Luhn. The automatic creation of literature abstracts. IBM Journal of Research and Development, 2(2):159–165, 1958.
Minh-Thang Luong, Hieu Pham, and Christopher D Manning. Effective approaches to attention-based neural machine translation. arXiv preprint arXiv:1508.04025, 2015.
Mohamed Hedi Maaloul. Approche hybride pour le résumé automatique de textes. Application à la langue arabe. Theses, Université de Provence - Aix-Marseille I, December 2012. Date Soutenance 18-12-2012.
Inderjeet Mani. Automatic summarization, volume 3. John Benjamins Publishing, 2001.
Rada Mihalcea and Paul Tarau. Textrank: Bringing order into text. In Proceedings of the 2004 conference on empirical methods in natural language processing, pages 404– 411, 2004.
Tomas Mikolov, Kai Chen, Greg Corrado, and Jeffrey Dean. Efficient estimation of word representations in vector space. arXiv preprint arXiv:1301.3781, 2013.
Tomas Mikolov, Ilya Sutskever, Kai Chen, Greg S Corrado, and Jeff Dean. Distributed representations of words and phrases and their compositionality. Advances in neural information processing systems, 26, 2013.
Maali Mnasri. Résumé automatique multi-document dynamique. Theses, Université Paris-Saclay, September 2018.
Marie-Francine Moens. Automatic indexing and abstracting of document texts. Computational Linguistics, 27(1):149–149, 2001.
Ani Nenkova and Rebecca Passonneau. Evaluating content selection in summarization: The pyramid method. In HLT-NAACL 2004 - Human Language Technology Conference of the North American Chapter of the Association for Computational Linguistics, Proceedings of the Main Conference, HLT-NAACL 2004 Human Language Technology Conference of the North American Chapter of the Association for Computational Linguistics, Proceedings of the Main Conference, pages 145–152. Association for Computational Linguistics (ACL), 2004.
SYNTHESE AUTOMATIQUE DES TEXTES
Jeffrey Pennington, Richard Socher, and Christopher D Manning. Glove: Global vectors for word representation. In Proceedings of the 2014 conference on empirical methods in natural language processing (EMNLP), pages 1532–1543, 2014.
Alec Radford, Karthik Narasimhan, Tim Salimans, Ilya Sutskever, et al. Improving language understanding by generative pre-training. 2018.
Alec Radford, Jeffrey Wu, Rewon Child, David Luan, Dario Amodei, Ilya Sutskever, et al. Language models are unsupervised multitask learners. OpenAI blog, 1(8):9, 2019.
Colin Raffel, Noam Shazeer, Adam Roberts, Katherine Lee, Sharan Narang, Michael Matena, Yanqi Zhou, Wei Li, Peter J Liu, et al. Exploring the limits of transfer learning with a unified text-to-text transformer. J. Mach. Learn. Res., 21(140):1–67, 2020.
Victor Sanh, Lysandre Debut, Julien Chaumond, and Thomas Wolf. Distilbert, a distilled version of bert: smaller, faster, cheaper and lighter. arXiv preprint arXiv:1910.01108, 2019.
D. Sarkar. Text Analytics with Python: A Practitioner’s Guide to Natural Language Processing. Apress, 2019.
Barry Schiffman, Ani Nenkova, and Kathleen McKeown. Experiments in multidocument summarization. In Proceedings of the Second International Conference on Human Language Technology Research, HLT ’02, page 52–58, San Francisco, CA, USA, 2002. Morgan Kaufmann Publishers Inc.
S. Srivastava. Natural Language Processing with Python: Hands-On Labs to Apply Deep Learning Architectures to NLP Applications. Independently Published, 2021.
Brahim Tlili. Identification et commande des systèmes non linéaires : Utilisation des modèles de type NARMA. Theses, Ecole Nationale d’Ingénieurs de Tunis, July 2008.
Juan-Manuel Torres-Moreno. Automatic text summarization. John Wiley & Sons, 2014.
Lewis Tunstall, Leandro von Werra, and Thomas Wolf. Natural language processing with transformers. " O’Reilly Media, Inc.", 2022.
Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, Łukasz Kaiser, and Illia Polosukhin. Attention is all you need. Advances in neural information processing systems, 30, 2017.
Lilian Weng. Les réseaux de neurones récurrents pour les séries temporelles, Avril 2020.
Thomas Wolf, Lysandre Debut, Victor Sanh, Julien Chaumond, Clement Delangue, Anthony Moi, Pierric Cistac, Tim Rault, Rémi Louf, Morgan Funtowicz, et al. Transformers: State-of-the-art natural language processing. In Proceedings of the 2020 conference on empirical methods in natural language processing: system demonstrations, pages 38–45, 2020.
Linting Xue, Noah Constant, Adam Roberts, Mihir Kale, Rami Al-Rfou, Aditya Siddhant, Aditya Barua, and Colin Raffel. mt5: A massively multilingual pre-trained text-to-text transformer. arXiv preprint arXiv:2010.11934, 2020.
Jingqing Zhang, Yao Zhao, Mohammad Saleh, and Peter Liu. Pegasus: Pretraining with extracted gap-sentences for abstractive summarization. In International Conference on Machine Learning, pages 11328–11339. PMLR, 2020.
Jan Žižka, František Dařena, and Arnošt Svoboda. Text mining with machine learning:
principles and techniques. CRC Press, 2019.
Annexes
68 |
Après ses études de droit à Londres, Gandhi est retourné dans son pays mais les affaires juridiques n’y tournent pas très bien pour lui.
Il entreprend alors, pendant les vingt années qui suivent, un combat de résistance non violente et de non-coopération face aux autorités d’Afrique du Sud. Influsencé par l’écrivain américain Henry David Thoreau (1817-1862), il développe en 1909 ses théories du combat par la non-violence et la désobéissance civile de masse, la 2 0.3.
L’Afrique du Sud a été à la fois comme un terrain de croissance, de mûrissement, mais aussi de mise en pratique préparatoire des théories de non violence qu’il mettait au point.
Les combats non violents de Gandhi pour la défense des droits de l’homme eurent une influence importante sur les mouvements de libération et de défense des droits civiques dans le monde entier, notamment pour les noirs en Amérique du Nord avec Martin Luther King.
0.3 Premiers pas dans la non violence [1, 3] Lorsque Gandhi débarqua en Afrique du Sud, au mois de mai 1893, il avait uniquement pour mission de gagner un procès, de se procurer un peu d’argent et, peut-être, en fin de 3 compte, de commencer sa carrière : « Je tente ma chance dans l’Afrique du Sud.
Ce plan est adopté, ce qui mène à une lutte de sept ans au cours de laquelle des milliers d’Indiens et de Chinois sont emprisonnés (incluant Gandhi lui-même en de nombreuses occasions), fouettés ou même abattus pour avoir fait grève, refusé de s’enregistrer, brûlé leur carte d’enregistrement ou avoir résisté de manière non violente.
C’est durant cette période que Gandhi entame une correspondance avecLéon Tolstoï, où ils échangent leurs vues sur la non-violence et la politique globale jusqu’à la mort de l’écrivain russe.
APPROCHE DE LA LUTTE NON VIOLENTE [?,?] son correspondant : « Votre activité au Transvaal (Afrique du Sud), pays qui semble être aux confins de la Terre, est une réalisation centrale, l’accomplissement le plus important parmi tous ceux qui ont actuellement lieu dans le monde.
Comme déjà mentionné, Gandhi a toujours été une source d’inspiration sans précédent pour tout adepte de la non violence et l’écho de sa pensée est toujours présent aujourd’hui.
Bien que sa pensée ne s’applique explicitement ni directement par ceux qui se réclament de lui, c’est une icône mondiale centrale dans la lutte non violente. | TP N°1 D’EDUCATION A LA PAIX Le Mahatma GANDHI KRAME KADURHA David (Matricule :14167) Tech 1 - Génie Informatique Le 21 Août 2022 0.1 Introduction Le Mahatma Gandhi ! Qui ne connaît pas ce grand homme ? Sa pensée est connue et citée partout au monde. Plus d’un sont les hommes, et pas des moindres, qui se réclament de sa pensée. Il demeure une icône centrale de la non-violence et en est sans doute un parfait pionnier. La force de sa personnalité et des idées qu’il défend réside, non seulement en leur beauté mais surtout en leur pouvoir transformateur. Sa pratique d’une philosophie constamment mise à l’épreuve le distingue des idéalistes purs. Mais sa pensée toujours justifiée par des grands idéaux, le rapproche encore paradoxalement des idéalistes modérés. Son impact sur le monde a largement dépassé sa seule terre natale. 0.2 Brève biographie de Gandhi [1, 2] Mohandas Karamchand Gandhiest un dirigeant politique indien, important guide spirituel et icône de la non-violence. Né à Porbandar (Gujarat) le 2 octobre 1869 et mort assassiné à Delhi le 30 janvier 1948, il est communément connu et appelé en Inde et dans le monde commeMahatma Gandhi(grande âme). Toutefois, il refusera le titre de Mahatmadurant toute sa vie. Comme il a été élevé dans les valeurs hindouistes, il apprend à connaître les autres religions et la tolérance envers elles. D’ailleurs, la Baghavad-Gita est un texte de l’hin- douisme qui aura une très grande influence sur lui. Suivant les coutumes de sa caste, il s’est marie à l’âge de 14 ans avecKasturbaiqui restera son épouse jusqu’à sa mort en 1942. Après ses études de droit à Londres, Gandhi est retourné dans son pays mais les affaires juridiques n’y tournent pas très bien pour lui. En 1893, il est employé comme conseiller juridique pour une société indienne en Afrique du Sud. Il y découvre comment les noirs ainsi que les indiens y sont privés de nombreux droits civiques et sont victimes de l’intolérance et du racisme. Il entreprend alors, pendant les vingt années qui suivent, un combat de résistance non violente et de non-coopération face aux autorités d’Afrique du Sud. Influsencé par l’écrivain américain Henry David Thoreau (1817-1862), il développe en 1909 ses théories du combat par la non-violence et la désobéissance civile de masse, la 2 0.3. PREMIERS PAS DANS LA NON VIOLENCE [?,?] satyagraha, dans un ouvrage intitulé "Hind Swaraj". L’Afrique du Sud a été à la fois comme un terrain de croissance, de mûrissement, mais aussi de mise en pratique préparatoire des théories de non violence qu’il mettait au point. Ayant obtenu des avancées significatives en 1914 de la part du gouvernement sud-africain, Gandhi retourne en Inde, qu’il parcourt pour mieux la connaître. Après la Première Guerre mondiale, Gandhi, vite rejoint par des millions d’Indiens, s’oppose aux Britanniques en organisant la résistance civique et des campagnes de non-coopération (boycott des autorités, des tribunaux et des écoles,...). Gandhi conduisit ensuite aussi la marche du sel, célèbre opposition à la taxe sur le sel, et pendant la seconde guerre mondiale, refusant de soutenir les Britanniques sans la contrepartie d’indépendance im- médiate, il lance un appel pour que ceux-ci quittent l’Inde : "Quit India". Il s’ensuit la plus radicale révolte pour l’indépendance et de terribles répressions. Il fut emprisonné plusieurs fois en Afrique du Sud et en Inde pour ses activités ; il passa en tout six ans en prison. L’Inde accède finalement à l’indépendance le 15 Août 1947 malgré sa partition en Inde et Pakistan (partition à laquelle Gandhi s’oppose de toutes ses forces mais est obligé de l’accepter pour garantir la paix intérieure). Il ne peut empêcher le déchaînement de violence entre les musulmans et les hindous et meurt assassiné le 30 janvier 1948 par un fanatique hindou. Les combats non violents de Gandhi pour la défense des droits de l’homme eurent une influence importante sur les mouvements de libération et de défense des droits civiques dans le monde entier, notamment pour les noirs en Amérique du Nord avec Martin Luther King. Gandhi est reconnu comme le Père de la Nation en Inde, où son anniversaire est une fête nationale. Cette date a également été déclarée « Journée internationale de la non-violence » par l’Assemblée générale des Nations unies en 2007. 0.3 Premiers pas dans la non violence [1, 3] Lorsque Gandhi débarqua en Afrique du Sud, au mois de mai 1893, il avait uniquement pour mission de gagner un procès, de se procurer un peu d’argent et, peut-être, en fin de 3 compte, de commencer sa carrière : « Je tente ma chance dans l’Afrique du Sud. » Le procès exigeait la présence de Gandhi à Prétoria, capitale du Transvaal. On acheta pour lui à Durban un billet de première classe et il prit le train pour un voyage de nuit. A Maritzbourg, un blanc entra dans le compartiment et, voyant 1’intrus à peau brune, se retira pour reparaître un moment plus tard avec deux employés du chemin de fer qui ordonnèrent à Gandhi de déménager dans le fourgon. Gandhi protesta en disant qu’il avait un billet de première. Cela ne fit aucun effet. Il fallait qu’il sortît. Il refusa et resta. Alors on alla chercher un policier qui le jeta dehors avec ses bagages. Gandhi aurait pu rentrer dans le train et trouver une place dans le wagon de troisième. Il préféra rester dans la salle d’attente. Il faisait froid dans ces montagnes. Son pardessus était dans sa valise que retenaient les gens de la gare; par peur d’être de nouveau injurié, il n’alla pas le réclamer. Il resta là assis toute la nuit, grelottant et dépité. Devait-il retourner aux Indes? Cet épisode était le reflet d’une situation bien plus importante. Fallait-il en prendre son parti ou simplement chercher une réparation pour son injure personnelle, terminer le procès et retourner chez lui dans l’Inde? Il s’était heurté au terrible fléau du préjugé de la couleur. Son devoir était de le combattre. Fuir en abandonnant ses compatriotes dans cette mauvaise situation aurait été lâche. Bien des années après, aux Indes, le Dr John R. Mott, un missionnaire chrétien, demanda à Gandhi : « Quelles ont été les expériences les plus décisives de toute votre vie? » En réponse, Gandhi lui raconta ce qui s’était passé cette nuit-là à la gare de Maritzbourg. Au cours de cette nuit glaciale à Maritzbourg, le germe de la protestation sociale était né en Gandhi. Mais il ne fit rien encore. Il poursuivit son travail à Prétoria.Une fois son procès terminé, Gandhi retourna à Durban et se prépara à prendre le bateau pour les Indes. Il avait séjourné dans l’Afrique du Sud douze mois environ. Avant son départ, ses associés donnèrent en son honneur une fête d’adieu. Pendant cette fête quelqu’un lui remit le Natal Mercury du jour, où il découvrit un bref écho concernant une loi proposée par le gouvernement de Natal en vue de priver les Indiens du droit d’élire les membres du corps législatif. Gandhi comprit la nécessité de résister à cette tendance. Ses amis y étaient 4 0.3. PREMIERS PAS DANS LA NON VIOLENCE [?,?] disposés, mais sans lui, disaient-ils, « ils étaient ignorants, incapables et sans force ». Il consentit à rester un mois de plus. Il resta vingt ans, luttant pour la défense des droits des Indiens. Il remporta la victoire. Au début de la Deuxième Guerre des Boers, en 1899, Gandhi déclare que les Indiens doivent soutenir l’effort de guerre s’ils veulent légitimer leur demande de citoyenneté. Il organise un corps d’ambulanciers volontaires de 300 Indiens libres et de 800 coolies indiens, appelé le Indian Ambulance Corps, une des rares unités médicales qui secouraient les Sud-Africains noirs. Gandhi lui-même est porteur de civière à la bataille de Spion Kop. Il est décoré à cette occasion. Malgré tout, à la fin de la guerre, la situation des Indiens ne s’améliore pas, et continue même à se détériorer. En 1906, le gouvernement du Transvaal vote une nouvelle loi demandant l’en- registrement de toute la population indienne. Lors d’une rencontre de protestation à Johannesbourg le 11 septembre 1906, Gandhi met en pratique pour la première fois sa méthodologie dusatyagraha(attachement à la vérité), ou protestation non violente, dont il avait exposé la théorie en 1904. Il appelle ses compagnons indiens à défier la nouvelle loi et à subir les punitions qui en résulteraient au lieu de résister par la violence. Il s’inspire en cela des préceptes, de son ami indienShrimad Rajchandra, un ascète jaïn avec lequel il correspond jusqu’à la mort de celui-ci, et considéré comme son premier maître spirituel. Ce plan est adopté, ce qui mène à une lutte de sept ans au cours de laquelle des milliers d’Indiens et de Chinois sont emprisonnés (incluant Gandhi lui-même en de nombreuses occasions), fouettés ou même abattus pour avoir fait grève, refusé de s’enregistrer, brûlé leur carte d’enregistrement ou avoir résisté de manière non violente. C’est durant cette période que Gandhi entame une correspondance avecLéon Tolstoï, où ils échangent leurs vues sur la non-violence et la politique globale jusqu’à la mort de l’écrivain russe. La désobéissance civile culmine en 1913 avec une grève des mineurs et la marche des femmes indiennes. Bien que le gouvernement sud-africain réprime les manifestants indiens avec succès, l’opinion publique réagit violemment aux méthodes extrêmement dures employées contre les manifestants asiatiques pacifiques. Finalement le général Jan Christiaan Smuts est forcé de négocier un compromis avec Gandhi. Les mariages non chrétiens redeviennent 5 légaux et une taxe de trois livres qui représentait six mois de salaire, imposée aux Indiens qui voulaient devenir des travailleurs libres (c’est-à-dire les coolies), est abolie. C’étaient ses débuts dans la lutte non violente. L’Afrique du sud a servi de premier plateau d’application des principes qui mûrissaient en lui. 0.4 Approche de la lutte non violente [4, 5] La puissance du Mahatma prenait racine dans l’action. Il ne demandait jamais à quiconque de faire quoi que ce soit qu’il ne faisait pas lui-même. Il ne faisait que ce qu’il croyait devoir faire. Les exemples sont nombreux : la marche du sel, le rouet, le satyagraha, la destruction des vêtement de style européen, la libération des femmes et des intouchables... Il entraînait des millions de personnes dans son action. Il ne prêchait pas, il agissait, il faisait ce qu’il croyait devoir faire et les foules le suivaient par milliers, par million ou par centaines de millions. La pensée de Gandhi n’émerge pas de manière spontanée. Elle se nourrit notamment des ouvrages de Henry David Thoreau, de Léon Tolstoï ou encore de John Ruskin. Gandhi ne peut que se reconnaître dans l’expérience de Thoreau, incarcéré parce qu’il refusait de payer tout impôt à un État esclavagiste et portant la guerre au Mexique. Il reprend à son compte l’idée de désobéissance civile, laquelle résonne avec les moyens de lutte qu’il adopte en Afrique du Sud pendant le combat contre les lois sur l’immigration. Il la transforme aussi. Non sans grandes difficultés, il cherche à en faire une pratique collective. Il désire, en outre, la disjoindre absolument de toute violence, alors que l’écrivain américain, Thoreau, sans être un apôtre de la violence, n’hésitait aucunement à justifier son usage. Sur cette question, c’est l’influence de Tolstoï que l’on perçoit. Ne laissant planer aucun doute à ce propos, Gandhi affirme : « Lorsque je suis allé en Angleterre, j’étais un défenseur de la violence, je croyais en elle, et aucunement en la non-violence. Mais après que j’ai luLe Royaume de Dieu est en vousde Tolstoï, cette absence de foi en la non- violence s’est volatilisée. » En 1909, les deux hommes échangent quelques lettres. Dans la dernière de celles-ci, le romancier russe offre une véritable consécration à l’entreprise de 6 0.4. APPROCHE DE LA LUTTE NON VIOLENTE [?,?] son correspondant : « Votre activité au Transvaal (Afrique du Sud), pays qui semble être aux confins de la Terre, est une réalisation centrale, l’accomplissement le plus important parmi tous ceux qui ont actuellement lieu dans le monde. » Quelque temps plus tard, Gandhi baptisera « ferme Tolstoï » son second projet de vie communautaire. On en arrive à Ruskin.Unto This Lastest pour Gandhi une révélation. L’ouvrage le pousse à quitter la ville pour la campagne. En 1904, avec son ami Hermann Kallenbach, il acquiert à cette fin plusieurs hectares de terrain près de Durban et crée la communauté de Phoenix. Il s’agit là de faire l’expérience d’une vie collective où la simplicité règne. Les positions que chacun occupe au sein de la société doivent s’effacer, le travail agricole et artisanal doit acquérir une place centrale. Les locaux d’Indian Opinion sont aussi installés à cet endroit. Au fil des textes, on verra le choix d’un tel mode de vie se joindre à l’argumentaire sur le combat non violent ; il sera présenté comme son aspect constructif. Ces auteurs, Gandhi ne se contente pas de les lire : il étaie ses arguments en les citant abondamment et traduit certaines de leurs œuvres en gujarati. La traduction, chez Gandhi, n’est pas simplement une pratique textuelle, c’est aussi l’une des opérations fondamentales grâce auxquelles les concepts s’affinent et la pensée chemine. Pour qualifier la lutte qu’il invite à mener en Afrique du Sud, il parle d’abord de « résistance passive». Mais l’expression, selon lui trop étriquée, a des connotations ambiguës : elle semble désigner « l’arme des faibles ». Invoquer, à l’instar de Thoreau, la « désobéissance civile » s’avère plus pertinent. Une telle appellation, néanmoins, malgré le génie de son auteur, ne suffit pas à décrire toute la portée de la révolte en cours. Comme « résistance passive », en outre, elle provient de la langue des colons. Si Gandhi utilise abondamment l’anglais, c’est à son grand dam ! Le respect de sa langue maternelle et de la pensée qui s’y déploie lui commande de ne pas employer de termes qui ne s’y laisseraient traduire. Gandhi organise donc en 1907, prix à la clef, un concours dans lequel il invite à trouver des équivalents à « résistance passive », « désobéissance civile » et leurs dérivés. L’appel est lancé, en gujarati, dans Indian Opinion. Avec sa précision de juriste, Gandhi commente l’ensemble des propositions qui lui sont faites, et n’en retient qu’une : la sienne.Satyagraha [être arrimé à la vérité], ainsi seront condensés en un mot les multiples aspects de la lutte non violente qu’il entend mener. Ironie de l’histoire, celui-là sonnera si juste à ses oreilles 7 que fréquemment, lorsqu’il s’exprimera en anglais, il le restituera tel quel.Il en viendra même à distinguer satyagraha et désobéissance civile, invitant à imaginer le premier comme un arbre et la seconde comme l’une de ses multiples branches. En bref donc, parsatyagrahaon entend le refus de se soumettre à une loi, un règlement ou aux autorités, tout en menant un combat et une action pacifiques. Le but d’une « action de satyagraha » est devaincre l’injustice et de se libérer de l’oppresseur.L’idéologie non violente de Gandhi revient à rejeter tout ce qui détruit la personne humaine.Pour ce faire, elle emprunte plusieurs voies : la vérité, la justice, l’amour et le sacrifice de soi. Cette forme de résistance a été instaurée par Gandhi afin de lutter pour la libération de son peuple face à la couronne britannique et de la diaspora indienne, victime d’apartheid, en Afrique du Sud. Gandhi perçoit la lutte armée comme un acte de barbarie car celle-ci utilise la force des armes afin de faire taire l’adversaire ou de lui imposer son point de vue. Cause de souffrances et de nuisances, la violence est l’expression du mal. Elle entraîne une réplique de la part de celui qui la subit, s’engage alors un cycle infernal de violences successives. A l’inverse,la non-violence prônée par le Mahatma Gandhi est l’absence totale de malveillance à l’égard de tout ce qui vit. Par sa stratégie, Gandhi propose une autre façon de résoudre les conflits. Pourtant l’homme accorde aujourd’hui encore une plus grande confiance dans la lutte armée. Peut-on au contraire considérer avec Gandhi que la non-violence est une forme de lutte plus efficace que la lutte armée ? Selon Gandhi, la non-violence est préférable à la lutte armée évidemment car toute violence, de quelque nature qu’elle soit, est contraire à la vérité. 0.5 Retombées sur le plan politique et social [6] L’importance et l’influence de Gandhi sur le monde contemporain ne font aucun doute. Il est parmi les personnes ayant marqué le XXe siècle et cette influence ne s’est pas tarie avec le temps. Il s’agit d’une pensée riche et complexe qui n’a pas encore été totalement épuisée malgré les très nombreux commentaires dont elle n’a cessé de faire l’objet. 8 0.5. RETOMBÉES SUR LE PLAN POLITIQUE ET SOCIAL [?] Si l’on considère Gandhi comme l’homme qui a mené le pays à l’indépendance et voulait proposer un mode original de développement du pays, force est de déplorer un bilan plus que négatif. La condamnation à mort et l’exécution de ses assassins constituaient en elles-mêmes les preuves d’un rejet de ses idées. Au sens strict, l’Inde n’a adopté aucune des options politiques, économiques et sociales propres à la pensée de Gandhi : si l’on s’en tient à ce constat, on peut légitimement parler d’échec. Néanmoins, de son vivant, il a énormément réussi. De l’abolition des lois ségrégationnistes à l’égard des indiens en Afrique du Sud à l’indépendance de son pays, en passant par l’obtention d’une adoption unanime de ses vues, Gandhi a énormément aidé son peuple et l’humanité en général, par l’espoir qu’il fit renaître auprès des opprimés. La pensée de Ganghi est une inépuisable source de réflexion pour des millions de gens et, parmi ces derniers, de très nombreuses personnalités de toute sorte, qu’elles soient activistes, philosophes voire politiques. Parmi ces derniers, une figure vient immédiatement à l’esprit dont l’action et la personnalité furent inlassablement associées à Gandhi. Aux États-Unis, en effet, Martin Luther King est considéré comme une personnalité de premier plan et la pensée gandhienne est très présente dans son approche, justifiée aussi par les évangiles. Il fut impliqué dans le mouvement d’émancipation des noirs américains et y joua un rôle remarquable. On peut également évoquer Nelson Mandela, une autre grande figure de la non violence et de la libération des peuples. Ainsi, l’héritage de Gandhi n’est pas moindre. Une autre grande figure, et pas des moindres, inspiré fortement de la pensée gandienne est léconomiste Ernst Friedrich Schumacher. Selon Schumacher, l’économie doit se plier aux besoins de la nation et le libéralisme n’est pas adapté aux pays en dé- veloppement. Elle doit aussi tenir compte de l’ensemble des ressources de la planète et c’est ainsi qu’il fut un des premiers à parler de « développement durable », concept qui fait florès aujourd’hui. Gandhi, poursuit-il, proposait trois remèdes à la maladie de l’économie : taille réduite (smallness), simplicité et non-violence. Et il prend pour autre fondement ce principe énoncé par Gandhi lui-même : « La Terre fournit assez pour satisfaire les besoins de chaque homme, mais pas pour l’avidité de chacun ». C’est encore Gandhi qui considérait qu’il fallait privilégier la production pour les masses davantage 9 que la production de masse.Schumacher montre surtout que les principes gandhiens de l’économie fondent les besoins de l’économie moderne pour un développement durable. Il faut, par exemple, recentrer le transport et la distribution sur le local pour éviter des coûts humains et environnementaux excessifs. Comme déjà mentionné, Gandhi a toujours été une source d’inspiration sans précédent pour tout adepte de la non violence et l’écho de sa pensée est toujours présent aujourd’hui. Bien que sa pensée ne s’applique explicitement ni directement par ceux qui se réclament de lui, c’est une icône mondiale centrale dans la lutte non violente. 0.6 Conclusion La pensée de Gandhi est très profonde et ne se limite pas à l’aspect pratique qui l’a accompagnée. En fait, au-delà d’être une pensée en mouvement, une pensée mise directe- ment en pratique par son auteur, la pensée gandhienne est tout d’abord une idéologie forte. Cette pensée tient beaucoup plus compte de la source profonde des principes véhiculées que de leur mise en pratique qui peut être victime des aléas de la vie. Toute la pensée de Gandhi tourne autour de lavérité. Il dit d’ailleurs que, s’il devait choisir entre non-violence et vérité, il choisirait cette dernière en lieu et place de celle-là [5]. C’est en ce sens que, paradoxalement, bien que s’étant réclamé inspiré de l’hindouisme, Gandhi peut être considéré comme un disciple directe de la pensée de Jésus. 10 Bibliographie [1] Wikipedia.org. https://fr.wikipedia.org/wiki/Gandhi, 2022. [2] La toupie.org. https://www.toupie.org/Biographies/Gandhi.htm, 2022. [3] Louis Fischer.La Vie du Mahâtma Gandhi. Paris, 1983. [4] Ridoré Cécile Woodlyne et Vincent Nyrkah Brice Arnaud Hello, Dieumercy Junie Edwina. L’idéologie non violente de gandhi, 2014. [5] Mohandas Karamchand Gandhi, Krishna Kripalani, Guy Vogelweith, Sarvepalli Radhakrishnan, and Sarvepalli Radhakrishnan.La voie de la non-violence. Gallimard, 2004. [6] Robert Deliège. https://books.openedition.org/septentrion/13949, 2022. 11 |